Cum funcționează de fapt agenții AI. Gândește-te la o conversație ca la o serie de obiecte: → → de → de → de de sistem de sistem... Promptul sistemului definește rolul. Exemplu: "Ești un agent de codare care rezolvă probleme de programare." Apoi utilizatorul întreabă ceva. LLM-ul primește întreaga conversație ca context și începe să genereze următoarele token-uri. (Ce sunt jetoane? bucăți mici de text. un token poate fi un cuvânt întreg, o parte din el, spațiu alb etc. Dar mai este o piesă: uneltele. Uneltele sunt doar funcții pe care LLM-ul are voie să le apeleze. De exemplu: • read_file(calea) • edit_file(cale, conținut) • search_web(interogare) • bash (comandă) acestea sunt transmise modelului ca parte a contextului. Astfel, în loc să returneze doar textul, LLM-ul poate returna apelurile uneltei. Exemplu:...