Hur AI-agenter faktiskt fungerar. Tänk på ett samtal som en rad objekt: System → användare→assistent → användare→assistent... Systemprompten definierar rollen. Exempel: "Du är en kodningsagent som löser programmeringsproblem." Sedan frågar användaren något. LLM:n tar emot hela konversationen som kontext och börjar generera nästa tokens. (Vad är tokens? små textbitar. en token kan vara ett helt ord, en del av det, blank mellanslag, osv.) Men det finns en annan del: verktyg. Verktyg är bara funktioner som LLM får anropa. Till exempel: • read_file(väg) • edit_file(väg, innehåll) • search_web(fråga) • bash (kommando) dessa överförs till modellen som en del av sammanhanget. Så istället för att bara returnera text kan LLM:n returnera verktygsanrop. Exempel:...