wie KI-Agenten tatsächlich funktionieren. Denken Sie an ein Gespräch als ein Array von Objekten: System → Benutzer → Assistent → Benutzer → Assistent… Der System-Prompt definiert die Rolle. Beispiel: „Du bist ein Programmieragent, der Programmierprobleme löst.“ Dann fragt der Benutzer etwas. Das LLM erhält das gesamte Gespräch als Kontext und beginnt, die nächsten Tokens zu generieren. (Was sind Tokens? Kleine Textstücke. Ein Token kann ein ganzes Wort, ein Teil davon, Leerzeichen usw. sein.) Aber es gibt noch ein weiteres Element: Werkzeuge. Werkzeuge sind einfach Funktionen, die das LLM aufrufen darf. Zum Beispiel: • read_file(pfad) • edit_file(pfad, inhalt) • search_web(abfrage) • bash(befehl) Diese werden dem Modell als Teil des Kontexts übergeben. Anstatt nur Text zurückzugeben, kann das LLM also auch Werkzeugaufrufe zurückgeben. Beispiel:...