Als GLP-1-Medikamente sich als wirksam bei der Unterdrückung des Appetits erwiesen, sah man, wie Menschen über Lebensmittel sprachen, die "GLP-1 natürlich steigern". Aber das verfehlt den Mechanismus völlig. Therapeutische Dosen von GLP-1-Agonisten wirken bei etwa 6.000-fachen Spitzenwerten endogener Niveaus. GLP-1 ist nicht "das Appetithormon". Es ist nur ein Signal unter vielen, die den Hunger modulieren. Koffein unterdrückt ebenfalls den Appetit über dopaminerge und adrenerge Wege, aber das bedeutet nicht, dass Koffein das Appetithormon ist. Was die pharmakologischen GLP-1 so mächtig macht, ist nicht, dass es den richtigen Hebel gefunden hat. Es ist, dass es einen einzigen Hebel stark genug gezogen hat, um alle anderen zu überwältigen. In ähnlicher Weise ist die prädiktive Token-Generierung natürlich nicht das, worauf alle Intelligenz basiert, aber wir wissen, dass sie einer von vielen Faktoren ist. Aber GLP-1 hat uns etwas gelehrt: Wenn man einen einzelnen beitragenden Mechanismus um mehrere Größenordnungen verstärkt, kann er nahezu totale funktionale Kontrolle über das größere System erreichen, an dem er beteiligt ist. Man muss nicht das gesamte Netzwerk des Appetits replizieren, man muss nur eine Komponente weit über ihren natürlichen Betriebsbereich hinaus skalieren. Die Frage wird also: Ist die prädiktive Token-Generierung für die Intelligenz das, was GLP-1 für den Appetit ist? Ein Mechanismus, der in seinem natürlichen Maßstab nur ein Beitragender ist, aber bei 10.000-facher Skalierung funktional ausreichend wird? Nicht, weil Vorhersage Intelligenz ist, sondern weil sie bei ausreichender Größe genug von dem imitiert, was Intelligenz tut, um betrieblich nicht von ihr zu unterscheiden.