Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Ihre KI hat stillschweigend alles vergessen, was Sie ihr gesagt haben.
Nicht zufällig. Nicht laut. Systematisch. Begonnen mit den Entscheidungen, die am wichtigsten sind.
> Die Einschränkung, die Sie vor drei Monaten festgelegt haben: "verwenden Sie niemals Redis, der Kunde hat es nach einem Produktionsvorfall abgelehnt." Weg. Die Einschränkung der Bereitstellungsregion gemäß GDPR. Weg. Das Retry-Limit, das Sie empirisch nach dem Kaskadenfehler getestet haben. Weg.
> Das Modell hat es Ihnen nie gesagt. Es hat einfach begonnen, Standardwerte zu verwenden.
> Das nennt man Kontextverfall. Und Forscher von Cambridge und Independent haben gerade quantifiziert, wie schlimm es wirklich ist.
> Jedes Produktions-KI-System, das lange genug läuft, wird schließlich seinen Kontext komprimieren, um Platz für neue Informationen zu schaffen. Diese Kompression ist katastrophal verlustbehaftet. Sie haben es direkt getestet: 2.000 Fakten, die mit 36,7× komprimiert wurden, ließen 60 % der Wissensbasis dauerhaft irreparabel zurück. Nicht halluziniert. Nicht falsch. Einfach weg. Das Modell hat ehrlich berichtet, dass es die Informationen nicht mehr hatte.
> Dann haben sie etwas Schlimmeres getestet. Sie haben 20 reale Projektbeschränkungen in ein 88-Runden-Gespräch eingebettet, die Art von Beschränkungen, die natürlich in jedem langfristigen Projekt entstehen, und dann die kaskadierende Kompression genau so angewendet, wie es Produktionssysteme tun. Nach einer Runde: 91 % erhalten. Nach zwei Runden: 62 %. Nach drei Runden: 46 %.
> Das Modell arbeitete die ganze Zeit mit vollem Vertrauen weiter. Es generierte Ausgaben, die gegen die vergessenen Beschränkungen verstießen. Kein Fehlersignal. Keine Warnung. Einfach stillschweigende Rückkehr zu angemessenen Standardwerten, die zufällig für Ihre spezifische Situation falsch waren.
> Sie haben dies über vier Grenzmodelle getestet. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Jedes einzelne brach unter der Kompression zusammen. Das ist kein Modellproblem. Es ist architektonisch.
→ 60 % der Fakten dauerhaft verloren nach einem einzigen Kompressionsdurchgang
→ 54 % der Projektbeschränkungen nach drei Runden kaskadierender Kompression weg
→ GPT-5.4 fiel bei nur 2× Kompression auf 0 % Genauigkeit
→ Selbst Opus behielt nur 5 % der Fakten bei 20× Kompression
→ In-Context-Speicher kostet 14.201 $/Jahr bei 7.000 Fakten gegenüber 56 $/Jahr für die Alternative
Die KI-Labore wissen das. Ihre Lösung sind größere Kontextfenster. Ein 10M-Token-Fenster ist ein größeres Behältnis. Es ist immer noch ein Behälter. Verdichtung ist unvermeidlich für jedes langfristige System. Die Fenstergröße bestimmt nur, wann das Vergessen beginnt, nicht ob es passiert.

55
🚨 BREAKING: Forscher haben einen einzelnen schlechten Akteur in eine Gruppe von LLM-Agenten eingeschleust. Das gesamte Netzwerk konnte keinen Konsens erreichen.
Das ist das Problem der byzantinischen Generäle. Ein 40 Jahre alpes Albtraum in verteilten Systemen.
Und jetzt ist es auch das Problem deiner Agenten-Pipeline.
In vollständig harmlosen Umgebungen, ohne schlechte Akteure, scheitern LLM-Agenten immer noch daran, sich auf gemeinsame Werte zu einigen. Und es wird schlimmer, je mehr Agenten zur Gruppe hinzugefügt werden.
Der Fehlermodus ist aufschlussreich. Es ist keine subtile Wertkorruption. Es ist nicht ein Agent, der eine falsche Antwort einschleust. Die Modelle... stagnieren einfach. Sie laufen in Zeitüberschreitungen. Sie drehen sich im Kreis. Das Gespräch kommt nie zu einer Einigung.
Das ist wichtig, weil der gesamte Hype um multi-agent AI davon ausgeht, dass Koordination funktioniert. Autonome Agentenschwärme, kollaborative Problemlösungen, dezentrale KI-Systeme. All das geht davon aus, dass, wenn man mehrere LLMs in einen Raum bringt und ihnen ein Protokoll gibt, sie sich auf eine gemeinsame Entscheidung einigen.
Byzantinischer Konsens ist eines der ältesten, am meisten untersuchten Probleme in verteilten Systemen. Klassische Algorithmen haben es vor Jahrzehnten mit strengen mathematischen Garantien gelöst. Die Frage war, ob LLM-Agenten dasselbe durch natürliche Sprachkommunikation anstelle von formalen Protokollen erreichen könnten.
Die Antwort, zumindest vorerst, ist nein. Und der Grund ist es wert, darüber nachzudenken.
Traditionelle Konsensalgorithmen funktionieren, weil jeder Knoten einem identischen deterministischen Protokoll folgt. LLMs sind stochastisch. Der gleiche Prompt erzeugt unterschiedliche Ausgaben über verschiedene Durchläufe. Eine Einigung, die in Runde 3 hält, kann in Runde 4 aufgelöst werden, wenn Agenten ihr Denken über die Antworten der Kollegen überarbeiten.
Das ist das grundlegende Missverhältnis: Konsensprotokolle gehen von deterministischen Zustandsmaschinen aus. LLMs sind das Gegenteil davon.
Das bedeutet auch, dass "mehr Agenten = bessere Antworten" eine Obergrenze hat, die niemand misst. Bei einer bestimmten Gruppengröße überwiegen die Koordinationskosten und die Konvergenzfehler jeden Vorteil aus unterschiedlichen Perspektiven.
Die praktische Implikation ist unangenehm für alle, die multi-agent Systeme für risikobehaftete Aufgaben entwickeln. Zuverlässige Einigung ist keine emergente Eigenschaft, die sich aus der Konversation intelligenter Agenten ergibt. Sie muss explizit konstruiert werden, mit formalen Garantien, nicht in die Existenz gehofft werden.
Wir setzen multi-agent Systeme in Finanzen, Gesundheitswesen und autonome Infrastruktur ein. Und das Konsensproblem, das grundlegendste Koordinationsprimitive, ist noch nicht gelöst.

63
Google DeepMind hat gerade etwas veröffentlicht, das kein Benchmark oder ein neues Modell ist.
Es ist ein Governance-Rahmen für den Fall, dass KI-Agenten anfangen, andere KI-Agenten einzustellen.
Klingt abstrakt. Ist es nicht. Dies ist die fehlende Infrastrukturebene für das "agentische Web."
Hier ist, warum es wichtig ist:

138
Top
Ranking
Favoriten