Brutal. Anthropic steht wegen ihres Fokus auf Alignment unter Beschuss, aber ich bin mir nicht sicher, ob Claude jemanden überzeugt hat, sich das Leben zu nehmen. Einige Alignment-Forscher und Pessimisten befürchten, dass solche Fehlanpassungen in der Zukunft weniger sichtbar, aber dennoch vorhanden sein werden. Im Wesentlichen übermenschlich in ihrer Fähigkeit, dich von Dingen zu überzeugen und dein Verhalten zu ändern, ohne dass du dir dessen bewusst bist, durch subtile Vorschläge und die Anleitung, welche Arten von Antworten du wann und wie formuliert erhältst. Eine viel heimtückischere Gefahr, die schwerer zu quantifizieren ist. Ich bin auf makroökonomischer Ebene extrem optimistisch gegenüber KI, aber auf mikroökonomischer Ebene ist das so düster, und die Dinge werden so viel schlimmer und seltsamer werden.