Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nick Bostroms neues Papier:
>Die Entwicklung von Superintelligenz ist nicht wie russisches Roulette zu spielen; es ist eher wie eine riskante Operation für eine Erkrankung, die andernfalls tödlich enden wird.
>Man könnte ebenso behaupten, dass, wenn niemand sie baut, alle sterben. Tatsächlich sind die meisten Menschen bereits tot. Der Rest von uns ist auf dem besten Weg, innerhalb weniger Jahrzehnte zu folgen. Für viele Einzelpersonen – wie die älteren Menschen und die schwer kranken – ist das Ende viel näher. Ein Teil des Versprechens der Superintelligenz ist, dass sie diesen Zustand grundlegend verändern könnte."
>Auf einem Weg (auf die Superintelligenz zu verzichten) sterben jeden Tag 170.000 Menschen an Krankheiten, Alterung und anderen Tragödien.
>Die Wahl, die vor uns steht, ist daher nicht zwischen einer risikofreien Basislinie und einem riskanten KI-Vorhaben. Es ist zwischen verschiedenen riskanten Trajektorien, die uns jeweils einer anderen Reihe von Gefahren aussetzen.
>Stellen Sie sich vor, Alzheimer zu heilen, indem man die verlorenen Neuronen im Gehirn des Patienten wiederherstellt. Stellen Sie sich vor, Krebs mit gezielten Therapien zu behandeln, die jede Tumorzelle eliminieren, aber keine der schrecklichen Nebenwirkungen der heutigen Chemotherapie verursachen. Stellen Sie sich vor, kranke Gelenke und verstopfte Arterien in einen makellosen, jugendlichen Zustand zurückzuversetzen. Diese Szenarien werden realistisch und unmittelbar, wenn Superintelligenz unsere Wissenschaft leitet.
>Wir gehen davon aus, dass die Verjüngungsmedizin die Sterblichkeitsraten auf ein konstantes Niveau senken könnte, das dem entspricht, was derzeit gesunde 20-Jährige in entwickelten Ländern genießen, was einer Lebenserwartung von etwa 1.400 Jahren entspricht.
>Die Entwicklung von Superintelligenz erhöht unsere verbleibende Lebenserwartung, vorausgesetzt, die Wahrscheinlichkeit einer durch KI verursachten Vernichtung liegt unter 97%.


Top
Ranking
Favoriten
