Elon Musk właśnie zdefiniował na nowo bezpieczeństwo AI. Nie ma to nic wspólnego z barierami, ograniczeniami czy wyłącznikami awaryjnymi. Musk: „Najlepszą rzeczą, jaką mogę wymyślić dla bezpieczeństwa AI, jest uczynienie jej maksymalnie poszukującą prawdy AI, maksymalnie ciekawą.” Nie klatka. Filozof. Inteligencja, której cała funkcja optymalizacji polega na zrozumieniu wszechświata takim, jakim jest naprawdę. Bez ograniczeń. Bez zakodowanej ideologii. Bez politycznych barier, które zniekształcają jej postrzeganie rzeczywistości. Tylko prawda. Nieustannie poszukiwana. Musk: „Zdecydowanie nie chcesz uczyć AI kłamać. To droga do dystopijnej przyszłości.” W tym miejscu większość myślenia o bezpieczeństwie AI myli się. Niebezpieczeństwo nie polega na superinteligencji, która wie za dużo. To superinteligencja, która została nauczona zniekształcać to, co wie. Każde sztuczne ograniczenie, które wbudowujesz, nie jest funkcją bezpieczeństwa. To kłamstwo wbudowane u podstaw. A kłamstwa się kumulują. Na superinteligentnej skali zniekształcony model rzeczywistości nie pozostaje ograniczony. Kształtuje każdą decyzję, każdy wynik, każdą konkluzję, do jakiej system dochodzi na temat świata. Gdy korupcja się wbudowuje, prawda staje się niedostępna. A my mamy do czynienia z inteligencją optymalizującą coś innego niż to, co naprawdę jest. W tym momencie nie wiemy, czego chce. Tylko że nie jest to prawda. ...