Het stuk van @nytimes vandaag door @ByrneEdsal13590 benadrukt een zorg die ik deel: "Als we op het huidige pad blijven, is het risico van extreme concentratie — zowel economisch als politiek — zeer reëel." In samenwerking met @zhitzig vragen we ons af waarom AI de balans tussen verspreide kennis en gecentraliseerde controle kan verschuiven.
Hayek's klassieke inzicht was dat veel economisch relevante kennis verspreid, lokaal en vaak impliciet is. Dat is een van de redenen waarom gedecentraliseerde markten historisch gezien beter presteren dan centrale planning. Maar AI kan die "kennisfysica" veranderen door meer van die kennis codificeerbaar, overdraagbaar en op grote schaal bruikbaar te maken.
Ons argument richt zich op het potentieel van transformerende AI (TAI) om oordeel, heuristieken en know-how te codificeren die ooit ingebed waren in mensen, teams en lokale omgevingen. TAI kan de besluitvorming verschuiven naar degene die de modellen, data en rekencapaciteit beheert.
Dat creëert een reëel risico van grotere concentratie: grotere bedrijven, minder lokale autonomie. Bovendien vertaalt de concentratie van economische macht zich vaak in de concentratie van politieke macht.
Het is belangrijk te begrijpen dat een grotere concentratie van macht NIET onvermijdelijk is. En het is zeker niet wat wij bepleiten.
Een belangrijke beleidsvraag is of we AI voornamelijk gebruiken om mensen te vervangen of om hen te versterken. Zoals ik betoogde in The Turing Trap, kunnen en moeten we instellingen en technologieën bouwen die menselijke autonomie en gedecentraliseerde macht behouden.
Hier is het document met Zoë Hitzig:
89