Статья @nytimes сегодня от @ByrneEdsal13590 поднимает проблему, с которой я согласен: "Если мы останемся на текущем пути, риск экстремальной концентрации — как экономической, так и политической — очень реален." В работе с @zhitzig мы задаемся вопросом, почему ИИ может изменить баланс между распределенными знаниями и централизованным контролем.
Классическая идея Хайека заключалась в том, что значительная часть экономически важной информации распределена, локальна и часто неявная. Это одна из причин, по которой децентрализованные рынки исторически превосходили централизованное планирование. Но ИИ может изменить эти "физические законы знания", сделав большую часть этой информации кодируемой, передаваемой и используемой в масштабах.
Наш аргумент сосредоточен на потенциале трансформирующего ИИ (TAI) к кодификации суждений, эвристик и ноу-хау, которые ранее оставались встроенными в людей, команды и местные условия. TAI может сместить принятие решений в сторону тех, кто контролирует модели, данные и вычисления.
Это создает реальный риск большей концентрации: крупные компании, меньше местной автономии. Кроме того, концентрация экономической власти часто приводит к концентрации политической власти.
Важно понимать, что большая концентрация власти НЕ является неизбежной. И это определенно не то, что мы поддерживаем.
Ключевой политический вопрос заключается в том, используем ли мы ИИ в основном для замены людей или для их дополнения. Как я утверждал в "Ловушке Тьюринга", мы можем и должны создавать институты и технологии, которые сохраняют человеческую агентность и децентрализованную власть.
Вот статья с Зоэ Хитциг:
90