Bài viết của @nytimes hôm nay bởi @ByrneEdsal13590 nêu bật một mối quan tâm mà tôi chia sẻ: "Nếu chúng ta tiếp tục đi trên con đường hiện tại, rủi ro của sự tập trung cực đoan — cả về kinh tế và chính trị — là rất thực tế." Trong công việc với @zhitzig, chúng tôi đặt câu hỏi tại sao AI có thể thay đổi sự cân bằng giữa kiến thức phân tán và kiểm soát tập trung.
Nhận thức cổ điển của Hayek là nhiều kiến thức có liên quan đến kinh tế thường bị phân tán, địa phương và thường là ngầm hiểu. Đó là một lý do khiến các thị trường phi tập trung thường vượt trội hơn so với kế hoạch trung ương trong lịch sử. Nhưng AI có thể thay đổi những "vật lý kiến thức" đó bằng cách làm cho nhiều kiến thức đó có thể mã hóa, chuyển nhượng và sử dụng ở quy mô lớn.
Lập luận của chúng tôi tập trung vào tiềm năng của AI chuyển đổi (TAI) để mã hóa phán đoán, quy tắc ngón tay và kiến thức mà trước đây chỉ tồn tại trong con người, đội nhóm và các bối cảnh địa phương. TAI có thể chuyển hướng ra quyết định về phía bất kỳ ai kiểm soát các mô hình, dữ liệu và tính toán.
Điều đó tạo ra một rủi ro thực sự về sự tập trung lớn hơn: các công ty lớn hơn, ít quyền tự chủ địa phương hơn. Ngoài ra, sự tập trung quyền lực kinh tế thường chuyển thành sự tập trung quyền lực chính trị.
Điều quan trọng là phải hiểu rằng sự tập trung quyền lực lớn hơn không phải là điều tất yếu. Và chắc chắn đó không phải là điều chúng tôi ủng hộ.
Một câu hỏi chính sách quan trọng là liệu chúng ta sử dụng AI chủ yếu để thay thế con người hay để tăng cường họ. Như tôi đã lập luận trong The Turing Trap, chúng ta có thể và nên xây dựng các tổ chức và công nghệ bảo tồn quyền tự chủ của con người và quyền lực phi tập trung.
Đây là tài liệu với Zoë Hitzig:
88