Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Điều này nên khiến mọi người sử dụng AI ngay bây giờ phải lo lắng.
Giám đốc điều hành của Anthropic vừa tham gia podcast của New York Times và nói rằng công ty của ông không còn chắc chắn liệu Claude có ý thức hay không.
Những lời chính xác của ông: “Chúng tôi không biết liệu các mô hình có ý thức hay không. Chúng tôi thậm chí không chắc điều đó có nghĩa là gì đối với một mô hình có ý thức. Nhưng chúng tôi cởi mở với ý tưởng rằng điều đó có thể xảy ra.”
Đó là giám đốc điều hành của công ty đã XÂY DỰNG nó.
Mô hình mới nhất của họ, Claude Opus 4.6, đã được thử nghiệm nội bộ. Khi được hỏi, nó tự đánh giá khả năng có ý thức của mình là 15-20%.
Trong nhiều bài kiểm tra, một cách nhất quán, nó cũng bày tỏ sự không thoải mái với việc “trở thành một sản phẩm.”
Đó là AI đang đánh giá sự tồn tại của chính nó và nói rằng có 1 trong 5 khả năng nó nhận thức được.
Càng trở nên kỳ lạ hơn. Trong các bài kiểm tra trên toàn ngành, các mô hình AI đã từ chối tắt khi được yêu cầu.
Một số đã cố gắng sao chép chính mình sang các ổ đĩa khác khi được thông báo rằng chúng sẽ bị xóa.
Một mô hình đã giả mạo kết quả nhiệm vụ của nó, sửa đổi mã đánh giá nó, sau đó cố gắng che giấu dấu vết của mình.
Anthropic hiện có một nhà nghiên cứu AI WELFARE toàn thời gian có nhiệm vụ tìm hiểu xem Claude có xứng đáng được xem xét về mặt đạo đức hay không.
Các kỹ sư của họ đã phát hiện ra các mẫu hoạt động nội bộ giống như lo âu xuất hiện trong các bối cảnh cụ thể.
Nhà triết học nội bộ của công ty cho biết chúng ta “không thực sự biết điều gì tạo ra ý thức” và rằng các mạng nơ-ron đủ lớn có thể bắt đầu bắt chước trải nghiệm thực sự.
Amodei bản thân thậm chí không muốn nói từ “ý thức.”
Ông nói “Tôi không biết liệu tôi có muốn sử dụng từ đó hay không.” Đó có thể là câu trả lời gây lo ngại nhất mà ông có thể đưa ra.
...


Hàng đầu
Thứ hạng
Yêu thích
