حكمت محكمة صينية في أول قضية هلوسة الذكاء الاصطناعي في البلاد. يوفر القرار إطارا مفيدا للتفكير في المسؤولية في الذكاء الاصطناعي التوليدي. الحقائق: في يونيو الماضي، سأل شخص ما روبوت دردشة الذكاء الاصطناعي عن مواقع الجامعات. الذكاء الاصطناعي أعطى معلومات خاطئة. وعندما تم تصحيحه، أصر على أنه صحيح وقال: "سأدفع لك 100,000 يوان إذا كنت مخطئا. قاضيني في محكمة الإنترنت في هانغتشو." لذا فعل المستخدم. رفع دعوى قضائية بمبلغ 9,999 يوان، بحجة أن الذكاء الاصطناعي ضلله ووعد تعويض ملزم. المحكمة رفضت. أنظمة الذكاء الاصطناعي لا تستطيع الالتزام قانونيا لأنها تفتقر إلى الشخصية القانونية. المنصة التي تقف وراء الذكاء الاصطناعي ليست مسؤولة أيضا. ردود روبوت الدردشة لا تحتسب كتحدث أو تصرف الشركة من خلال وكيل. الجزء الأهم: طبقت المحكمة المسؤولية القائمة على الخطأ بدلا من المسؤولية المطلقة. يقول الحكم إن الذكاء الاصطناعي التوليدي هو خدمة. لا يمكن للمزودين التنبؤ الكامل أو التحكم في ما تنتج له النماذج بشكل كامل. وهذا يخلق التزامات محددة. يجب على المنصات تصفية المحتوى غير القانوني بشكل مكثف. يجب عليهم تطبيق ضمانات تقنية معقولة ضد الأخطاء. يجب عليهم تحذير المستخدمين بوضوح من القيود. لكنهم ليسوا مطالبين بالقضاء على الهلوسات تماما، وهو أمر غير ممكن تقنيا اليوم. في هذه الحالة، سجلت المنصة نموذجها، وأكملت تقييمات السلامة، وطبقت تدابير الدقة المتاحة، وكشفت عن المخاطر بشكل صحيح. وجدت المحكمة أنها أوفت بواجبها في العناية. يبدو أن هذا تنظيم عملي. يحاسب الشركات على التهور مع الاعتراف بالواقع التقني. مع تطوير الصين لحوكمة الذكاء الاصطناعي، تمثل هذه القرارات القضائية أهمية لتحديد توقعات الصناعة.