Китайский суд вынес решение по первому делу о галлюцинациях ИИ в стране. Это решение предоставляет полезную основу для размышлений о юридической ответственности в области генеративного ИИ. Факты: В прошлом июне кто-то спросил чат-бота ИИ о местоположении университетских кампусов. ИИ дал неверную информацию. Когда его исправили, он настаивал на своей правоте и сказал: "Я заплачу вам 100,000 юаней, если я не прав. Подайте на меня в Ханчжоуский интернет-суд." Так пользователь и поступил. Он подал иск на 9,999 юаней, утверждая, что ИИ ввел его в заблуждение и сделал обязательное обещание о компенсации. Суд сказал "нет". Системы ИИ не могут делать юридические обязательства, потому что у них нет юридической правосубъектности. Платформа, стоящая за ИИ, также не несет ответственности. Ответы чат-бота не считаются высказыванием или действием компании через агента. Более значительная часть: Суд применил ответственность на основе вины, а не строгую ответственность. Генеративный ИИ является услугой, говорится в решении. Поставщики не могут полностью предсказать или контролировать, что генерируют модели. Это создает конкретные обязательства. Платформы должны активно фильтровать незаконный контент. Они должны внедрять разумные технические меры предосторожности против ошибок. Они должны четко предупреждать пользователей о ограничениях. Но они не обязаны полностью устранять галлюцинации, что сегодня технически невозможно. Платформа в этом случае зарегистрировала свою модель, завершила оценки безопасности, внедрила доступные меры точности и должным образом раскрыла риски. Суд установил, что она выполнила свои обязательства по заботе. Это выглядит как прагматичное регулирование. Оно привлекает компании к ответственности за безрассудство, признавая при этом техническую реальность. Поскольку Китай развивает управление ИИ, такие судебные решения важны для установления ожиданий в отрасли.