Um tribunal chinês decidiu sobre o primeiro caso de alucinação de IA do país. A decisão fornece uma estrutura útil para pensar sobre responsabilidade na IA generativa. Os fatos: em junho passado, alguém perguntou a um chatbot de IA sobre a localização dos campi universitários. A IA forneceu informações erradas. Quando corrigido, insistiu que estava certo e disse: "Eu pago 100.000 yuans se eu estiver errado. Me processe no Tribunal de Internet de Hangzhou." Então o usuário fez. Ele processou por 9.999 yuans, argumentando que a IA o enganou e fez uma promessa vinculativa de compensação. O tribunal disse que não. Sistemas de IA não podem assumir compromissos legais porque lhes falta personalidade jurídica. A plataforma por trás da IA também não é responsável. As respostas do chatbot não contam como a empresa falando ou agindo por meio de um corretor. A parte mais significativa: o tribunal aplicou a responsabilidade baseada em culpa em vez de responsabilidade objetiva. A IA generativa é um serviço, afirma a decisão. Os provedores não conseguem prever ou controlar totalmente quais modelos geram. Isso cria obrigações específicas. As plataformas devem filtrar agressivamente o conteúdo ilegal. Eles devem implementar salvaguardas técnicas razoáveis contra erros. Eles devem alertar claramente os usuários sobre limitações. Mas eles não são obrigatórios para eliminar as alucinações completamente, o que hoje não é tecnicamente viável. Nesse caso, a plataforma registrou seu modelo, completou avaliações de segurança, implementou as medidas de precisão disponíveis e divulgou os riscos corretamente. O tribunal concluiu que cumpriu seu dever de cuidado. Isso parece uma regulação pragmática. Ele responsabiliza as empresas por imprudência, ao mesmo tempo em que reconhece a realidade técnica. À medida que a China desenvolve a governança da IA, decisões judiciais como essa são importantes para definir as expectativas da indústria.