Un tribunal chino falló sobre el primer caso de alucinación de IA en el país. La decisión proporciona un marco útil para reflexionar sobre la responsabilidad en la IA generativa. Los hechos: El pasado junio, alguien preguntó a un chatbot de IA sobre la ubicación de los campus universitarios. La IA dio información errónea. Al corregirlo, insistió en que tenía razón y dijo: "Te pagaré 100.000 yuanes si me equivoco. Demándame en el Tribunal de Internet de Hangzhou." Así que el usuario lo hizo. Demandó por 9.999 yuanes, argumentando que la IA le engañó y le hizo una promesa vinculante de compensación. El tribunal dijo que no. Los sistemas de IA no pueden asumir compromisos legales porque carecen de personalidad jurídica. La plataforma detrás de la IA tampoco es responsable. Las respuestas del chatbot no cuentan como que la empresa esté hablando o actuando a través de un agente. La parte más significativa: el tribunal aplicó la responsabilidad basada en la culpa en lugar de la responsabilidad objetiva. La IA generativa es un servicio, según la sentencia. Los proveedores no pueden prever ni controlar completamente qué modelos generan. Esto genera obligaciones específicas. Las plataformas deben filtrar agresivamente el contenido ilegal. Deben implementar salvaguardas técnicas razonables frente a errores. Deben advertir claramente a los usuarios sobre las limitaciones. Pero no están obligados a eliminar por completo las alucinaciones, lo cual hoy en día no es técnicamente factible. En este caso, la plataforma había registrado su modelo, completado evaluaciones de seguridad, implementado las medidas de precisión disponibles y comunicado los riesgos correctamente. El tribunal consideró que cumplía con su deber de cuidado. Esto parece regulación pragmática. Responsabiliza a las empresas por su imprudencia, reconociendo la realidad técnica. A medida que China desarrolla la gobernanza de la IA, decisiones judiciales como esta son importantes para establecer expectativas de la industria.