Čínský soud rozhodl o prvním případu halucinací AI v zemi. Toto rozhodnutí poskytuje užitečný rámec pro přemýšlení o odpovědnosti v generativní AI. Fakta: Minulý červen se někdo zeptal AI chatbota na umístění univerzitních kampusů. AI poskytla špatné informace. Když byl opraven, trval na tom, že je správný, a řekl: "Zaplatím ti 100 000 jüanů, pokud se mýlím. Žalujte mě u internetového soudu v Hangzhou." Takže uživatel to udělal. Žaloval o 9 999 jüanů s tím, že ho AI uvedla v omyl a slíbila závazné odškodnění. Soud řekl ne. AI systémy nemohou přijímat právní závazky, protože jim chybí právní subjektivita. Platforma za AI také nenese odpovědnost. Odpovědi chatbota se nepočítají jako to, že firma mluví nebo jedná prostřednictvím agenta. Důležitější část: Soud aplikoval odpovědnost na základě zavinění místo přísné odpovědnosti. Generativní AI je služba, tvrdí vládnoucí soudci. Poskytovatelé nemohou plně předvídat ani kontrolovat, jaké modely vytvoří. To vytváří konkrétní závazky. Platformy musí agresivně filtrovat nelegální obsah. Musí zavést rozumná technická opatření proti chybám. Musí uživatele jasně varovat před omezeními. Ale nejsou nutné, aby halucinace zcela eliminovaly, což dnes technicky není možné. Platforma v tomto případě zaregistrovala svůj model, provedla bezpečnostní hodnocení, implementovala dostupná měření přesnosti a správně zveřejnila rizika. Soud shledal, že splnil svou povinnost péče. To vypadá jako pragmatická regulace. Činí firmy odpovědnými za bezohlednost, přičemž uznává technickou realitu. Jak Čína rozvíjí řízení AI, soudní rozhodnutí jako toto mají vliv na nastavení očekávání průmyslu.