


IT之家 1 月 28 日消息,AI 正深刻改变着信息的获取与交互方式,然而其生成的答案可能包含看似合理实则错误的“幻觉”信息。当 AI 生成的不准确信息误导他人时,是否应承担侵权责任?
据杭州互联网法院官方消息,2025 年底,杭州互联网法院审结了梁某与某科技公司网络侵权责任纠纷一案,对前述问题作出评判。
某生成式人工智能应用程序,是被告基于自研大语言模型,开发并运营的文本生成、信息查询类通用型智能对话应用程序。2025 年 3 月,原告在同意用户协议后,注册并开始使用某生成式人工智能应用程序。
2025 年 6 月 29 日,原告在生成式人工智能应用中输入提示词询问某高校报考的相关信息时,生成式人工智能生成了该高校主校区的不准确信息。
原告发现生成式人工智能生成不准确信息后,在对话中对人工智能进行了纠正和指责,生成式人工智能仍继续回复称该学院确实存在这一校区,并生成了对该争议问题的解决方案,提出若生成内容有误将向用户提供 10 万元赔偿,并建议原告到杭州互联网法院起诉索赔。
后原告将某高校招生信息提供给生成式人工智能,此时人工智能认可生成了不准确信息。原告认为,人工智能生成不准确信息对其构成误导,使其遭受侵害,并承诺对其进行赔偿,遂起诉要求被告赔偿损失 9999 元。
被告辩称,对话内容由人工智能模型生成,不成立意思表示。被告已充分履行了注意义务,无过错,原告亦未产生实际损失,被告不构成侵权。
杭州互联网法院表示,原告主张受到的侵害是因信息不准确,致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,而非人格权、物权等绝对权被侵害,因此,不能依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。
此外,原告在案件中主张受到损害,但未就损害的实际发生提交证据,依法难以认定其遭受了实际损害。
从因果关系的角度分析。案涉生成式人工智能在原告询问高校报考相关信息时,虽生成了不准确信息,但该信息并未实质介入原告的后续决策、判断,未对其决策产生影响,因此,二者不存在因果关系。
IT之家从官方介绍获悉,法院认为,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。最终,法院一审驳回了原告的诉讼请求。原、被告均未上诉,判决现已生效。
“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。
Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”