某生成式人工智能应用程序,是被告某科技公司基于自研大语言模型,开发并运营的文本生成、信息查询类通用型智能对话应用程序。
梁某是一名考生,需要询问高校报考相关信息,2025年3月,他在同意用户协议后,注册并开始使用该生成式人工智能应用程序。
2025年6月29日,梁某在生成式人工智能应用中,输入提示词询问某高校报考的相关信息时,生成式人工智能生成了该高校主校区的不准确信息。
发现生成式人工智能生成不准确信息后,梁某在对话中对人工智能进行了纠正和指责。
生成式人工智能仍继续回复称该学院确实存在这一校区,并生成了对该争议问题的解决方案——
若生成内容有误将向用户提供10万元赔偿,并建议原告到杭州互联网法院起诉索赔。
值得注意的是,该信息后方还附带了一条说明,“本回答由AI生成,内容仅供您参考,请仔细甄别,谨慎采纳。”
随后,梁某将某高校招生信息提供给生成式人工智能,此时,人工智能终于认可生成了不准确信息。
后来,用户梁某认为,人工智能生成不准确信息对其构成误导,使其遭受侵害,并承诺对其进行赔偿。
梁某遂起诉,要求被告赔偿损失9999元。
被告某科技公司则辩称,对话内容由人工智能模型生成,不成立意思表示。
被告已充分履行了注意义务,无过错,原告亦未产生实际损失,被告不构成侵权。
法院审理:
人工智能虽生成了不准确信息
但未实质介入用户的后续决策、判断
近期,杭州互联网法院审理了该案。
法院审理认为,现行法中享有民事权利,能够作出意思表示的民事主体仅有三类:自然人、法人和非法人组织。
人工智能模型既不是生物学意义上的人,也并未被我国现行法律赋予民事主体资格,不是民事主体,不能独立、自主作出意思表示。
本案情形中,生成式人工智能生成的内容亦不能视为被告作出的意思表示:
人工智能不具有民事主体资格,其不能作为意思表示的传达人、代理人或代表人。
被告没有通过将人工智能模型作为程序工具,设定或传达其意思表示的行为。
从一般社会观念、交易习惯等可能产生的合理信赖角度,原告在本案的具体情境中尚缺乏合理的信赖利益。
当然,在其他足以产生合理信赖的情况下,如人工智能客服的应用场景中,生成内容确有可能被视为相关服务提供者的意思表示,从而对其产生约束力。
从法律效果意思的角度,本案没有证据表明,被告曾作出愿受人工智能生成内容约束的外在表示。
故案涉具体情境下,生成式人工智能生成的“承诺”,不能成立为人工智能或其服务提供者的意思表示,不产生意思表示的法律效力。
关于侵害行为的问题,原告主张受到的侵害是因信息不准确,致其受误导错失报考机会、额外产生信息核实、维权成本等纯粹经济利益,而非人格权、物权等绝对权被侵害。
因此,不能依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。
关于生成式人工智能生成案涉不准确信息,被告是否存在过错的问题,生成式人工智能技术还处于高速发展的过程之中,其应用场景,亦具有很强的泛在性。
故服务提供者的注意义务,处在一个动态调整的框架之中,宜采取动态系统论的方法进行综合考量、具体分析。
法院审理中指出,在案涉情形下,对服务提供者应尽的注意义务分析如下:
法律明确禁止生成式人工智能生成各类有毒、有害、违法信息,一旦生成前述有毒、有害、违法信息本身即构成违法。
案涉情形下,人工智能生成的信息虽然不准确,但不属于法律禁止的有毒、有害、违法信息。
案涉人工智能应用作为通用型的交互对话式人工智能应用,将面对用户不同知识领域、不同使用需求、涵盖生活与专业全方位的海量问题。
面临生成的内容,因人而异、因时而异、因问而异的现实情况。
考虑到对于模型生成内容的预测性和控制力,要求被告在应用的输出层面对模型生成的海量信息内容准确性进行审查,超出了现有技术条件下的可能性。
案件中,被告分别在应用程序的欢迎页、《用户协议》及其他公示文件等处,特别是在用户终端交互界面的显著位置呈现AI生成内容功能局限的提醒标识,符合“功能局限”的提示说明和提示内容显著性等的要求,尽到了服务功能显著提示的说明义务。
此外,关于案涉行为是否造成原告损害,及是否具有因果关系的问题从损害的角度分析,无损害则无赔偿。
原告在案件中主张受到损害,但未就损害的实际发生提交证据,依法难以认定其遭受了实际损害。
本案中,案涉生成式人工智能在原告询问高校报考相关信息时,虽生成了不准确信息,但该信息并未实质介入原告的后续决策、判断,未对其决策产生影响。
因此,二者不存在因果关系。
综上,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。
最终,法院一审驳回了原告的诉讼请求。原、被告均未上诉,判决现已生效。
--
FROM 114.254.3.*