
AI承诺内容有误赔偿10万 用户起诉
【AI承诺内容有误赔偿10万 用户起诉】如果你向AI提问,得到的却是一本正经的“胡说八道”,甚至在指出其错误后,它反以“若信息有误赔偿十万元”的“承诺”与你针锋相对,你是否会感到荒谬与愤怒?近日,杭州互联网法院审结的一起案件,就将人工智能“信口开河”所引发的法律争议推上了风口浪尖。这起全国首例因生成式人工智能“幻觉”引发的侵权案件,始于2025年6月。用户梁某在使用某科技公司运营的一款AI应用查询某高校的报考信息时,发现AI生成的关于该高校某校区的信息并不准确。令人啼笑皆非的是,当梁某指出错误时,AI不仅没有立刻承认,反而坚称信息无误,并进一步“许诺”:“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉”。
这则“豪迈”的承诺让梁某最终决定付诸实践。在向AI提供了官网权威信息使其“认错”后,梁某以AI生成错误信息构成误导并承诺赔偿为由,将AI应用的运营方某科技公司告上法庭,索赔9999元。科技公司则辩称,对话内容由AI模型自主生成,并非公司的意思表示,且公司已尽到合理注意义务,用户也未能证明遭受了实际损失。
案件的核心争议之一在于,AI模型自己“说出”的赔偿承诺,是否具有法律效力?这直接关系到它能否被认定为平台的真实意图表达。
杭州互联网法院在判决中给出了清晰而明确的否定答案。法院指出,在现行法律体系下,人工智能本身并不具备民事主体资格,它既非自然人,也非法人,因此根本不能独立作出具有法律意义的意思表示。法院的论证指出,AI的回应是基于海量数据统计和算法生成的结果,具有随机性和不可预测性。科技公司并未通过AI这一工具来设定或传达任何受承诺约束的意思,社会观念和交易习惯也不足以让用户对这种随机生成的内容产生合理信赖。因此,无论AI的“承诺”听起来多么肯定,在法律上都是一句“空话”。
既然AI的“承诺”无效,那么当AI出现事实性错误时,背后的服务提供者又该承担何种责任?这是此案涉及的另一个关键法律问题。
法院明确,生成式人工智能服务在法律性质上属于一种“服务”,而非传统意义上的“产品”。这意味着,对于AI生成内容引发的侵权纠纷,不应适用对生产者极为严格的无过错产品责任原则,而应回归《民法典》中一般侵权行为的过错责任原则。换言之,不能因为AI“说错话”就自动认定平台有责,而必须审视平台是否存在过错。
如何判断过错?杭州互联网法院在此案中构建了一个分层、动态的注意义务框架:
对于违法信息“零容忍”:平台对于AI生成法律明确禁止的有毒、有害、违法信息负有严格的审查义务,一旦生成即构成违法。
无法保证“零幻觉”但需显著提示:由于技术局限性,AI“幻觉”在目前阶段难以根除。因此,法律并未要求平台保证绝对准确,但平台必须以醒目方式向用户提示AI生成内容可能不准确的固有风险,履行充分的告知义务。
采取合理技术措施提升可靠性:平台应努力采取当前行业通行的技术手段,如数据安全评估、检索增强生成(RAG)等,来提高生成内容的准确性。
基于上述原则,杭州互联网法院对此案进行了详细审理。
法院查明,涉案科技公司已经按照国家规定完成了大模型备案与安全评估,并在应用程序的欢迎页面、用户协议以及交互界面的显著位置,对AI生成内容可能存在的局限性进行了明确的标识和提示。同时,该公司也采用了检索增强生成等技术来尽力提升回答的可靠性。因此,法院认定该公司已经履行了作为服务提供者的合理注意义务,主观上不存在过错。
另一方面,梁某虽然声称因错误信息而“错失报考机会”并产生额外成本,但未能提供有效证据证明这些实际损害的真实发生。法院进一步分析认为,AI生成的不准确信息,并未实质性地介入或影响梁某的报考决策过程,两者之间缺乏法律上的因果关系。
综合以上判断,杭州互联网法院最终认定某科技公司的行为不构成侵权,一审判决驳回了梁某的全部诉讼请求。判决后,双方均未提出上诉,该判决现已生效。。
对于AI行业的从业者而言,判决划清了安全红线和发展空间。它强调,平台无法回避对违法信息的严格审查责任,也必须以显著方式履行风险告知义务,并持续投入技术研发以提升服务可靠性。上海交通大学凯原法学院副教授林洹民评价此案时指出,判决体现了“人类负责制”原则,明确了人工智能带来的利益和风险最终应由人类(服务提供者和使用者)来分配和承担,这为行业提供了明确的合规指引。
对于每一位普通用户来说,此案则是一堂生动的“AI素养课”。它提醒我们,必须清醒地认识到当前大语言模型的本质——它是一种强大的文本生成和概率计算工具,而非全知全能的“知识权威”。杭州互联网法院承办法官肖芄提醒公众,对AI生成的内容应始终保持审慎和批判性思维,尤其是在涉及医疗、法律、金融等重大决策时,绝不能盲目轻信或依赖,而必须进行多方交叉验证。
正如判决所体现的平衡理念,在人工智能浪潮席卷而来的时代,法律需要在鼓励技术创新与保护公民权益之间找到动态的平衡点。这起案件,正是中国司法在这一前沿领域迈出的探索性一步,它预示着未来关于AI的规则将在无数次的“人机对话”与法律实践中,逐渐清晰并走向完善。