如果有一天,你被AI(人工智能)给耍了,而它非但不认错,反而“强硬”地告诉你:“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”你会怎么办?杭州一位用户一气之下,竟真的将AI平台的研发公司告上法庭,要求赔偿。
最近,在全国两会上,全国首例“AI幻觉”引发的侵权案作为典型案例写入最高人民法院工作报告,引发人们热议。从法院判决看,AI不是一个民事主体,不能作出意思表示,不能被视为平台的“代理人”或“传声筒”,因此AI的承诺不具备法律效力。法院驳回该用户的诉讼请求,这为我们打开了观察人工智能责任边界的窗口。
“一本正经胡说八道……”你在使用AI的时候是否也有类似的感觉?一旦AI说胡话,它的“家长”该不该担责?最高人民法院工作报告显示,依法妥善审理涉人工智能案件,准确把握科技创新“容错”空间。某生成式人工智能提供服务中出现差错,研发者已善尽注意义务,且未实际损害原告权益,法院认定不构成侵权。“容错”,并非纵容,而是一种对法律边界的厘清,也是一种对技术创新的保护。在当前技术条件下,生成式大模型在训练和推理过程中,受限于数据质量、算法逻辑及算力瓶颈,AI幻觉不可避免。如果法律苛求完美、动辄得咎,势必会束缚科研人员的手脚。宽容失败、鼓励创新的法治环境、制度环境,也正是AI摆脱幻觉、向善向好的必备条件。
超越法律条文,这个案件像一面镜子,映照出一种较为普遍的认知风险。曾经,有个词条上了热搜——“防止Deepseek乱编文献的方法”。就像业内人士说的,大模型只会单纯搜索内容进行推理,无法像人一样判断真假,且不对信息本身的真实性负责。如果对AI生成内容一味轻信与盲从,本身就可能放大“幻觉”带来的风险。只有在理性使用的前提下,AI的“魔法”才能真正成为增强个人能力的工具。AI 输出内容,是认知起点而非终点。我们需要做的,是主动验证、查阅信源、多方对比,让 AI 成为“思考辅助者”,而非答题“工具”,更不是替代个人判断的“决策者”。
再看这个案例,它真正的意义,或许不是厘清了赔不赔的问题,而是给全民上了一堂生动的数字素养课。人工智能时代,多一份清醒的怀疑,多一份独立的思考,才是我们最该拥有的防“幻”装备。毕竟,技术可以不断迭代,但最终为认知偏差买单的,永远是我们自己。
