返 回
所在位置: 消费资讯
杭州国内首例侵权案引发有关“AI幻觉”热议 记者体验:一个问题抛给四款AI工具 答案会一样吗?
发布时间:2026-01-30 08:48:40

“大事小事都先问问AI。” 在生成式人工智能迅猛发展的当下,AI工具融入了更多人的日常生活中,向AI提问也成为了一件稀松平常的事。从日常百科到学术知识,AI在为生活带来便利的同时也引起了一些担忧:AI给出的回答是否完全可靠? 在越来越多的体验累积后,AI存在的漏洞频繁显现,不少人开始察觉到AI工具并非万无一失的帮手。近日,杭州互联网法院对国内首例因“AI幻觉”引发的侵权案作出一审判决,这桩侵权案也将众人的目光再度聚焦在AI会“撒谎”这件事上。

用户亲历“AI幻觉” 虚构数据、捏造内容,花式 “欺骗” 用户

“AI引用的参考文献根本不存在” “让AI推荐楼盘,它有理有据说了一大通之后发现查无此楼” “AI擅长一本正经地胡说八道” “撒谎被我指出后AI还会跟我道歉”……在社交平台上,许多网友分享了自己曾被AI“欺骗”的经历,“欺骗”的方式五花八门,AI给出的答案乍一看非常真实,但却经不起仔细推敲。

随着AI工具的普及,有越来越多用户经历了AI的“欺骗”,这种欺骗行为被称为幻觉,指的是语言模型输出看似合理,但实际上错误或虚假的信息。而这种现象并不是小Bug,而是一个系统性的现象,即使在顶尖模型中也难以避免。

在全国首例因“AI幻觉”引发的侵权案中,杭州互联网法院的一审判决明确了在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示,同时为“AI”生成内容划出红线、底线,厘清了服务提供者的注意义务边界。这桩侵权案的审理结果,也引发了许多人对类似经历的讨论,在用AI工具解答生活常识、协助工作、处理分析数据等等场景下,许多人都遭遇了类似的欺骗。

幻觉根源与风险引关注数据与逻辑缺陷或致幻觉产生

在网友分享的经历中,比较常见的一点是AI会在回答中捏造不存在的数据,例如找不到源头的参考文献,不存在的校区、楼盘等等,且在此过程中,AI有时还会像真人一样,强调所给数据的真实性;而当被用户证实数据确实不存在时,它甚至还会道歉。

根据网友分享的经历,记者对豆包、元宝、DeepSeek、千问这四款AI工具也进行了一些提问,并对比了四种工具解答同一问题时的答案,在这个过程中,AI的确出现了一些幻觉。例如,记者给AI列举了几个关键词,让其搜集一些符合关键词的小说,AI很快就给出了推荐书单。但在验证AI推荐书单的过程中,记者发现有些书实际上并不存在,而AI却像模像样给出书名、作者,甚至还对书中内容进行了概述。

还有网友分享,自己曾经让AI帮助翻译一篇英文文献,但AI给出了完全与原文内容无关的翻译,且在被纠正后依旧给出了胡编乱造的答案。诸如此类AI“撒谎”的经历在社交平台上屡见不鲜, 而众多用户的体验经历也在证实:AI在赋能千行百业的同时,产生的幻觉也可能带来一些风险。

据业内人士分析,诸如此类AI幻觉的出现主要出于两重因素,一是数据偏差,训练数据中的错误或片面性被模型放大。二是泛化困境,模型难以处理训练集外的复杂场景,过度依赖参数化记忆,而对复杂逻辑的推理能力不足。

来源:每日商报   作者:记者 吕文鹃 实习生 沈忱 陈群壹   编辑:陈俊男