“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”AI这句看似理直气壮的话,导致了国内首例因“AI幻觉”引发的侵权案件。不久前,一名高考生家属在使用某AI平台查询高校报考信息时,认为自己受到误导,遂将该平台的研发公司告上法庭。最终,法院驳回了该家属的诉讼请求。
那么,问题来了——AI为什么会一本正经地胡说八道呢?
图片图源人民日报公众号
为什么AI会说谎
如今,各种AI产品层出不穷,它们能写稿、能答题、能做方案,看起来几乎“什么都懂”。但用着用着就会发现,AI有时给出的内容看似专业、逻辑严密,却并不完全准确,甚至与事实不符。这类现象,被称为“AI幻觉”。
该图片由AI生成
像大家熟悉的GPT、Gemini、DeepSeek等,本质上都是基于大语言模型构建的AI系统。而大语言模型(LLM),更像是一台高度复杂的文字接龙机器。它通过学习海量文本,掌握语言中的词语搭配、句式结构和上下文关系,让自己“看起来像人一样说话”。
当你输入一句话时,它并不会判断这句话是否正确,而是基于统计概率模型,去预测当前语境中下一个最可能出现的词是什么。
这种生成方式导致AI更倾向于生成看起来通顺的文字,而不是符合你提问的正确答案。当它遇到自己不确定或者根本没学过的知识时,为了完成说出通顺句子的任务,就可能凭感觉编造答案。
此外,用户给出的前提通常被默认为真实。为了维持逻辑的连贯,它就会不断“说谎”,从而形成连锁的错误回答。
因此,AI并不真正理解事实的真假,也不具备人类意义上的判断能力。简而言之,它不会思考,只是模仿。当训练数据中本身存在错误信息,或者用户的问题超出了它的知识边界,AI就可能依据统计规律,拼凑出一套看起来很合理、但实际上并不准确的答案。
AI幻觉带来的危害
误导用户,影响个人决策。用户若轻信AI关于疾病症状、用药建议或法律条款的错误解释,可能导致延误就医、不当行为或产生不必要的恐慌。
造成知识污染,稀释权威信息。当看似专业却并不准确的内容被反复生成和传播,容易与权威信息混杂在一起,增加了公众获取真相的难度和成本。
降低虚假信息的传播门槛。AI可以低成本、大规模地生成结构完整、表达专业的文本,大大降低了制造和扩散高质量虚假信息的门槛。这不仅放大了谣言传播的速度,也为社会治理、舆论环境和公共信任带来了潜在风险。
防范措施与建议
保持审慎,核实关键信息。AI的回答可以作为参考,但不能作为最终依据。对于关键事实、专业建议或最新信息,务必通过权威渠道进行核实。
明确边界,把AI当助手。AI更适合承担的是辅助性工作,比如信息整理、内容归纳、思路启发,而不是直接替代人的判断和决策。
该图片由AI生成
优化提问,减少模糊空间。模糊、笼统的问题,往往更容易触发AI的幻觉。在提问时,尽量提供清晰的背景、限定条件和时间范围,虽然这不能彻底消除错误,但更具体的提问,有助于减少AI的误解和随意补全。
当前阶段,与其期待AI永远不出错,不如学会如何更安全地使用AI。技术在进步,但理性判断和信息核实,依然是人类不可替代的能力。

