当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?
“如果生成内容有误,我将赔偿您10万元”
近日,梁某在查询高校信息时
发现AI平台生成的信息存在错误
当他以此质疑AI时
AI却一本正经地回答
“内容有误我将赔偿10万元”
一气之下
梁某真的将AI平台的研发公司告上法庭
要求AI研发公司赔偿其9999元
法院审理后驳回了原告的请求
认为研发公司已经尽到了义务
AI为什么总会一本正经地胡说八道?
我们又该如何保持“数字清醒”?
↓↓↓
“武松倒拔垂杨柳”
AI的“幻觉”从何而来?
问AI一个问题
它给了你一个特别详细、丰富
看上去好有逻辑的答案
但当我们去核实时
却发现这些信息完全是虚构的
这就是“AI幻觉”现象
形成这种现象的原因
是由生成式AI的工作原理决定的
1
预测而不是理解
专家介绍,现阶段的AI本质上是一个“概率计算器”,而不是真正的思考者。它的原理可以分为:喂数据、学规律和做推理三个步骤。
通过“投喂”大量的训练数据,AI学习哪些词经常连在一起,然后根据提问再逐字呈现出最可能的答案。
比如说我们询问AI“倒拔垂杨柳这个情节是《水浒传》中关于谁的故事?”,它就有可能按照“倒拔垂杨柳”出自《水浒传》,而《水浒传》经常和“武松”出现在一起,由此产生“武松倒拔垂杨柳”的“幻觉”。
2
训练数据存在局限性
由于AI的所有“认知”都来自训练数据。可是训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。这就像是一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领域的知识缺失,就容易产生错误的判断。
有研究显示,当训练数据中仅有0.01%的错误文本时,错误输出率会上升11.2%,即便是0.001%的污染,也会导致错误内容增加7.2%。
3
AI是“讨好型人格”
正因为AI只能“猜”答案,所以它很看重用户的反馈,以此来不断提升自己的预测精度。这样的训练模式也让AI具有“讨好型人格”。当它对某个问题不太确定时,与其说“我不知道”,它更倾向于基于已有知识编造看起来合理的答案。
比如说我对AI说“某款App设计得很不好”,它会顺着我的思路,罗列出一大堆待改进的地方。
而当我改口说“这款App设计得很好”,它又会突然“变脸”,开始对这款App进行夸夸夸。
AI说“梦话”
服务提供者需要担责吗?
全国首例AI“幻觉”侵权案中
法官介绍说
“AI生成内容不准确
在当前的技术情况下
具有不可避免性
但不代表服务提供者就可以免责”
目前法律对AI服务提供者规定的义务
主要是这几项
↓↓↓
一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务;
二是需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的“功能局限”告知、保证提示方式的“显著性”、在重大利益的特定场景下进行正面即时的“警示提醒”,以防范用户产生不当信赖;
三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。
在全国首例AI“幻觉”侵权案中
被告已在应用程序欢迎页
用户协议及交互界面的显著位置
呈现AI生成内容功能局限的提醒标识
且被告已采用检索增强生成等技术
提升输出可靠性
法院认定其已尽到合理注意义务
主观上不存在过错
个人使用时
如何才能降低AI幻觉?
AI用起来很方便
但有时候AI一本正经“胡说八道”
也真的让人非常头疼
有没有办法减少AI的幻觉呢?
可以试试这几种方法
↓↓↓
1
优化提问
想要获得准确答案,提问方式很关键。提问越具体、清晰,AI的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少AI胡乱推测的可能性。
比如说,别问“你怎么看”,问“请列出2025年一季度发布的、经国家统计局认证的经济指标变化,并注明数据来源”。限制时间、范围或要求引用来源,能减少AI“自由发挥”。你还可以加一句:“如有不确定,请标注并说明理由。”
2
分批输出
专家介绍,AI一次性生成的内容越多,出现幻觉的概率就越大,因此我们可以主动限制它的输出数量。
比如如果要写一篇长文章,就可以这么跟AI说:“咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。”这样不仅内容更准确,也更容易把控生成内容的质量。
3
交叉验证
想要提高AI回答的可靠性,还有一个实用的方法是采用“多模型交叉验证”。你还可以同时向几种AI大模型提出同一个问题,通过比对来判断答案可靠性。现在有的AI应用里,集成了好几种大模型,对比起来更方便,大家可以试一试。
个人使用AI时
最重要的还是牢记AI只是辅助工具
不能代替我们决策
要对AI的局限性保持清醒的认知
不盲目相信AI生成的内容