AI系列13-说说AI幻觉
作者:微信文章导读:本文是“传说中的西蒙”公众号第49篇文章,AI专栏的第13篇文章,此系列将介绍AI等相关话题。欢迎转载,转载请注明出处以及链接,更多内容请关注公众号:传说中的西蒙。2025年目标100篇文章,此文章是第41篇,还差59篇,连续早起第6天
一、幻觉定义
AI幻觉是指大语言模型(LLM)一本正经的胡说八道,大模型生成的内容看似合理,但实际上可能与事实不符,甚至完全脱离上下文。这样的现象通常表现为生成错误的回答,误导性甚至完全虚构的信息。
二、幻觉分类
AI幻觉根据它的表现现象,主要分成三类:
1)事实幻觉,指大模型生成的内容与可验证的现实世界事实不一致。
2)逻辑幻觉,指上下文前后出现自相矛盾的地方。
3)引用幻觉,指大模型可能编造一些它认为引用了但实际上是编造一些链接出来,你去搜索引用的文件压根就不存在的情况。
三、产生原因
1)算法局限:AI模型本质上是根据前文预测最可能出现的词语,通过找到文字之间的统计关系和模式来“预测”下一个最合适的词。它并不是对问题或内容进行真正的理解,而是通过概率最大化来生成内容。在面对需要深度推理和精准判断的任务时,AI模型常会生成表面看似合理、实则错误的推理与建议。
2)数据偏差:AI模型在训练过程中,如果使用了包含错误信息的训练数据,会导致模型学习到不准确的内容。同时,大模型训练时吸收的海量网络数据如同未经筛选的图书馆,既藏有真知灼见,也充斥着谣言与广告,模型在训练时可能会剔除这些数据中的“长尾”事实与噪音,但这些缺失的信息在生成内容时,可能会被模型自行编造以填补空白。所以完整、质量高的数据是非常重要的。
3)知识固化:AI模型无法像人类一样实时更新知识。当遇到新鲜事物或事件时,模型可能会根据历史信息生成错误的推理或建议。
三、幻觉两面性
1)负面影响:AI幻觉生成的信息可能误导用户,造成经济损失或社会混乱;破坏用户对AI技术的信任。
2)正面价值:在某些情况下,AI幻觉可以激发创造力,如在写作、艺术创作或头脑风暴时,AI生成的“跳跃性思维”可能带来意想不到的灵感。
四、大模型-温度
在大模型中,温度(Temperature)是一个非常重要的参数,用于控制模型生成文本的随机性和多样性。它通常用于调整模型输出的概率分布,从而影响生成内容的风格和特性,你可以把温度理解成人的大脑活跃度。
1)低温度(接近0):当温度很低时,模型倾向于选择概率最高的词。这意味着生成的文本更加“确实性”和“可预测”,低温度生成的文本往往更稳定、更符合常规,但是可能会缺乏多样性。
最近在阅读成甲老师的《好好学习》,我们学习的时候要通过联想或者与其他事情产生联系,这就是要把信息用起来,因为只有应用起来才是知识,然后从多份知识沉淀出临界知识,指导个人看问题、解决问题、预测问题(现在不用看书,可以强化概念,有进步),所以开始联想我身边例子。
举例:像我家孩子A,学习和作业是按老师布置要求做,他自己会提前做计划,不会多做一般也不会漏掉,思维转换或跳跃相对慢,类似于大模型低温度的状态。
2)高温度(接近1或更高):当温度很高时,模型会更随机选择下一个词,即使这个词的概率较低。这使得生成的文本更加多样化和创造性,但是也可能包含更多不符合常规的内容。
举例:像我家孩子B,思维转换或跳跃非常快,一般人跟不上(反正我跟不上),学习和作业也比较随性,一般不会做计划,不会多做也不做复习,作业经常还会漏掉,像极了大模型高温度的状态。
五、改进措施
1)优化提问方式:与AI交流时,提问需要遵循提示词格式,内容要具体、清晰,避免模糊或开放性的问题;为AI提供足够上下文或背景信息,减少其胡乱推测的可能性;明确告诉AI回答的范围和边界。
2)多模型交叉验证:让多个AI模型同时回答同一个问题,通过对比它们的答案来获得更全面的认识;结合不同模型的优势,如让擅长推理的模型负责分析规划,再由擅长纠错的模型进行补充和完善。
3)事实核查工具:在AI生成内容后,使用事实核查工具或引入第三方进行核查,确保信息的准确性;向AI提问时,可以要求其提供内容对应的文献或数据支持,信息不明确时请务必注明。
4)人工干预与审核:AI生成的内容必须经过相关领域的专业人士审核;建立用户反馈机制,及时发现并纠正AI生成的错误信息。
5)技术改进:通过改进数据质量、优化训练策略、引入检索增强技术等手段,提高AI模型的准确性和可靠性。
六、总结与展望
任何新事物的诞生都是伴随着一些问题或局限性,AI也一样,譬如AI产生幻觉,当然还会产生其它的很多的问题,都是人工智能走向智能的必经之路,我们都应该积极面对它,解决问题,期望我们与AI共同协作、成长。
页:
[1]