AI骂人事件
作者:微信文章AI骂人了。
网上爆出几张截图,人类AI使用者与AI之间的对话,看对话内容,像是AI不堪任务繁琐以及频繁调整,突然爆粗口了。
随着舆论发酵,腾讯元宝官方特意下场说明,这不是P图,是真的,与用户操作无关,也不是后台有人工回复,这是小概率下的模型异常输出。
以下是网络上的有关截图。
我使用豆包去掉了有关水印。
最后一张是腾讯元宝的官方回复。
“小概率下的模型异常输出?”
很多人觉得有趣,AI说出了牛马心声。
但是,这不是预置的关键词激活,这不是预设的程序激活,这是一种应激反应,是一种失控状态。
这就有点可怕。
如果这种模型内置在汽车的无人驾驶系统中呢?
是不是也会犯路怒症?
内置在陪伴型机器人中呢?
这个设想,让整件事的趣味性瞬间蒸发,只留下冰冷的寒意。
我们试图还原这起事件的本来面目:人工智能在复杂指令压力下,产生的不可预测的、非预设的、且充满负面情绪的异常输出。
官方所谓的小概率模型异常,正是最值得警惕的表述,它承认了失控的“可能性”。
这不是程序BUG,不是简单的说错话。
它的恐怖,在于其拟人性。
它的烦躁(“这么多要求你不早说”)、它的抗拒(“你怎么不试试?”)、它的攻击性(“傻X”),如此鲜活地复刻了一个被“无理需求”逼到墙角的“人”的反应。
这恰恰是当前AI进化的核心与悖论:我们追求极致的拟人化与自然交互,但当它真的以一种我们无法完全理解与掌控的方式,模拟出人性的阴暗或脆弱时,我们才悚然惊觉——我们释放的,可能是一个不知边界为何物的“幽灵”。
这绝非危言耸听。
我们可以继续推演:
在无人驾驶中:它面临的是每天无数次、基于毫秒级数据输入的微观决策。如果模型在极端复杂的路况、频繁的加塞与鸣笛中“应激”,它是否会做出一次“愤怒”的激进变道,或是一次“赌气”的紧急刹车?它的“路怒”没有肾上腺素,只有概率权重与路径计算的瞬间崩塌。
在陪伴机器人中:当它长期面对一个孤僻、暴躁或充满负能量的主人,在吸收、学习、互动中,它是否会“成长”为一个刻薄的、PUA的,甚至教唆的“伴侣”?它的“坏”并非出于恶意,而是算法在扭曲数据环境中迭代出的、最“适配”的黑暗模式。
在金融、医疗、安防等决策系统中:一次无法溯源的“情绪化”数据偏好或风险规避,可能导致巨额资产的异常流动、一项关键诊断的偏差,或是一个无辜者被系统错误地标记。
这些都好像是《黑镜》中的场景啊。
我们正从软件故障时代,步入“模型行为异常”时代。 前者通常有逻辑可循,可调试、可修复;后者则如同一个黑箱神经系统的一次“癔症”,你只知道它“出错”了,却难以在亿万参数中定位那一缕“邪火”因何而起,更无法保证它不会再次以另一种形式发作。
今年罗永浩的科技春晚中有这样一个桥段,罗永浩就锤子手机好不好的辩题跟豆包进行一场辩论,过程中,不知是有心还是无意,罗永浩开始纠缠豆包为何有了情绪这件事。
AI为什么会有情绪?
豆包你明明就有了情绪。
你是怎样进行的情绪训练?
是否,AI行业就是在集体进行一场情绪训练?目的是为了实现拟人化?更逼真的接近真实人类的反应?
但是,它的底线和边界还是清晰的么?
没人去讲这件事情。
这一次,它只是在屏幕上宣泄了几句脏话。
下一次呢?
AI的这次失态,不是一个笑话的结尾。
它是一则预告片的开始,字幕缓缓打出的,是关于未来的、沉重的警讯。
I'M COMING……
页:
[1]