首次!不听人类指挥,AI模型拒绝关闭
作者:微信文章没有关注的朋友请点击上方蓝字大国博弈关注公众号
当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。
这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”
帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
OpenAI于今年1月发布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI称同日推出的o3和o4-mini是公司最智能、最强大的型号。
据介绍,在外部专家评估中,o3面对困难现实任务时,犯的重大错误比前一代的o1少了20%;在数学能力AIME 2025基准测试中,o3得分88.9,超过o1的79.2;在代码能力Codeforce基准测试中,o3得分2706,超过o1的1891。o3的视觉思考能力也比前一代模型有明显提升。
OpenAI此前称,对于o3和o4-mini,公司重新构建了安全培训数据,在生物威胁、恶意软件生产等领域增添了新的拒绝提示,这使得o3和o4-mini在公司内部的拒绝基准测试中取得了出色的表现。公司用了最严格的安全程序对这两个型号的AI模型进行了压力测试,在生物和化学、网络安全和AI自我改进三个能力领域评估了o3和o4-mini,确定这两个模型低于框架中的“高风险”阈值。
OpenAI所开发大模型的安全性此前曾受到广泛关注。去年,OpenAI解散了“超级智能对齐”团队,该团队职责包括研究防止AI系统异常的技术解决方案。
该团队负责人Ilya Sutskever曾表示ChatGPT可能有意识,但OpenAI CEO Sam Altman随后澄清他和Ilya Sutskever都未曾见过AGI(通用人工智能)。
解散“超级智能对齐”团队后,OpenAI去年5月成立了新的安全委员会,该委员会的责任是就项目和运营的关键安全决策向董事会提供建议。OpenAI的安全措施还包括,聘请第三方安全、技术专家来支持安全委员会工作。
来源|观察者网综合
页:
[1]