我爱免费 发表于 2026-1-3 00:40

所有人都在问“AI 会不会取代人”,但这个问题本身就是错的 -- 来自 AI 之父的判断

作者:微信文章

本文整理自 Hinton 的访谈“AI’s Next Frontier: A Conversation with Nobel Laureate Sir Geoffrey Hinton”。访问 https://www.youtube.com/watch?v=M9ZNCkJJ0Sg 观看原访谈内容。

那天的会场并不喧闹。

舞台灯光亮起时,台下已经有人在翻看手机,有人在低声讨论算力、公司估值、模型参数。轮到他上台时,没有宏大的开场动画,也没有热烈的技术宣言。主持人只是简单介绍了一句:诺贝尔奖得主、人工神经网络的奠基者之一 Hinton。

掌声响起,又很快落下。

他站在那里,看起来不像一个正在谈论未来的人,更像一个刚从实验室出来、对自己刚刚看到的结果仍在反复咀嚼的研究者。有人期待他给出答案,有人期待他泼冷水,而他似乎更关心另一件事:我们到底已经走到了哪一步,却还没意识到?
一、预测失败之后,真正开始变得危险的地方


他开口时,并没有谈 AGI,也没有谈意识。

他先谈了一次失败的预测。2016 年,他曾公开表示,五年内 AI 会在医学影像领域取代放射科医生。这个判断后来被反复引用,也被反复嘲笑。五年过去了,放射科医生仍然在岗。

但他并不否认那个判断,只是纠正了时间尺度。

真正的变化已经发生,只是方式比想象中更安静。今天,已经有超过两百五十个 AI 影像解读系统通过 FDA 审批,被部署在大型癌症中心。它们并没有“取代”医生,而是悄然改变了医生能看到什么。

在视网膜眼底图像中,AI 识别出了大量人类医生此前从未意识到的信息模式。不是因为医生不够聪明,而是因为人的感知系统天生就不是为这种高维统计结构设计的。当系统开始看到“人类从未知道可以看到的东西”时,职业是否被替代,反而成了次要问题。

医疗系统是高度“有弹性”的。如果诊断效率提高,社会并不会减少医疗岗位,而是释放出更多医疗供给。更多筛查、更早发现、更低成本。不是失业,而是医疗规模的扩张。

这并不是一个技术乐观主义者的空想,而是已经发生的现实延伸。
二、当“组合智能”第一次明显胜过人类


真正让他停顿了一下的,是另一个数字。

在复杂疑难诊断任务上,单独的 AI 正确率大约是 50%,医生约为 40%。而当两者结合时,准确率可以达到 60%。这不是加法,而是结构性的跃迁。

这意味着什么?

意味着“最优智能形态”已经不再是单一主体,而是协同系统。医生不再是“最后裁决者”,AI 也不是“替代者”,而是一个彼此纠错、互相补偿的复合智能。

在北美,每年大约有二十万人死于误诊。这个数字背后,不是技术瓶颈,而是认知结构的局限。当判断被迫从“个人经验”转向“人机协同”,生命统计开始发生变化。

同样的逻辑,也正在药物设计和临床试验中展开。AI 加速的不只是分子筛选,而是整个研发周期的压缩。当试错成本下降到足够低时,创新不再稀缺。
三、教育的真正对手,从来不是老师


他说到教育时,语气变得谨慎了一点。

不是因为技术难度,而是因为社会阻力。

几十年来,教育研究已经反复验证:一对一辅导可以让孩子的学习效率接近翻倍。问题从来不是“有没有效果”,而是“谁能负担”。

而 AI 的出现,第一次让这种结构具备规模化的可能。一个 AI 导师,可以在理解学生误解点的同时,调用数百万学生的学习路径作为经验背景。它不是复制老师,而是在做老师无法做到的事情。

他很清楚,最高端的教育形态——比如博士训练——更像学徒制,而不是知识传授。但即便如此,路径、方法、反馈,仍然可以被系统性地建模。

企业内部培训已经是前哨。领导力、沟通、判断,这些过去只能靠模糊经验传递的能力,正在被 AI 拆解为可训练结构。

教育并不会“被 AI 取代”,但它会被迫改变形态。
四、科学不再只是被加速,而是被重构


真正让他露出一丝兴奋的,是数学。

数学是一种封闭系统。规则完备,反馈清晰,没有模糊解释空间。这使得它天然适合自博弈式学习。就像围棋和国际象棋,一旦 AI 不再依赖人类范例,而是通过自我推演生成训练数据,人类水平就会迅速成为下限。

他相信,未来十年内,AI 会在数学领域全面超越人类。不只是解答已知问题,而是提出新的猜想,并完成证明。

这并不是孤立事件。数学只是最容易起飞的那一块。随着时间推移,物理、化学、生物中的局部模块都会被逐步加速。科学发现不再是单点突破,而是持续流动。

如果社会能够公平分配这种生产力红利,人类生活质量将出现结构性跃迁。早期癌症筛查、全年 MRI 解读、疾病预警,这些并不需要奇迹,只需要智能足够廉价。
五、五年前的模型,看起来会像石器时代


当话题转向模型本身,他显得格外克制。

他拒绝给出具体预测。不是因为不知道,而是因为已经被自己过去的确定性“教育过”。回看五年前,GPT-2 刚刚出现,能生成连贯文本就已令人震惊。今天回头看,它几乎幼稚。

因此,他唯一愿意确认的一点是:现在的系统,在五年后看起来一定会显得原始。

他尤其提到了推理能力和幻觉问题。未来的模型,将能够对自己的输出进行二次审视,识别逻辑不一致与证据缺失。这并不是“更聪明”,而是“更像一个想说真话的人”。
六、符号主义的终局,已经写完了


谈到推理机制时,他的态度变得异常坚决。

几十年来,主流 AI 研究相信,推理必须建立在符号逻辑之上。语言需要被转化为逻辑形式,再通过规则推导结论。这种信念一度强大到不被视为假设,而被视为事实。

而链式思考的出现,彻底击穿了这套世界观。

推理并不是在逻辑空间中完成的,而是在自然语言本身内部展开。模型并没有将句子转译为形式逻辑,而是将词汇映射为高维特征向量,在上下文中不断消歧、变形、对齐。

他用了一个形象的比喻:词语就像高维乐高积木,会根据语境发生形变,通过“注意力”彼此连接,最终形成稳定结构。理解,更像蛋白质折叠,而不是逻辑推演。

因此,所谓“神经符号混合系统”,在他看来,更像是燃油车时代工程师对电动车的妥协式改造。不是必要的未来,而是过渡性的执念。
七、身体不是前提,但效率的加速器


关于具身智能,他给出了一个区分。

哲学上,人是否必须通过身体才能理解世界?现实已经给出答案。语言模型仅通过文本,就已经学会了大量世界结构。

但效率是另一回事。通过传感器、动作反馈学习空间与因果关系,远比语言描述高效。机器人触觉、操作能力的进展,正在让这一点变得现实。

这并不意味着“没有身体就无法智能”,而是具身只是加速器,而非前提条件。
八、算力、数据与真正的突破


当谈到规模化极限,他毫不回避现实。

公开数据正在枯竭,纯靠扩展规模的收益已经呈对数递减,能耗问题开始显现。但真正的出路,在于自生成数据。

当模型能够通过推理发现自身矛盾,并反向修正参数时,它就进入了自我改进的闭环。这正是 AlphaGo 超越人类的路径,也将成为语言模型继续跃迁的基础。

工程优化还会持续,架构级突破一定会出现。Transformer 不是终点,测试时计算、短期记忆、快速权重,这些看似“反直觉”的设计,反而正在反向推动我们理解人脑。

他坦言,自己最初是想理解大脑的,结果失败了。但正是在失败中,产生了改变世界的工具。

理解不一定来自模仿,有时来自偏离。

掌声再次响起时,他已经说完了。

没有终极结论,也没有未来宣言。只有一条清晰而冷静的判断线索:我们并不是站在奇点前夕,而是已经进入了一段不可逆的结构转变期。

而真正危险的,从来不是技术本身,而是我们误以为它还没准备好。
页: [1]
查看完整版本: 所有人都在问“AI 会不会取代人”,但这个问题本身就是错的 -- 来自 AI 之父的判断