新闻 发表于 2025-7-26 19:09

“AI教父”辛顿中国首讲:数字智能是否会取代生物智能?预警AI觉醒临界点已至!(附完整版PPT)

作者:微信文章
初歌按:等了50年,AI教父Hinton终于「真人现身」中国了!
7月26日,2025世界人工智能大会(WAIC)在上海开幕,诺贝尔奖得主,人工智能教父 Geoffrey Hinton(辛顿教授)重磅开场,发表开幕演讲。作为最为关注 AI 治理及安全问题的顶级专家,辛顿教一如既往地表达了他对 AI 治理的关心。从自己的研究生涯开始,他分享了大模型的变迁以及背后的技术范式。最后他呼吁建立一个由多个国家参与的国际 AI 安全研究网络,专注于研究如何训练 AI 向善。
就在两天前,英国皇家学会发布了辛顿教授的最新演讲。在这场演讲中,他深入探讨了AI从基于逻辑的推理起源到基于学习的神经网络的演变历程,阐释了AI如何模拟人类智能,及其对未来发展的深远影响。最终,他再次发出警告——AI觉醒的临界点已至!
以下为辛顿演讲内容整理,有删减。重磅:数字智能是否会取代生物智能?演讲者:Geoffrey Hinton


大约六十年前,AI顺着两条完全不同的路开始狂奔。

第一条:符号主义。

它相信智能=逻辑推理。我们把世界抽象成一个个符号,再用规则去操作它们,于是推理像程序一样可控、可解释。它的优势是清晰、可验证,也让人类理解“知识是怎么被表示和处理的”。

在这套范式里,智能更像是写在黑板上的公式。

第二条:连接主义。

这一派盯着生物大脑看问题。图灵、冯·诺依曼都直觉:聪明不是写规则,而是靠无数连接在一起的简单单元,不断调整连接强度去“学会”东西。速度、结构、连接模式的改变,就是智能的本体。

这条路不依赖显式规则,它押注的是“学”和“适应”。



1985 年,我做了个小得不能再小的模型,想把那两种看似对立的路线拧在一起试试水。

核心想法很简单:

每个词不是一个孤零零的标签,而是一组特征的组合。这些特征彼此之间可以用来预测下一个词。模型不去死记整句子,而是通过“生成”去逼近语言内部的关系网。

换句话说,我押注的是词背后的语义特征:我们不是靠写规则来走一步看一步,而是靠“理解”词和词之间的意味来预判下一步。这种思路其实为后来计算语言学界广泛接受“特征表示”埋下了伏笔。

二十年后,这套思想被放大到更宏大的自然语言处理系统里继续生长。


大模型与人类语言理解Google 的 Transformer 架构,以及 OpenAI 研究者们所展示的大型语言模型(如 GPT),则把这种模型放大到了新的高度。这些模型的底层原理与我当年构建的小模型类似:将语言中的词汇视为具有多维特征的「构件」,然后在多层神经网络中进行组合、融合,从而实现语言生成与理解。

我喜欢用「乐高积木」作为比喻。每个词就像一个多维度的乐高积木,具有成千上万的特征维度。理解语言就像用这些积木建模,不同的词要以合适的方式「握手」,即匹配连接点,这种匹配方式反映了词与词之间的语义关系。如果词的形状改变了,它与其他词的「握手方式」也会变化,语言的意义也随之变化。

这种构造方式类似于蛋白质折叠:氨基酸在空间中的不同组合方式,最终决定了蛋白质的功能。人脑理解语言也是以此种方式构建语义结构的。这与人类知识传播完全不同。我无法把我的神经元结构「拷贝」到你脑中,语言只能以极低的比特率(一秒大约 100 比特)来传递信息。而在数字系统中,一个神经网络模型可以复制成成千上万个版本,它们在不同设备上学习,并且可以快速共享权重,远远超越人类知识传播的速度与效率。
我的观点是,人类理解语言的方式和大语言模型的方式几乎是一致的。人类甚至可以被看作一种大语言模型。

也正因如此,人类也和 AI 一样会产生「幻觉」,因为我们也会自己创造出一些不真实但合理的解释。

当然,也有本质上的不同。AI 在某些方面比人类更强。

比如在计算机科学中有一个根本性的原则,那就是:软件可以被抽象、被复制,并在不同的硬件上运行。只要程序存在,它的知识就不会消失。你甚至可以毁掉所有的硬件,只要软件代码还存在,它就能被复活。

从这个角度看,程序中的知识是永恒的,不会死亡。

这和人脑完全不同。人脑是模拟系统,每一次的神经元激发都是独一无二的,是不可完全复制的。你不可能把你脑中的神经结构复制到我脑中,因为我们每个人的大脑连接方式都不同。

这就导致一个关键问题:知识在大脑中是和硬件绑定的,而在数字系统中,知识可以和硬件分离。

因此,AI 系统具有「永生性」。

这种特性带来了两个巨大的好处:

第一,它只需要非常小的能耗。人脑的功率大约只有 30 瓦,却拥有上万亿个神经元连接,这和数字系统的能效比类似。

第二,我们不需要花大价钱去一模一样地复制每一个神经网络。

当然,我们在知识传递方面仍面临一个难题。

比如说,我没有办法直接把我脑中的知识「展示」给你,因为那是模拟性的东西。我只能用语言向你解释我学到的内容。
知识蒸馏与教师-学生模型为了解决模型体积与计算资源问题,现在的研究越来越倾向于「蒸馏」技术:从大模型中提取知识,转移到一个小模型中。这个过程就像教师与学生之间的传授关系:教师通过语言、上下文连接等方式将知识传递出去,学生则尝试理解并复制这种能力。不过这种过程在人类之间的效率是非常低的,毕竟语言的带宽有限。而在机器之间,这种知识的复制可以在极大规模下进行,实现指数级的知识转移。AI 的能力正在快速增长,未来它们很可能变得比人类更智能。有人可能会认为,万一 AI 不听话,我们可以把它关掉,但这并不现实。

如果 AI 足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。这个问题就像养一只小老虎当宠物——在它还小的时候你觉得可以控制它,但等它长大以后,它可能就会杀了你。AI 的能力可以带来巨大的好处,比如提高医疗、教育、应对气候变化和材料研发的效率。它不会消失,也不可能被单一国家所控制。全球合作的希望虽然不同国家的利益存在分歧,在如网络攻击、致命武器或舆论操控方面也难以形成有效合作,但就像冷战时期美苏合作避免核战争一样,各国在 AI 安全方面是有可能合作的。我的建议是建立一个由多个国家参与的国际 AI 安全研究网络,专注于研究如何训练 AI 向善——这与训练 AI 变聪明是两件不同的事。每个国家可以在本国进行 AI 安全研究,但应共享成果,协助全人类开发出愿意协助、而不是统治我们的智能体。从长远看,这可能是人类最重要的议题。而好消息是,这个问题是全人类可以团结起来共同面对的。


ps:想要辛顿教授完整PPT的朋友,关注“初歌健谈”公众号,后台回复“AI辛顿”,免费领取。
页: [1]
查看完整版本: “AI教父”辛顿中国首讲:数字智能是否会取代生物智能?预警AI觉醒临界点已至!(附完整版PPT)