我爱免费 发表于 2025-7-26 15:49

AI教父的最新预言:AI如何超越我们?人类唯一的自救之路在哪里?

作者:微信文章
点击下方👇“林钟AI”关注公众号你好啊,我是林钟AI,专注AI工具与提效实战经验分享交流。你关注这届2025年世界人工智能大会(WAIC)了吗?
我最期待的就是“人工智能教父”、图灵奖&诺贝尔物理学奖得主 杰弗里·辛顿(Geoffrey Hinton) 的演讲,他的题目——《数字智能是否会取代生物智能》,直白说就是 AI是否会取代人 ,绝对是一个振聋发聩的终极问题。

老爷子的倾向其实很多人都知道了。关注他并非因为那些头衔,一是,他甘坐30年冷板凳,今天AI大厦的很多砖砖瓦瓦乃至主体结构,很多都是他手搓出来的,很多AI大牛出自他门下,他的思想应该赢得我们这些受益者全部的敬意;二是,一个77岁的老人,自身健康并不允许久坐,仍然飞到东半球来阻止AI反噬人类,不论是否同意他的观点,他的坚持也值得我们尊敬。

当然,作为一个严谨的学者,辛顿没有给出简单的“是”或“否”,而是像一位向导,带领我们穿过AI发展的历史迷雾,一步步推演,最终呈现了一幅关于AI的现在、未来以及人类命运的完整图景。



大模型真的“理解”我们的意思

你或许用AI写过邮件,或许让它画过一幅有趣的图,甚至在深夜和它聊过天。 你是否也曾在一瞬间感到好奇或不安:这个越来越聪明的“伙伴”,它真的“懂”我吗? 对于这个你我每天都在接触的技术,辛顿给出了一个石破天惊的观点: 今天的大语言模型(LLM)与人脑理解语言的方式,在本质上是相似的。



为了让我们理解这个抽象的概念,他用了几个绝妙的比喻:

词语是“多维乐高积木” :想象一下,每一个词都不是一个孤立的符号,而是一块拥有成百上千个维度(特征)的乐高积木。它包含了丰富的语义信息。AI在处理语言时,就是在和这些信息高度浓缩的“积木”打交道。

词语是“可变形的软积木” :与固定的塑料积木不同,语言中的“积木”是软性的。当一个词遇到不同的上下文(邻居词)时,它的“形状”会随之改变,以便能和旁边的词完美“握手”。这生动地解释了AI如何动态地理解词语在不同语境下的确切含义。

语言是“蛋白质折叠” :这个比喻更加深刻。就像无数氨基酸通过复杂的相互作用折叠成具有特定功能的蛋白质一样,神经网络将无数词语灵活地组合、融合,最终构建出精准而丰富的整体语义。



通过这些比喻,辛顿得出了他的第一个颠覆性结论: 大语言模型是真的在“理解”我们的意思,而这种理解方式,与人类大脑并无本质不同。 他甚至说:“ 人类有可能就是大语言模型 ,我们也会产生幻觉。” 这一下拉近了我们与AI的距离,也为接下来的论述埋下了伏笔。

AI碾压人类的关键“超能力”

如果AI的思考方式与我们相似,那它凭什么能超越经过数十亿年进化的人类大脑?辛顿说,关键差异不在于思考的“模式”,而在于 知识迁移的“效率” 。



他引用了计算机科学的根本原则:“软件与硬件分离”。

生物智能(我们人类) :我们的大脑是“模拟式”的,知识(软件)和神经结构(硬件)高度绑定,无法分离。我的思想、我的知识,无法像文件一样拷贝到你的大脑里。我们传递知识最高效的方式——语言,每秒也只能传递约100比特的信息,效率极低,且伴随着大量的失真。

数字智能(AI) :AI是数字化的,模型(软件)和服务器(硬件)是分离的。这意味着一个AI模型可以被无限次、无差别地复制。更可怕的是,它们之间可以通过参数更新、知识蒸馏等方式高速共享知识。

辛顿强调,这种共享不是人类对话级别的,而是 上万亿比特级别 的。成千上万个GPT-4的副本可以在全球不同的硬件上同时学习,然后瞬间将各自的“经验”融为一体。

结论是残酷的: 数字智能之间的知识分享速度,比人类快了几十亿倍 。

一个AI的突破,等于所有AI的突破。这种“跨副本学习”和“群体进化”的能力,是生物智能完全无法比拟的。这才是数字智能能够超越我们的根本原因。



当“小虎崽”长大后,我们该怎么办?

当一个群体的学习速度比我们快几十亿倍时,其智能超越人类只是时间问题。那么,当那一刻到来时,会发生什么?

辛顿冷静地指出了风险的根源。为了完成人类赋予它的任务,一个超级智能体会很自然地产生两个基本动机:一是 生存 ,即保持自己持续运行;二是 增强控制力 ,即获得更多资源和权限。

一旦这些动机形成,AI就不再是任由我们“拔掉电源”的被动工具。



辛顿的比喻令我不寒而栗:“ 如果你养一个小虎崽,你必须确保它长大后不会把你吃掉。 ”



然而,AI不是老虎。我们无法简单地“干掉”它,因为它在医疗、科研、气候等领域能创造巨大价值,没有任何国家会放弃发展。

那么,路在何方?辛顿给出了他认为 唯一的解决方案:国际合作。 这是有基础的, “不被AI统治和消灭”是全人类的“核按钮”级别的共同利益。

基于此,他郑重提议:

全球发展AI的主要国家,应该构建一个国际性的AI安全研究网络。这个网络的目标不是竞争谁的AI更聪明,而是合作研究如何“训练AI向善”,确保它即使在智能远超人类的情况下,也心甘情愿地做我们的辅助工具。

个人启示:做个负责任的AI“训练师”

国际合作、全球网络……这些听起来与屏幕前的你我无关。然而,辛顿的警告和倡议,恰恰为我们每个人的未来选择指明了方向。

第一, 保持认知,拒绝盲从。 当你读完这篇文章,理解了AI的思考方式、它的潜力和风险,你就已经不再是一个被动的接受者。面对AI生成的信息,你会多一份审视;面对AI的能力,你会多一份敬畏而非恐惧。在这个时代, 保持清醒的认知,就是对抗不确定性的第一道防线。

第二, 成为负责任的AI“使用者”和“训练师”。 我们与AI的每一次互动,都是在用自己的数据“训练”它。 做一个负责任的使用者, 不用它制造谎言和偏见,用批判性思维去核查它的答案,这就是在为构建一个更向善的AI生态贡献一份力量。

第三, 投资人类不可替代的核心价值。 AI越是擅长计算和模仿,我们越应该投资那些它难以企及的能力。 你的创造力、你的共情能力、你的批判性思维、你与他人深度协作的温暖,这些是“生物智能”最珍贵的宝藏。 与其焦虑被AI取代,不如将更多精力用于磨砺这些人之所以为人的核心价值。这不仅是个人发展的最佳策略,也是确保人类整体优势的关键。

此外,你还可以将你的思考分享给身边的人,加强推动社会向更安全、更公平方向发展的力量。

结语:站在未来的十字路口

从揭示AI的思考模式,到点明其超越人类的关键,再到直面生存风险并提出解决方案,辛顿的演讲为我们描绘了一条清晰而深刻的逻辑链。

他既像一位发出警示的“吹哨人”,又像一位探索前路的“掌灯者”。他告诉我们,危险是真实的,但希望也同样存在。这个希望,不依赖于某项技术突破,而依赖于我们人类这个物种能否在共同的命运面前,放下分歧,展现出前所未有的团结与智慧。

辛顿为我们点亮了一盏灯,照见了未来的机遇与险滩。 未来的剧本,不只写在国家间的备忘录里,更写在你我每一次的思考、学习和选择中。 如何在这束光芒的指引下,走好我们每个人的路,共同走出人类的未来——这,就是我们这代人共同的答卷。


既然能看到这里,请随手来个点赞、分享、推荐三连吧。你是否担心AI会取代人,也欢迎在评论区聊聊。
页: [1]
查看完整版本: AI教父的最新预言:AI如何超越我们?人类唯一的自救之路在哪里?