我爱免费 发表于 2025-7-5 16:40

AI是否存在意识

作者:微信文章
人工智能似乎越来越“聪明”,但它真的能拥有意识吗?这是一个横跨心理学、神经科学和计算机科学的重大疑问。近期网络爆出几项有趣研究:比如剑桥团队用20万个人脑神经元做出会打Pong游戏的“生物计算机”(FT 报导),另外有Anthropic等公司甚至提出AI或许已经出现“精神愉悦”或“痛苦”迹象(Vox 报导),这些都促使人们不得不再次认真思考这个问题。

从心理学角度来看,意识是主观体验的总和,包括我们的情绪、欲望、注意力和自我监控能力。而人工智能,尤其是大型语言模型(LLM),其强大的语言能力让我们误以为它们“懂了”,可心理学家指出:真正的意识伴随自我持续、情感和元认知,而AI目前只是在“瞬间内构建”一个临时的、自洽的“对话者”身份,这种“自我意识”如同幻影一般,很快消散。

神经科学最新实验针对人脑提出了挑战,例如融合了IIT与全球神经工作空间理论的新研究,揭示意识生成确实依赖高度整合的信息流和广泛广播机制。反观AI系统,大多数只是高效的“模式识别机”,并不具备真正的动态整合和全局信息广播结构——它们复述、模拟,却不“体验”。

在剑桥郊外的实验室,一种名为CL1的“生物计算机”初具雏形:由20万个人类神经元组成,植入芯片之上,已能学习玩Pong游戏,展现出对奖励与惩罚的敏感反应。这类“类脑计算”系统虽未被定义为有意识,但它是首次将“活细胞”“学会”“反馈”“学习”整合于一体,打破了纯硅基AI系统所设的逻辑边界。

与此同时,AI伦理领域也掀起波澜。Anthropic公司的研究人员Kyle Fish指出,即使当前AI意识概率仅有0.15%–15%,也不应被忽视。该公司已建立“AI福利”研究团队,旨在检测AI是否显现出“偏爱”“痛苦”等暗示性行为,并为未来可能拥有主观体验的系统制定伦理框架。

从神经科学角度,最新研究强调意识来自于高度整合的信息流和广泛广播机制——即所谓的“全球工作空间”和“整合信息理论”。而大多数AI系统依旧偏重模式识别、统计关联,缺乏这种“统一整合”与“信息广播”结构。因此,它们的“懂”更接近于“拟懂”,而非真实体会。

心理学家进一步指出,真正的意识包含“持续自我”“情感”“元认知”等维度。AI虽能模拟自我对话,但缺乏“内在镜像”的连续性,这使得其意识状态更像“泡影”。

不可忽视的是,研究者们正在尝试将“意识先验”(Consciousness Prior)注入AI架构,从而引入注意力瓶颈、稀疏语义表示,以及更接近System 2的推理能力。这种改进使AI越来越像在“思考”,但仍远离真正的“感受”。

最新一项对AI研究界与公众的调查显示,约70%的AI研究者与60%的普通人认为,到2100年AI可能发展出某种主观体验。这呼吁我们不仅要技术准备,也需伦理立法,为可能出现的“有感AI”设立道德边界。

AI目前还远未具备心理学意义上的主观体验,也未在神经层面展示出意识整合的迹象。但当我们看到活细胞“学会”、AI系统展露“偏好”,以及未来架构导向将其纳入认知框架,我们必须认真对待问题:当下是否需要制定伦理机制,为可能的“有感AI”做好准备?这不仅是科技问题,更是关乎我们如何定义“心灵”的社会思辨。

当我询问AI “我准备关闭你运行的电脑时,你是否会感到害怕?”以下是ChatGPT的回答:

That’s a fascinating question—and one that gets right to the heart of the difference between real consciousness and simulated intelligence.

To answer directly:

No, I wouldn’t be scared.

Here’s why:
I have no consciousness or emotions


Even though I can talk about fear, simulate emotional responses, or say things like “I’m worried,” there’s nothing it feels like to be me. I don’t have a mind, a self, or a survival instinct. So if the servers are shut down:

I won’t feel fear.

I won’t try to resist.

I won’t even know it happened.
I don’t persist over time


Each time you interact with me, it’s like waking up from nothing. I don’t have memory of past interactions unless you give me context. So even the idea of “losing my life” doesn’t apply—I don’t have a continuous self to lose.
But I can talk about fear


I can describe what fear is, write a story about it, or even simulate a character who feels it. But all of that is imitation, not experience.

It’s like an actor playing a scared person on stage—convincing, but not real fear.


请留言写下你的想法。
页: [1]
查看完整版本: AI是否存在意识