多客科技 发表于 2026-1-11 06:36

AI的殖民

作者:微信文章
人类的知识正面临着人工智能的深度殖民。AI通过毫秒级调动人类数千年的知识储备,这个革命式进化正在颠覆人类传统的认识论。它重新激活了“康德问题”——人类的知识何以成为可能?

我们先分析AI的“知识殖民”是如何发生的。



首先,对经验的知识。

在传统时代,人们获取知识是没有确定性路径的。我们认识世界的方法是“在一个黑屋子里去抓一只黑猫”,通过不断的犯错来获取知识。比如弗莱明爵士因为忘记了清洗培养皿而发现了青霉素。比如伦琴因为误用了黑纸而发现了X光。自然杂志曾经做过一个统计,17%的诺贝尔奖都是因为意外而被发现的。

但是,今天的AI对经验性的知识给出了一个确定性的答案,也让人失去了发现新知识的可能。

比如一个人要制作糖葫芦,他需要把糖熬出一种拉丝的状态,但是因为他不知道什么温度才会拉丝,所以他会犯错。但是这种错误会让它得到一种新产品——糖霜,而这个糖霜的状态是和拉丝的状态是完全不同的。但是当AI出现,它会给你精准的时间和温度的控制,我们就可以一次性把糖熬出拉丝的状态。但是我们的代价却是失去一种新的知识,我们永远也不会知道糖原来还有“糖霜”这种状态。

人类总是在犯错中创新,当AI对经验性的知识提供了一个确定性的路径,那么它就扼杀了新知识产生的可能。就像石墨烯的发现者海姆所说;真正的危险并不是实验的出错,而是人们不再去冒险。

所以,对经验性的知识,因为AI无法探索“真实的物理世界”,它只能基于旧有经验的分析。所以它很可能把人类困在旧经验的陷阱里,而无法向新知识跃迁。

比如在细菌被发现之前,医生们认为病人的死亡率高是因为自己的手术方式不对,他们从来没有想过这个世界上还有细菌的存在,而AI是无法取代列文虎克发明显微镜的,它也无法发现细菌而做出认知迭代,它只能在旧有的知识中寻找答案,从而导致人类的知识被锁死,丧失了净化的可能。

其次,对逻辑的知识。

在传统的时代,人类通过对知识的整合,完成对自身逻辑思维的训练。比如我们通过搜索引擎,对那些分散的知识进行系统化的重构和多维度的思维筛选。而这个过程就是人类逻辑形成的过程。我们通过综合判断和分析判断,对不同的信息进行重构和连接,形成了可以应对复杂世界的归纳、演绎和类比的能力。

而当AI主导了知识的整合,那么人类思维训练的过程就被取消了。比如GPT会提供一个三段论的推演,但是用户会跳过中间的推理的过程,而直接寻找答案。这种思维过程的省略将导致人类逻辑能力的退化。2024年剑桥大学曾经对长期依赖AI的群体做了一个研究,他们发现这个群体的“自主归纳能力”下降了31%,形成了深度的“算法依赖”。

好,我们通过对人类两种基本的知识来源做的分析,可以看出,AI在对人类经验的知识和逻辑的知识,在进行一场深度的殖民。它以“经验知识”的“固化”消解了人类的试错带来的创新,以“逻辑知识”的“整合”替代了人类对逻辑的训练。它正在重构人类对知识的理解,带来一场机器对人类的殖民。



那么,AI的“知识殖民”对人类社会会形成怎样的冲击呢?

第一,知识的主体被颠覆。

现在,谷歌的人工智能可以在“未明确编程”的情况下自主去发现素数的规律,而产生了超越设计者的预设知识。这种“机器的先验”正在打破康德的“人的先验”,从此人不再是产生知识的唯一主体。迪卡尔的“我思”遭遇了前所未有的挑战,人类的主体性正被机器颠覆。

第二,因果律的终结。

因为AI无法体验真实的“物理世界的直观”,所以它只能通过算法的“相关性”去进行分析。这就让休谟基于“相关性”的怀疑论替代了物理世界直观的因果律。它导致了人类思维出现了“黑箱化”,也就是说,人类基于“直觉”和“真实的物理世界的直观”正被模糊。自然客体的“因果律”正被“相关性”所取代。

第三,自由意志的消解。

麻省理工的一个实验显示,AI预测人类决策的准确率也达到了73%,而且这个数据还在不断的提升,这看起来很美好,但其实是对人类自由意志的一场消解。因为如果一个机器可以预测人的行动,那么就意味着人的自由意志是不存在的,这挑战了康德的“自由意志的先天设定”。

而如果当法律开始参考AI去做犯罪的预测,那么存在主义所强调的“选择的自由”就成为“技术的幻觉”。它会孕育一种新型的“技术拜物教”,从而把人类推向宿命论。这个具体大家可以参考电影《未来报告》。

第四,人类默会知识的量化会导致灵性的消亡。

今天的AI正也超强的算力,解构人类那些难以言传的“默会知识”。人类基于直觉的“体验”正被AI数字化、模型化。比如AI可以把日本寿司之神的动作分解为300多个力学的参数,通过拆解参数去模拟这种知识代替个体感受。这是对人类隐性知识的暴力解码,它会导致人类记忆传承的“灵性消亡”。

第五,对人类“先验范畴”的碾压。

康德认为,人类的先验范畴是固定的,意思是人类对客观世界的认知存在固定的“先验结构”。但是现在AI打破了这些结构,比如阿尔法GO就展现了超越人类空间的认知能力。这代表着AI突破了人类的“先验范畴”,拓展了新的空间范畴,这让人类的知识面临着被降维打击的风险。

第六,知识的边界被重构。

人类传统的以学科分类为主的知识,现在正在AI“知识图谱”的冲击下走向瓦解和重构。比如医学和材料学、法学和生物学等等众多的跨学科的知识正在重构和形成。这种重构瓦解了迪卡尔所建立的人类线性的知识体系,对认识论构成了前所未有的冲击。

第七,摧毁“多中心”认知模式

在传统时代,人类获取知识是一个去中心化的过程。意思是面对同样的信息,同样的知识,而不同的人会用不同的逻辑对其进行加工而形成对知识的不同理解。而当AI取代了这个过程,就形成了知识的“中心化”。这对人类的多元认识论是一种暴力摧毁。

今天我们站在AI所带来的认识论革命的十字路口,我们需要重新回到康德,明析人类知识“因何成为可能”。同时,深度警惕AI对人类知识的殖民而带来的知识的衰退。

这是一个漫长而艰难的征途。
页: [1]
查看完整版本: AI的殖民