专家:AI很可能导致人类智能的退步(4)

2026-03-06 11:52  头条

模型神经元还持有潜藏的"语言领地"。模型内部存在"语言神经元",专门处理特定语言的词汇和语法。

图6:上半部分的矩阵展示了模型神经元在处理不同语言(如英语、法语、印地语)时的激活情况。图中标记的 "1-K Overlap" 和 "1-2 Overlap" 指代不同语言之间存在共享的活跃神经元。神经元的重叠程度直接决定了知识能否在语言之间顺畅迁移。图表下半部分展示了研究人员采用的干预手段。通过人为地"增强"或"抑制"这些特定神经元,观察模型表现的变化,从而证实了这些神经元确实是"专门处理特定语言"的关键组件。

通过分析这些神经元的重叠程度,研究发现法语与西班牙语因神经元高度重叠而迁移顺畅,但跨语系(如英语→泰米尔语)的迁移则举步维艰。实验表明,人为增强重叠神经元的激活能部分提升迁移能力,但无法完全消除。这印证了不平等性已深植于模型架构底层。

研究人员进行了神经元层面的干预实验。通过对跨语言重叠神经元进行强制激活或抑制,研究发现:抑制这些神经元会导致跨语言知识迁移能力显著下降,证明了它们是知识流动的关键桥梁;而激活虽然能带来适度的性能提升,但其收益幅度远小于抑制所造成的损失。这表明,虽然神经元干预能一定程度上调节知识迁移,但无法彻底消除根植于模型设计与训练中的不平等。要从根本上解决这一问题,不能仅靠后期的小修小补,而必须回溯到模型开发阶段(如平衡预训练数据、优化分词器设计),进行更底层的预防性设计。

研究者坦承三大局限:一是实验仅覆盖19种语言和4个模型,二是神经元干预只是初步探索,三是未能触及数据不平衡的根本问题。但他们强调,真正的解决需要"预防性设计":平衡多语言预训练数据、开发语言中立的分词器、在损失函数中引入公平性约束。

当AI成为知识入口:公平与认知的新挑战

综合来看,这项PNAS研究揭示了一个常被忽视的问题:大语言模型不仅在不同语言之间存在性能差异,而且这种差异会在学习新知识的过程中不断被放大。当AI逐渐成为人类获取信息和学习知识的重要入口时,这种技术结构中的不平等可能进一步转化为现实世界中的知识差距。更值得警惕的是,如果人类越来越依赖AI完成信息检索、理解与判断,而AI本身又带有系统性偏差,那么长期来看,人类的学习方式与认知结构也可能受到影响。正因如此,研究者认为,未来的AI发展不仅需要追求性能提升,还需要在模型训练数据、语言覆盖与系统设计层面引入更严格的公平性考量,确保人工智能成为促进知识共享的工具,而不是新的认知鸿沟的放大器。