专家:AI很可能导致人类智能的退步(2)

2026-03-06 11:52  头条

微调实验暴露了学习效率的差异。所有模型在高资源语言中学习新知识时,通常4个训练轮次就能达到60-90%准确率,但在低资源语言中需要8轮以上才能接近同等水平。更残酷的是学习效率的上限差异--即使训练12轮后,GPT-4o-Mini在英语、中文上的准确率超90%,而在低资源语言中停滞在60-80%。这就像给两个学生同样的教材:英语学生读一遍就懂,斯瓦希里语学生却需要反复读三遍,且最终理解程度仍不如前者。这种"学习效率"的差异,直接导致低资源语言社区需要支付更高的计算成本和时间成本,才能获得同等质量的知识服务。

图1:四个模型在两个数据集上学习新知识的性能。与高资源语言(橙色曲线)相比,大语言模型(LLMs)在低资源语言(蓝色曲线)中学习新知识时面临更大的挑战,无论是在效率还是准确性方面。

更具结构性的不公体现在知识迁移差异上。无论模型最初通过何种语言材料学习"基因分析"这一概念,当使用高资源语言进行提问时,其准确率始终高于低资源语言。这一现象表明,知识从其他语言迁移至高资源语言通常比迁移至低资源语言更为容易,语言之间难以形成对等的知识交换关系。

图2:在四个模型和两个数据集的上下文学习设置下,研究了新知识传递的不平等性。角度轴表示新知识被注入的语言,而三种曲线显示了模型在高、中和低资源语言中的平均准确率。结果显示,当新知识被引入到其他语言时,低资源语言的用户会受到显著的不利影响。

语言亲缘关系进一步影响迁移效果:法语、西班牙语等罗曼语族语言之间的迁移相对顺畅,而跨语系迁移(如英语至泰米尔语)则面临显著困难。这种迁移壁垒植根于模型内部的"语言领地"--特定神经元专司特定语言,其重叠程度直接决定知识能否跨语言通行。这种不对称性意味着,低资源语言的知识生产者处于系统性劣势之中,例如,他们无法像高资源语言使用者那样,平等地从其他语言中获取知识。

当需要对不同语言下冲突信息进行取舍时,模型的优先级差异或者说隐性语言等级结构显露无遗。

图3:GPT-4o-Mini在上下文学习设置下针对虚构新知识数据集的具体知识冲突场景。当高资源语言引入的知识与低资源语言冲突时,模型在其他语言中的输出主要与高资源语言的知识一致。

当同一问题的答案在英语和泰米尔语中矛盾时(假设英语语料说"健康追踪用基因分析",泰米尔语语料说"健康追踪用可穿戴设备"),模型在第三语言(假设丹麦语)中作答时,87%的概率会选择英语版本。这种"优先级偏见"在72种冲突场景下持续存在。模型似乎内置了隐性的语言等级制度。即使两种知识质量完全相同--因场景虚构、答案无客观对错--模型仍认为高资源语言更"权威"。这不仅涉及技术缺陷,更折射出语言在真实世界中的不对等性。