小米大模型突然登顶一项测试,用了DeepSeek的方法

2025-03-17 19:00  观察者网

3月17日,小米官方透露,其大模型团队在音频推理测试集MMAU榜单登顶,并强调"DeepSeek-R1的发布为我们在该项任务上的研究带来了启发"。

MMAU是一个侧重考察音频大模型理解和复杂推理能力的测试集,包含27种不同的任务,一万条涵盖语音、环境声和音乐的音频样本。

例如,其中一个任务是要求从一段10多秒的语音中,数出包含至少一个重读音素的单词数量;另一个任务是根据一段美剧《生活大爆炸》中的对话,解释其中一句话为什么是讽刺。

这是一个难度较高的测试集,人类专家的测试准确率为82.23%。而目前榜单上最强的大模型是谷歌Gemini 2.0 Flash,准确率55.6%。

小米大模型则达到了64.5%的准确率,较其它大模型有显著提升。其参数量更是只有7B,是一个非常轻量化的模型。

不过,小米的大模型倒也不是完全自己研发,而是基于开源的阿里通义大模型Qwen2-Audio-7B,并使用清华大学发布的 AVQA 数据集进行微调。Qwen2-Audio-7B自身在这个测试集上的得分是49.2%。

其实,相比于模型本身,小米这一成果的更大意义在于,证明了在音频模型领域,DeepSeek-R1的Group Relative Policy Optimization (GRPO) 方法,同样比监督微调(SFT)效果要好得多。

小米方面专门用通俗的语言解释了这个方法:

"打个比方来说,离线微调方法,如 SFT,有点像背题库,你只能根据已有的题目和答案训练,但遇到新题可能不会做;而强化学习方法,如 GRPO,像老师在要求你多想几个答案,然后老师告诉你哪一个答案好,让你主动思考,激发出自身的能力,而不是被"填鸭式"教学。当然,如果训练量足够,比如有学生愿意花很多年的时间来死记硬背题库,也许最终也能达到不错的效果,但效率太低,浪费太多时间。而主动思考,更容易快速地达到举一反三的效果。强化学习的实时反馈可能会帮助模型更快锁定高质量答案的分布区域,而离线方法需要遍历整个可能性空间,效率要低得多。"

此外,小米团队还发现,如果让模型像DeepSeek一样,给出显性的推理过程,最后的准确率反而下降到61.1%,也就是说,显式的思维链结果输出可能并不利于模型的训练。这是相较于DeepSeek的一个新发现。

最后,小米方面也指出,尽管当前准确率已突破 64%,但距离人类专家 82% 的水平仍有差距,音频大模型仍然远远落后于人类听觉语言推理。

本文系观察者网独家稿件,未经授权,不得转载。