当前的位置:泉州人才网 >> 新闻中心 >> 新“SOTA”推理模型避战Qwen和R1?欧版OpenAI被喷麻了 >> 正文
新“SOTA”推理模型避战Qwen和R1?欧版OpenAI被喷麻了
炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
“欧洲的OpenAI”MistralAI终于发布了首款推理模型——Magistral
然而再一次遭到网友质疑:怎么又不跟最新版Qwen和DeepSeekR10528对比?
(此前该公司发布Ministral3B/8B时,声称“始终优于同行”,却没有对比Qwen2.5)
在该模型发布的前几个小时,MistralAI的CEOArthurMensch在接受炉边访谈时声称即将发布的Magistral能够与其他所有竞争对手相抗衡。
在官方展示的基准测试结果中,DeepSeek-R1的数据确实不是最新的(在AIME-25数学测试中,DeepSeek-R1-0528的准确率已经从旧版的70%提升至87.5%),并且比较行列里完全不见Qwen的身影。
不过,与同公司初期模型MistralMedium3相比,该框架在AIME-24上的准确率提升了50%。
此次Magistral发布了两种版本:
MagistralSmall——24B参数的开源权重版本,可在Apache2.0许可下自行部署。
MagistralMedium——更强大的、面向企业的版本,在AmazonSageMaker上提供。
在Magistral发布之前,MistralAI的CEOArthurMensch在访谈中提到:
于是,这次Magistral的一个亮点就是支持多语言推理,尤其是解决了主流模型用欧洲语言的推理效果不如本土语言的缺陷。
下面的例子展示了在LeChat中,使用MagistralMedium的阿拉伯语提示和响应。
与通用模型不同的是,Magistral针对多步逻辑进行了微调,提升了可解释性,并在用户的语言中提供了可追溯的思考过程,能够实现大规模实时推理。
下面的例子展示了重力、摩擦和碰撞的单次物理模拟,在预览中使用的是MagistralMedium。
就好像Magistral不是黑箱预言家,而是一个能陪你「摆事实、讲道理」的智能伙伴。
并且,在LeChat中,通过FlashAnswers,MagistralMedium的token吞吐量比大多数竞争对手快10倍。
这就能够实现大规模的实时推理和用户反馈。
作为Mistral推出的首个基于纯强化学习(RL)训练的推理大模型,Magistral采用改进的GroupRelativePolicyOptimization(GRPO)算法。
直接通过RL训练,不依赖任何现有推理模型的蒸馏数据(如DeepSeek-R1需SFT预热)。
通过消除KL散度惩罚、动态调整探索阈值和基于组归一化的优势计算,在AIME-24数学基准上实现从26.8%到73.6%的准确率跃升。
首创异步分布式训练架构,通过Generators持续生成、Trainers异步更新的设计,配合动态批处理优化,实现高效的大规模RL训练。
还反直觉地发现纯文本RL训练可提升多模态性能(如MMMU-Pro-Vision提升12%),并验证RL对小模型同样有效(24B的MagistralSmall在AIME-24准确率达70.7%)。
这些创新使Magistral在无需预训练蒸馏的情况下,以纯RL方式为LLM的强化学习训练提供了新范式。
官方没有给出Magistral与最新版Qwen和R1的对比,网友来代劳了。
从结果可以看出,Qwen4B与该模型相近,小型的30BMoE效果更好,R1最新版就更不用说了(doge
并且,由于“欧洲的OpenAI”越来越不Open,StabilityAI前CEO建议MistralAI应该争取真正的开源来占据开源的领导地位。
[1]https://mistral.ai/news/magistral
[2]https://x.com/dylan522p/status/1932563462963507589
[3]https://x.com/arthurmensch/status/1932451932406415531
—完—
海量资讯、精准解读,尽在新浪财经APP