首页 / ai资讯

阿里开源新模型:超GPT-4o,数学能力全球第一!

发布时间:2024-08-09 09:35:54

阿里巴巴开源了最新数学模型Qwen2-Math,一共有基础和指令微调两种版本,包括1.5B、7B和72B三种参数。

根据阿里在主流数学基准测试显示,Qwen2-Math-72B指令微调版本的性能超过了GPT-4o、Cloude-3.5-Sonnet、Gemini-1.5Pro等知名闭源模型,就连Meta最新开源的超强模型Llama-3.1-405B也照样拿下。

也就是说,Qwen2-Math-72B是目前全球最强的数学推理大模型。不知能否挑战一下前不久谷歌刚获得国际数学奥林匹克竞赛银牌,仅差1分获得金牌的双混合模型AlphaProof和AlphaGeometry 2(这两个模型还处于研究阶段)。



基础模型

Qwen2-Math的基础模型使用Qwen2-1.5B、7B和72B进行初始化,然后在精心设计的高质量数学专用语料库上进行预训练,该语料库包含大规模高质量的数学网络文本、书籍、代码、考试题目以及由 Qwen-2 模型合成的数学预训练数据。

阿里在在三个英语数学基准 GSM8K、Math 和MMLU-STEM 上评估了Qwen2-Math 基模型。同时评估了三个中国数学基准 CMATH,GaoKao Math Cloze 和 GaoKao Math QA,所有评估均使用 Few-shot CoT 方式。


结果显示,Qwen2-Math基础模型的性能大幅度超越了Llama-3.1-8B/7B/405B全系列。

指令微调模型

在开发指令微调模型方面, Qwen2-Math-72B 训练的模型采用了密集的奖励信号与二元信号的结合,二元信号在此起到指示模型是否正确回答问题的作用,类似于分类任务中的标签,有助于模型在训练过程中进行自我校正。

结合信号后,模型通过拒绝采样方法构建了SFT数据集。拒绝采样是一种蒙特卡罗方法,通过在更大范围内按照均匀分布随机采样,然后接受或拒绝采样点来估计复杂问题的概率分布。

这种方法在处理复杂概率分布时特别有用,因为它不要求分布的概率分布函数可逆,从而解决了一些分布难以直接采样的问题。

随后使用GRPO强化学习算法进行优化,这是近端策略优化的一种变体,通过迭代过程进行训练,其中奖励模型会根据策略模型的输出不断更新,以确保策略的持续改进。

阿里使用英语和中文的数学基准评测对Qwen2-Math-72B指令微调模型进行了综合评估。还使用了更有难度的OlympiadBench、CollegeMath、高考(GaoKao)、AIME2024、 AMC2023以及中国2024年高考/中考数学题进行了测试。



结果显示,其数学推理性能大幅度超越了GPT-4o、Claude-3.5-Sonnet、Gemini-1.5-Pro 和 Llama-3.1-405B等知名开闭源模型。阿里表示,Qwen2-Math已经能解答一些数学竞赛难题,包括多道IMO竞赛题。



在预训练和微调数据集上阿里都进行了去污染处理,特别是清洗了对GSM8K、MATH、Aqua、SAT Math、OlympiadBench、College Math等知名基准测试数据集有重叠的正例污染样本,以保证测试效果的准确性、公平性。

目前,Qwen2-Math模型仅支持英文,但阿里表示会很快推出中英双语版本,帮助更多的用户开发生成式AI应用。


免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com