/ ai资讯

开源新模型 DeepCoder:超高效编程,超越OpenAI o1模型

发布时间:2025-04-09 09:35:56

在科技发展的浪潮中,人工智能(AI)技术日新月异。最近,由著名大模型训练平台 Together AI 和智能体平台 Agentica 联合开源的新模型 DeepCoder-14B-Preview,吸引了广泛关注。

该模型以仅有的140亿参数,在代码测试平台 LiveCodeBench 上的得分为60.6%,超过了 OpenAI 的 o1模型(59.5%),仅略低于 o3-mini(60.9%)。这一成绩在 Codeforces 和 AIME2024的评测中也表现出色,与 o1和 o3-mini 不相上下。

DeepCoder 不仅仅是一个新模型,其开源内容丰富,包含了模型权重、训练数据集、训练方法、训练日志及优化策略等,极大方便了开发者深入理解模型的开发流程。开源地址和相关的 GitHub 链接均已公布,便于有兴趣的开发者进行探索和研究。

DeepCoder 是在 Deepseek-R1-Distilled-Qwen-14B 基础上,通过分布式强化学习(RL)进行微调而成。为了构建高质量的训练数据集,研究团队收集了24,000个可验证的编程问题,并通过程序验证、测试过滤和去重等步骤确保数据质量。所有问题均通过外部官方解决方案进行验证,并满足严格的单元测试标准。

在代码强化学习训练过程中,DeepCoder 使用了两种沙盒环境来执行单元测试并计算奖励。Together Code Interpreter 环境高效且可扩展,能够支持大量并发沙盒,另外一个本地代码沙盒则确保了与现有排行榜的一致性。

DeepCoder 在奖励函数设计上采用了稀疏结果奖励模型,确保模型专注于生成高质量代码,而非通过记忆测试用例获取奖励。同时,为了实现更稳定的训练过程,模型采用了改进版的 GRPO 算法,并引入了迭代上下文扩展技术,显著提高了模型的推理能力。

为了加速端到端的 RL 训练,DeepCoder 团队还开源了优化扩展 verl-pipeline,通过一次性流水线技术,使训练、奖励计算和采样的过程完全流水化,大大提高了训练效率。

尽管 DeepCoder 刚刚开源,然而网友们对其表现非常赞赏,认为其是一个值得期待的开源项目。Together AI 成立于2022年,致力于提供高性能的 AI 模型和服务,最近还获得了3.05亿美元的融资,显示出其在行业中的强劲势头。


免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com