/ ai资讯

谷歌推出TranslateGemma全新开放翻译模型系列

发布时间:2026-02-26 15:47:07

作者 / 资深研究科学家David Vilar,产品经理Kat Black

我们已正式推出 TranslateGemma,这一全新的开放翻译模型系列基于 Gemma 3 构建,并提供 4B、12B 和 27B 三种参数规模。TranslateGemma 的问世标志着开放翻译领域迈出了重要一步,它可帮助人们跨越 55 种语言进行交流,无论身在何处或使用何种设备均可轻松实现。

我们将最先进的大模型相关知识提炼到紧凑的高性能开放模型中,由此打造出了这套效率与质量兼备的模型。

性能表现胜于其规模两倍的模型

在我们的技术评估中,最引人注目的一项发现是这些模型的效率。得益于专项训练流程,TranslateGemma 12B 模型在 WMT24 基准测试中的表现远超 Gemma 3 27B 基准模型 (基于 MetricX 指标衡量)。

对于开发者而言,这是一项重大突破。仅需不到基准模型一半的参数量,即可实现高保真级的翻译质量。这项效率突破可在不影响准确率的前提下,显著提高吞吐量并降低延迟。同样地,4B 模型的性能可与规模较大的 12B 基准模型的性能相媲美,这也使其成为适合移动端推理的强大模型。

我们基于 WMT24 数据集对 TranslateGemma 进行了全面评估。该数据集包含 55 种语言,涵盖多种语系,高资源、中资源和低资源语言应有尽有。与 Gemma 基准模型相比,TranslateGemma 在所有语言中均可大幅降低错误率,并能以更高效率实现更高质量。

基于 Gemini 构建

这种智能密度究竟是如何实现的?这要归功于一套独特的两阶段微调过程,此过程将 Gemini 模型的 "直觉" 提炼到一个开放架构当中。

监督微调 (SFT): 我们在一个多样化的平行数据数据集上对 Gemma 3 基准模型进行了微调。此数据集包含大量人工翻译文本,并结合由最先进的 Gemini 模型生成的高质量合成翻译,即使在低资源语言中也能实现广泛的语言覆盖率和高保真度。

强化学习 (RL): 为了进一步优化翻译质量,我们引入了一个新颖的强化学习阶段。我们使用包含 MetricX-QE 和 AutoMQM 等高级指标在内的多种奖励模型,来引导模型产生更符合语境且听起来更自然的翻译。

前所未有的语言覆盖率

我们对 TranslateGemma 在 55 个语言对上进行了严格的训练和评估,以确保它能在主要语言 (如西班牙语、法语、中文和印地语) 以及多种低资源语言中均提供高质量的可靠性能。

除了这些核心语言外,我们还通过针对近 500 个其他语言对进行训练来突破极限。TranslateGemma 的设计定位是成为深度优化的坚实基础,使其成为研究人员针对特定语言对微调其前沿模型,或提升低资源语言翻译质量的理想起点。虽然我们尚未确认此扩展集合的评估指标,但我们已将完整列表纳入技术报告,以此鼓励社区进行探索和深度研究。

强大的多模态能力

TranslateGemma 模型延续了 Gemma 3 强大的多模态功能。我们根据 Vistra 图像翻译基准执行的测试表明,文本翻译能力的提升也会对图像内文本的翻译能力产生积极影响,即使在 TranslateGemma 训练过程中未进行特定的多模态微调亦是如此。

全场景灵活部署

TranslateGemma 为开放翻译模型树立了全新标准,并在最优性能与卓越效率之间取得平衡。这些模型专为多样化的部署环境而设计,还有三种规模任您选择:

4B 模型: 针对移动端和边缘部署进行了优化。

12B 模型: 设计为可在消费级笔记本电脑上流畅运行,为本地开发环境带来研究级的强大性能。

27B 模型: 旨在提供最大保真度,能够在云端的单个 H100 GPU 或 TPU 上运行。

即刻体验 TranslateGemma

TranslateGemma 版本的发布为研究人员和开发者提供了功能强大且适配灵活的工具,以满足各种翻译相关任务的需求。我们期待看到社区在这些模型的基础上进行构建并加以利用,共同打破语言障碍并促进跨文化深度理解。具体试用方式如下:

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com