一、技术规格:全球首创的102.4 Tbps单芯片交换容量
Tomahawk 6以单芯片102.4 Tbps的交换容量刷新行业纪录,是前代Tomahawk 5(51.2 Tbps)的两倍,相当于每秒处理2.5万部4K电影的数据量。其核心参数包括:
- 端口配置 :支持64个1.6T、128个800G或256个400G端口,兼容100G/200G SerDes及共封装光学(CPO)。
- SerDes创新 :
- 1,024个100G SerDes通道 :首次实现单芯片千条链路,铜缆传输距离提升30%,降低多芯片互联复杂度。
- 200G PAM4技术 :行业领先,支持无源铜缆长距离传输,能效比达5.5pJ/bit(较传统光模块降低50%)。
- CPO集成 :将光学模块与芯片共封装,功耗降低30%,延迟减少约100ns,链路抖动降低40%,适用于高密度数据中心。
二、性能优势:专为万亿参数AI模型设计
- AI算力瓶颈突破 :
- 当前GPU集群因网络延迟导致60%-70%算力闲置,Tomahawk 6通过微秒级低延迟和 动态路由 ,将GPU利用率提升至90%以上。
- 支持单集群扩展至 10万 XPU (如GPU),解决传统网络在千卡规模后的性能衰减问题。
- 能效与成本优化 :
- 单颗芯片替代6颗前代产品,功耗降低50%的同时吞吐量翻倍,系统密度提升40%。
- 批量采购价格低于2万美元,分析机构预测可使AI训练成本降低30%-40%。
- 拓扑与协议兼容性 :
- 支持 任意网络拓扑 (Clos、环形、轨道优化等),兼容超以太网联盟(UEC)标准。
- 认知路由2.0(Cognitive Routing 2.0)实现亚500纳秒级故障切换,优化混合专家模型(MoE)等复杂AI工作流。
三、应用场景:驱动超大规模AI集群与数据中心升级
- 超大规模AI训练 :
- 为万亿参数大模型训练提供底层支撑,例如Meta的AI广告系统全自动化训练、xAI的10万卡集群。
- 配合博通端到端以太网平台(含Thor NIC、Sian光学DSP等),构建完整AI基础设施解决方案。
- 高性能计算(HPC)与数据中心互联(DCI) :
- 推动1.6T光模块需求增长,支持200G×512通道数据交换。
- 符合中国《算力互联互通行动计划》,加速国内DCI网络建设。
- 开放生态与标准推动 :
- 兼容超以太网联盟标准,避免厂商锁定,提供基于以太网的开放解决方案。
- 发布SUE框架(Scale-Up Ethernet),共享至OCP等开放标准组织。
四、市场定位:AI网络基础设施的核心枢纽
- 目标客户 :
- 全球云服务商(AWS、Azure)、网络设备商(Arista、Juniper)及超大规模AI运营商。
- 头部客户已部署Tomahawk 6构建10万 GPU集群,单集群需约1万台交换机。
- 竞争优势 :
- 带宽碾压 :直接竞品Marvell Teralynx 10仅51.2 Tbps,Tomahawk 6带宽为其两倍。
- 技术垄断 :博通在高端交换芯片市场市占率达60%-70%,Tomahawk 6进一步巩固其地位。
- 行业影响 :
- 推动“光进铜退”趋势,CPO方案因Tomahawk 6加速落地。
- 迫使国内厂商(如盛科通信)加速高端芯片研发,国产替代需求迫切。
五、行业评价与未来展望
- 技术革命 :彭博半导体分析师Kunjan Sobhani称其“打破100Tbps障碍,为AI基础设施提供开放标准路径”。
- 生态赋能 :博通通过开放SUE框架和CPO技术,构建活跃的扩展型以太网生态。
- 技术迭代 :计划2025年下半年推出3nm升级版,进一步优化能效比,应对万亿级参数模型需求。
总结 :Tomahawk 6不仅是博通的技术巅峰,更是AI网络基础设施的范式革新。它以单芯片102.4 Tbps的带宽、CPO集成和认知路由2.0为核心,解决了超大规模AI集群的网络瓶颈,为万亿参数模型训练提供底层支撑,同时推动数据中心向开放、高效、低成本方向演进。
- 芯片 芯片 关注
关注
459 文章
52192 浏览量
436232
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com