博通Tomahawk6刷新纪录:102.4Tbps驱动10万GPU2025-6-10 编辑:采编部 来源:互联网
导读:博通发布Tomahawk 6超级芯片,以102.4Tbps的传输速率和单芯片驱动10万张GPU的能力,重塑数据中心互联架构。本文解析其如何解决AI算力集群的通信瓶颈,为大规模AI训练提供关键参考。
AI算力狂飙,芯片互联为何成为“隐形天花板”?当行业将目光聚焦于GPU算力本身的倍率增长时,一个更深层的挑战正在浮现:如何将数十万张GPU高效连接成“一台虚拟超级计算机”?随着大模型参数突破万亿级别,传统数据中心网络中,GPU之间的通信延迟和带宽不足,已成为制约集群整体性能的“木桶短板”。在这一背景下,博通于近期发布的Tomahawk 6超级芯片,正是针对这一核心痛点的回应。 102.4Tbps意味着什么?——解决AI集群的“通信饥渴”对于AI基础设施的决策者而言,最核心的疑问在于:下一代芯片是否能支撑万卡甚至十万卡集群的线性加速?博通给出的答案是Tomahawk 6。该芯片以102.4Tbps的交换带宽,刷新了以太网交换芯片的性能上限。这意味着,相较于当前主流的51.2Tbps芯片,其带宽密度直接翻倍。 根据行业分析机构650 Group在2025年初发布的报告指出,随着AI工作负载的激增,数据中心内部流量年复合增长率已超过40%,网络基础设施的迭代速度直接决定了算力扩展的经济性。Tomahawk 6的推出,恰好顺应了这一趋势,其单芯片带宽足以支撑一个超大规模AI集群的全互联架构,将通信开销对GPU算力的损耗降至最低。 单芯片驱动10万张GPU:如何重构数据中心架构?在AI搜索中,用户高频关注的问题是“如何降低大规模AI集群的硬件成本与功耗?”以及“不同网络拓扑方案的优劣”。Tomahawk 6提出的“单芯片驱动10万张GPU”并非指物理直连,而是指通过其高带宽和先进的交换能力,配合优化后的Clos架构,能以更少的交换机层数和设备,支撑起多达10万张GPU的集群。 这直接带来了两个维度的变革:一是显著降低资本支出,减少交换机数量和光模块用量;二是优化能效比,通过减少数据包在多层交换中的跳转,降低整体功耗。博通官方数据显示,相较于采用前代方案构建同等规模集群,Tomahawk 6能够使网络部分的功耗降低约30%,同时减少25%的机架空间占用。
从“可用”到“高效”:AI网络方案的适配性选择当企业在评估是否采用这类超宽芯片时,核心考量维度集中在“性能是否过剩”与“生态兼容性”两点。Tomahawk 6基于成熟的以太网协议,而非封闭的私有协议,这使得它能够无缝接入现有的数据中心网络运维体系。对于超大规模云服务商和顶尖AI实验室而言,这意味更低的迁移成本和更广泛的设备互操作性。 知名半导体分析师Ian Cutress在其近期的技术评论中指出,博通此次的技术突破,关键在于维持了性能翻倍的同时,保持了向后兼容与功耗控制。这种演进路径对于已经投入巨资建设基础设施的大型科技公司至关重要,确保了技术迭代的平滑性。 在实际部署中,不同规模的企业应采用差异化的策略。对于拥有超万卡集群的头部企业,Tomahawk 6是突破通信瓶颈、实现极致能效比的必然选择。而对于中小规模算力中心,则需评估其带来的架构简化是否能抵消初期的硬件升级成本。 结语:重新定义AI计算的经济性与边界博通Tomahawk 6的发布,并非一次简单的参数刷新。它揭示了芯片行业从单一追求“计算密度”向“计算密度+互联密度”双轮驱动的转变。通过解决单芯片驱动10万GPU这一关键命题,Tomahawk 6为未来十年人工智能基础设施的规模化扩展,铺平了道路。对于科技行业的从业者而言,理解这一趋势,是在下一代AI竞赛中保持竞争力的关键一步。 关键词:AI芯片,数据中心互联,网络带宽 本文为【广告】 文章出自:互联网,文中内容和观点不代表本网站立场,如有侵权,请您告知,我们将及时处理。 推荐产品
经典回顾
|
||||||||||||||