闽公网安备 35020302035485号
堆代码讯 在周三举行的 Google Cloud Next 2026 大会上,谷歌云正式推出了第八代定制 AI 芯片 —— 张量处理单元(TPU),这是谷歌 AI 硬件路线的一次重大转向:首次将 AI 模型的训练与推理任务,拆分到了两款独立的定制芯片当中,分别是面向模型训练的 TPU 8t,以及面向推理任务的 TPU 8i,针对 AI 全生命周期的不同需求,做了针对性的深度优化。
随着 AI 大模型时代的到来,模型训练和推理的算力需求差异正在越来越大,谷歌也因此选择了拆分芯片的路线。其中,TPU 8t 专门针对大规模的模型训练任务做了优化,能够将前沿大模型的训练时间,从数月缩短到数周;而 TPU 8i 则是为推理任务量身打造,推理正是用户提交提示词之后,模型运行给出结果的过程,这款芯片针对延迟敏感的推理负载做了专项优化,能够更好地支撑 AI 智能体的运行。
谷歌对这两款新芯片的性能给出了亮眼的指标:相比上一代产品,AI 模型的训练速度最高提升了 3 倍,每美元的性能提升了 80%,更重要的是,谷歌能够打造出支持超过 100 万颗 TPU 协同工作的超大规模集群,实现前所未有的算力规模。这意味着,用户可以用更低的成本、更少的能耗,获得更强的计算能力。而谷歌之所以将这款芯片命名为 TPU 而非 GPU,正是因为其定制的低功耗芯片,最初就是以 Tensor(张量)为核心设计的,这也是 TPU 这个名字的由来。
不过,这次谷歌发布自研的新 TPU,并不意味着要对英伟达发起全面冲击,至少目前还不是。和微软、亚马逊这些大型云厂商一样,谷歌并没有打算用自研芯片完全取代英伟达的 GPU,而是用自研芯片来补充自己的基础设施,给用户提供更多的选择。事实上,谷歌还承诺,今年晚些时候,会在自己的云平台上,提供英伟达最新的 Vera Rubin 芯片,继续为用户提供英伟达的顶级硬件。
更有意思的是,谷歌还在和英伟达展开深度合作,双方正在共同优化名为 Falcon 的软件定义网络技术,让基于英伟达的系统,能够在谷歌云里跑得更快、更高效。Falcon 是谷歌在 2023 年创建的网络技术,并且已经通过开放计算项目开源,现在两家巨头联手优化这项技术,就是为了让英伟达的硬件,能够更好地适配谷歌云的基础设施,发挥出全部的性能。
长期来看,随着企业把 AI 需求迁移到云端,并且把应用移植到这些自研芯片上,谷歌、亚马逊、微软这些超大规模云厂商,未来确实有可能减少对英伟达的依赖。但就目前而言,押注英伟达会失败,显然还为时过早。知名芯片市场分析师帕特里克・穆尔黑德,就曾在 X 上开过一个玩笑:早在 2016 年,谷歌推出首款 TPU 的时候,他就预测这会对英伟达和英特尔构成坏消息。但这么多年过去,英伟达的市值已经涨到了接近 5 万亿美元,那个当年的预测,显然并没有经受住时间的考验。