Google的全栈AI逻辑已经演绎了一个多月,看上去围绕OpenAI的循环借贷故事出现破绽,从而导致“突然”的AI叙事转变。但Google链属于厚积薄发,技术更迭是量变引起质变,而最关键的是业务定位发生了根本性的变化。
借着Anthropic又下110亿TPU订单,Meta推进与Google底层语言开发合作之际,海豚君来梳理一下:
1)TPU生态到底发生了什么关键变化?
2)如何厘清Google与Anthropic、Broadcom之间的订单关系?
3)当下估值打入了多少TPU预期?

一、直击核心问题:TPU的积存订单与增量收入确认
1、TPU的技术替代“突然”爆发?
如果不是在行业内,这可能是大家的第一个疑问。在市场大多数记忆还停留在TPU通用性不够,Google主要用来内用而非对外商用时,会非常讶异为何到了TPU v7这一版本,突然开讲TPU对的GPU替代逻辑。
这并非市场的重大忽视,奇点形成的关键是 TPU在集团内部的战略定位转变——从“对内为主”转为“对外直接商用”,促使在芯片设计理念上发生了根本性的变化。
在这一轮AI LLM时代之前,TPU的设计理念都偏保守。与英伟达idia在设计上更偏重单片核心算力的持续升级,TPU在设计上更聚焦性价比,即以牺牲极致单片性能,而避免故障率走高导致的物理磨损加速、元件老化、散热压力等问题的出现,从而拉高了整体成本。
当然这么设计的原因还在于,在TPU对内使用下对性能追求点与LLM也存在差异,尤其是在算力指标上。一方面内部的广告推荐模型不需要这么高的算力吞吐,另一方面没有商用压力,自然也就没有“炫技”的必要性。
比如下图比较了广告推荐模型(Reco)和LLM大模型对硬件的性能不同需求,在Reco模型下,对算力吞吐、网络延迟上的要求没LLM那么高。

但随着LLM时代到来,算力要求大幅提高,集团对TPU的设计思路本身需要升级改变。这个时候顺便对TPU开启直接商用,还能在当下的千亿算力市场分一杯羹,何乐而不为?于是我们看到,2024年中推出的TPU v5版本在单片算力上出现了显著提升,并在随后的v6、v7版本继续大幅拉高。
而在LLM另外需要的存储性能——内存带宽、内存容量上,TPU v7版本直接拉齐到了GB200的水平,但单卡性能与GB300以及英伟达的Rubin系列还有明显差距。


2、大厂客户“突然”密集下订单?
9月被爆、10月正式官方披露的Anthropic百万颗TPU订单可以说是一石激起千层浪,TPU真正走到舞台中央。依据专家调研信息,预计2026年TPU出货量将达到300万颗,在2025年的低基数上增幅达到66%。

但前几天博通的Q4业绩发布,提到了Anthropic新下的一份110亿TPU v7订单,预计2026年底交付,按单价来算,那么也是对应40-50万颗的TPU v7。因此如果能够按计划实现交付,那么2026年TPU出货量将至少达到350万颗数量级。
下图为Anthropic的两次订单情况,爆出在接触合作的Meta、OpenAI等具体细节还未确认:

不过,虽然纸面上的技术替代性实现了,但要真正获得头部大客户的青睐还需要依赖三个关键因素,1)性价比;2)芯片封装产能配给;3)开发生态,实际对应1)有效算力成本;2)台积电的CoWoS产能;3)开发者生态,一如英伟达idia核心壁垒——CUDA生态。
(1)以量取胜,不做铲子商
虽然TPU v7在单卡Raw Power(原始算力)上可能略逊于英伟达idia B200,显著逊于B300、R100。但在万卡集群的有效算力(MFU)上,Google凭借独家的OCS(光路交换)互联技术,能大幅缓解传统GPU集群随着规模扩大而损耗指数级上升的BUG。
正如前文所说,单卡极致性能会导致整体硬件的故障率走高,产生磨损、老化、散热等问题,算力使用效率反而一般,后续的维护会带来更高的成本压力。
简单而言,Anthropic看中的是性价比,即“1美元部署对应的算力”。如下图所示,TPU v7单位算力价格(运行一颗芯片1小时,所需要的综合成本,包含芯片和数据中心基建成本、电力成本、维护人力成本等)便宜了近44%,且其中一次性投入的硬件和基建成本(对应客户的Capex,需要前置投入)占比在72.7%,也比GB系列的77%~79%略低时,TPU无疑会进入下游客户算力方案选择的最终“决赛圈”。


(2)改变信披战术,锁订单抢产能
尽管台积电和英伟达多年深度合作,且在过去一年多的算力军备竞赛上,双方携手获得了产业链中绝大部分的利益,但这层关系并非绝对捆绑到无懈可击,尤其是当市场开始质疑OpenAI的变现力,以及与英伟达之间循环贷款对订单的增长持续性。
从风险规避的角度,台积电会更加注重客户是否存在“有交付能力的在手订单”,从而决定产能配给。
因此Google对TPU的信息披露也对应着发生了变化。既然要与英伟达idia竞争,那么也就是需要和英伟达一样,尽早公布新产品路线,以便成为客户做未来算力规划时的待选方案之一。通过提前锁定订单,从而能从台积电处拿到产能。
TPU v7之前,Google对TPU的信息披露会更加谨慎,毕竟被认定为只对内的“秘密武器”。比如,2015年TPU一代就已经落地并且被Google进行大规模的部署和使用,但直到2016年Google I/O大会才对外公布它的存在。
随后的2-6代,虽然披露略有放宽,一般是I/O大会发布PPT后一年内就实现了Cloud上线使用,也就是说在发布时就已经谈好了产能规划。
但这次v7,为了抢到订单,Google早早发布TPU v7产品细节(2025年4月发布),但彼时产能还未锁定,直到8月盛传Broadcom追加对CoWoS的产能(大概率是因为为TPU v7提前准备),随后9月Anthropic才敲定与Google TPU的合作,涉及到TPU机架的直接销售(10月底公开披露),而最近当Anthropic追加了110亿订单,Broadcom则再次与TSMC锁定明年的产能。
因此,从Broadcom向Anthropic(最早下订单的头部客户)允诺的交付时点来看(2026年中和2026年底),Google对TPU v7的信息披露要相当于早于实际部署的1—2年的时间,明显早于前几代。
(3)为何说英伟达的软件生态优势出现裂缝?
但能让动不动砸上百亿支出的大厂们,敢于下TPU的订单,光靠便宜肯定不够,关键在于软件生态的有效完善,这也是TPU走向大规模商用需要解决的关键问题。
英伟达之所以壁垒深厚,硬件单卡性能只是表面,CUDA才是里子。CUDA是英伟达idia推出用来让GPU理解C+、Python的底层算子库,近20年行业的开发经验积累,使得CUDA在AI开发领域几乎不可跨越:前一代的工程师们基于CUDA写好了工具模块PyTorch,后一代的工程师们无需从0-1写代码,而是直接套用PyTorch工具来做进一步的开发。
由此看来,要颠覆CUDA,最重要的是“工具库”和“人才”。那么TPU是怎么解决的呢?
a. 主动的定点优化:编译器2.0+vLLM直接支持TPU
对应CUDA,TPU的底层算子库是Pallas。由于TPU发展晚一些,且之前一直对内,未对外商用,因此Pallas生态里面几乎只有Google自己的工程师在补充算子。而TPU生态中与PyTorch工具库对应的,则是JAX。由于手写Pallas算子的过程太复杂,Google另外推出了XLA编译器,来实现从JAX到底层指令集(TPU Runtime)的调用。

但一己之力vs多人合力的天然弱势,要让Pallas/JAX去追赶CUDA/PyTorch的难度太大。软件生态的缺陷成为TPU商业化的核心阻力之一,除非客户本身具备JAX人才(这几乎只有Google内部的人跳到甲方关键岗位,再身体力行的推行JAX才行)。
因此Google推出了PyTorch/XLA编译器,它能让原本为GPU设计的PyTorch代码,编译并运行在TPU上。1.0版本还不太丝滑,但23年推出的2.0版本,优化了1.0版本的TPU启动速度慢问题,不过还是会出现首次编译时间长等问题。
又一个转折点在2024年下半年,Google 实现了vLLM对TPU的原生支持——2024年7月底披露,vLLM可以实现在TPU v5e和v6e上运行,随后不断完善。
vLLM 是目前 AI 推理(让模型回答问题)领域渗透率最高的开源软件库,最早是为了解决英伟达idia显卡碎片化问题而诞生,因此天然适配GPU。
Google 为了让vLLM实现对TPU的原生运行,与vLLM团队深入合作,使用Pallas重写了基于vLLM的核心算子,通过使用 JAX + Pallas,vLLM可以直接调用TPU的底层内存管理能力,避开了PyTorch/XLA 编译器带来的延迟和额外开销。
c. 被动的开发者渗透:“AI黄埔军校”的人才战术
这一轮AI基建,上游厂商吃了产业链绝大多数利润,但行业的繁荣最终来自下游的百花齐放。对于上游而言,捆绑客户以获得持续的需求是关键。英伟达idia采取的方式是股权投资,相当于“芯片折扣+风险投资收益”。
做股权捆绑并没有壁垒,都是送钱,Google完全可以复制操作。实际上,Google很早就对Anthropic进行了积极投资,投入30亿持股比例达到14%(不含投票权)。目前Anthropic估值达到近2000亿美元,且不论是否捆绑芯片合同,Google已经从这笔风投中获得了不错的收益。
但还是那句话,单纯股权捆绑(“送钱”)并不是独家方案。CUDA的繁荣也在于生态强大,也就是开发者众多。因此,这里面的关键因素还是“人才”。
上文提到vLLM直接支持TPU,这对头部客户来说是明显利好。毕竟这个路线绕开了编译器,如果要实现丝滑运用,那么还要配备足够懂JAX/XLA的TPU人才,对于头部用户,Google应该会专门配备技术支持团队。
但实际上还有“意外之喜”,作为AI老牌大厂的Google,这么多年同时也在对外“输送”人才。因此,Anthropic的100万TPU大单能够促成,少不了“人”的推动——Anthropic内部有不少前DeepMind的TPU人才,因此在这次合作之前,内部就已经在TPU上训练了Sonnet和Opus 4.5。
因此从上述的“技术迭代+人才推动”两个角度而言,TPU的软件生态问题可以比预想的速度更快实现补漏。
二、新一轮AI叙事下Google的价值
全栈AI的叙事逻辑在资本已经演绎了两个月,Google在此期间也上涨了近30%,成为2025年初绝对想不到的Mag 7明星。虽然近期Google也跟随AI情绪转冷而暂停了上涨趋势,但不可否认,在当下Google的AI逻辑仍然是相对较顺的。
因此在这个“中场休息”时段,海豚君来扒扒账:若2026年TPU也走到AI算力的聚光灯下,那么对Google的价值会有多少增量?近4万亿美金市值的Google,打入了多少TPU预期?
1. Google版的算力是如何赚钱的?
在今年Q2之前,Google主要通过GCP做算力租赁的服务,出租的算力有英伟达idia的GPU也有自己的TPU。但从Q2推出TPU v7开始,正式开启TPU芯片直销的大规模商用。
不同服务的提供,对应不同的利润率,同时也代表Google背后的战略意图:

(1)GPU算力租赁:属于GCP云业务;本质上是英伟达idia的二道贩子,自然毛利率最低只有50%左右,主要给那些技术能力较弱的中小厂商准备(不愿意用TPU编译器把基于CUDA写的底层代码重写一遍),承接一些外溢的算力需求。
(2)TPU算力租赁:属于GCP云业务;因为TPU自研,因此少了中间商赚差价,再加上本身技术路线的差异,尽管TPU算力租赁价格是GPU的60%-70%,但对于Google来说,仍然可以赚70-80%的毛利率。
(3)TPU机架销售:属于第三方的算力售卖服务,等于是和英伟达等同台竞争。TPU并非像GPU那样“即插即用”,TPU的优势是ICI(芯片间互连)和OCS(光交换),单台服务器无法连入超高速的光网络,因此最小销售单位是一个服务器机架,每个机架包含64颗TPU芯片。
具体销售时分成两种情况:
一种是Broadcom直销客户,Google收取GDC软件栈的技术支持费;
另一种是Google直销客户,那么Google确认硬件收入,Google付给Broadcom、SK等的硬件采购、代工费用为成本。
由于TPU需要客户具备一定的技术适配能力,因此客户目前都是行业头部。Anthropic是由Broadcom直接发给Anthropic,但Meta、xAI等目前正在排队与Google商量TPU合作事宜等,也不排除是上述后者情况。
在Anthropic的合作案例里面,由于是Broadcom直销+托管Anthropic自己找的第三方数据中心,因此这里面Google并不确认硬件销售收入,只是对Anthropic使用TPU软件栈(系统软件、编译器XLA和框架JAX)收取一定的技术支持、安全更新的服务费。
这部分主要是研发前置投入、人员团队的支持,所以边际成本较低,对Google来说,毛利率可以做到很高。
这里面的特殊之处在于,在Anthropic预定的近100万块TPU上(第一笔40万块+第二笔40-50万块),Google并未染指TPU硬件收入部分。海豚君认为,至少在与英伟达idia合作密切的头部厂商上,Google还是更倾向于不赚所谓的“铲子钱”。
这是因为,英伟达idia及其生态伙伴对Anthropic等头部客户都用股权投资来给了个内部折扣价:
a. 英伟达投资OpenAI 1000亿,以换取10GW算力合同的绑定,暂时不看股权增值收益,相当于给OpenAI打了个七折(1-100/350);
b. 微软、英伟达分别向Anthropic投资50、100亿,换取300亿的Azure合同,相当于打了个对折。
因此这种情况下,如果单颗系统级TPU v7价格再算上Google的溢价,那么就相对H200、B200没有明显的性价比优势了。
可以合理推测,Google并未参与到TPU硬件销售收入的分成上,而目的是做大TPU生态(尤其是开发者生态),后续通过按年付费的软件栈服务,以及云租赁算力来获得更多具备一定溢价的变现。
当然,这也不排除如果TPU生态完善度提升,Google也可以做起芯片直销的模式。但短中期而言,我们认为还是做大生态、让更多的开发者参与进来是主要目标,卖铲子(实际也卖不出太多溢价)只占少数。

2. 当下估值隐含了TPU多少预期?
从积压合同额(Revenue Backlog)来看,Google Cloud最早在2024年二季度就已经受益AI(收入反映在3Q25)。不过彼时Google Cloud的客户大多还是以中小企业、传统企业的需求为主,除了Workspace的惯性增长趋势,在AI方面贡献增量(数十亿量级)的产品形式还主要是Gemini大模型的API。
而在芯片算力上,Google还在遵循市场主要方案,按部就班的采购英伟达芯片——2025年初采购Blackwell系列(GB200、300)。
2025年二季度,随着TPU v7的发布以及市场对AI的使用渗透升级,积压合同余额在高基数上重新加速增长,这里面应该就已经有了一些TPU v7带来的算力租赁增量。
而三季度净增的470亿中,应该就包含420亿的Anthropic算力租赁订单(前文Anthropic订单明细表格中60万颗TPU算力租赁,按照每颗TPU v7 1.6美元/小时单价计算,60万*1.6美元/h*24h*365天*5年=420亿美元)。

Anthropic并非刚开始租TPU算力,而是一直在用,只不过过去占比不高而已。这次420亿的算力租赁订单,5年周期下平均每年将带来84亿的Google Cloud收入,这相当于2025年预计615亿美元Google cloud收入的14%。

目前在TPU算力租赁这块,大厂里面还有Apple,中小厂比如Snap,传统SaaS的Salesforce以及AI新贵Midjourney。Meta在11月也已经宣布有意合作:
第一阶段(2026年)为算力云租赁,第二阶段(2027年)为TPU直采,然后部署在自己的数据中心。近日被爆料进展,双方就底层语言的畅通正在共同开发TorchTPU,一如其名,旨在将Meta基于Pytorch写的代码,能够更加丝滑的运行在TPU上。
根据机构原来预期,Meta 2026年Capex为1000-1200亿,近期Meta有意收缩元宇宙投入(约减少30%)。GPU原计划采购100万颗,大头为GB200,另外为V100。
但现在,考虑到Meta目前正在积极接触Google TPU,海豚君预计TPU合同为70亿,但2026年主要还是算力租赁,这部分支出计入Meta的Opex,芯片采购部分为20亿。剩下500亿美元为Blackwell系列采购额,在一定折扣下,有望获得对应2GW的算力,如下图预估:

如果20亿芯片采购合同,直接与Google交易,按照2.5万美元/颗,对应8万颗。2027年预计该芯片采购升至50万颗,那么直接带来50*2.5万/颗=125亿合同额(如果直接从Broadcom拿货,那Google不确认硬件收入),按照3~5年,平均5年的使用周期来算,每年确认收入25亿。
这部分TPU对应算力规模大约0.5GW,如果Meta目标算力需求不变,那么相当于175亿的GPU收入被影响了。
总而言之,无论采取什么样的TPU交付方式,或者对Google的收入有主要拉动,对利润是次要拉动,但对英伟达idia收入预期的影响会因为同等算力下英伟达idia溢价更高而同步放大。就如上文,TPU拿了125亿的合同,单英伟达产生了近175亿的收入缺口需要从别处找补。
回到Google身上,由于TorchTPU的开发进展并不确定,因此我们暂时将Meta的TPU订单视为乐观预期下的向上期权。即中性预期下,仅考虑Anthropic这一个头部客户:

更详细的价值分析部分我们已发布在长桥App「动态-深度(投研)」栏目同名文章同样位置。总结来说,每一次与Meta的合作进展披露,都有可能对短期Google股价带来提振。
若最终合同额不足我们预期的70亿,那么短中期的提振效果会相对有限。尤其是预期拉得过高的时候,还要考虑26年拥有接近10亿MAU的OpenAI如果加速变现可能给谷歌带来的向下风险。
但从另一个角度,若Google以牺牲短期业绩的代价,换来了更广的TPU渗透——比如继续压价,或者从Broadcom直销客户,虽然没有吃到太多硬件直销收入,但是让更多的客户开始适应TPU的底层框架,后续仍可通过软件栈、云租赁的形式收回来,这与GPU在硬件销售时表现出的高额英伟达税,本质是一样的,都是一种竞争垄断的溢价。
<此处结束>
- END -
// 转载开白
本文为海豚研究原创文章,如需转载请获得授权。
// 免责声明及一般披露提示
本報告僅作一般綜合數據之用,旨在海豚研究及其關聯機構之用戶作一般閱覽及數據參考,並未考慮接獲本報告之任何人士之特定投資目標、投資產品偏好、風險承受能力、財務狀況及特別需求投資者若基於此報告做出投資前,必須諮詢獨立專業顧問的意見。任何因使用或參考本報告提及內容或信息做出投資決策的人士,需自行承擔風險。海豚研究毋須承擔因使用本報告所載數據而可能直接或間接引致之任何責任或損失。本報告所載信息及數據基於已公開的資料,僅作參考用途,海豚研究力求但不保證相關信息及數據的可靠性、準確性和完整性。
本報告中所提及之信息或所表達之觀點,在任何司法管轄權下的地方均不可被作為或被視作證券出售邀約或證券買賣之邀請,也不構成對有關證券或相關金融工具的建議、詢價及推薦等。本報告所載資訊、工具及資料並非用作或擬作分派予在分派、刊發、提供或使用有關資訊、工具及資料抵觸適用法例或規例之司法權區或導致海豚研究及/或其附屬公司或聯屬公司須遵守該司法權區之任何註冊或申領牌照規定的有關司法權區的公民或居民。
本報告僅反映相關創作人員個人的觀點、見解及分析方法,並不代表海豚研究及/或其關聯機構的立場。
本報告由海豚研究製作,版權僅為海豚研究所有。任何機構或個人未經海豚研究事先書面同意的情況下,均不得(i)以任何方式製作、拷貝、複製、翻版、轉發等任何形式的複印件或複製品,及/或(ii)直接或間接再次分發或轉交予其他非授權人士,海豚研究將保留一切相關權利。
原文标题 : 谷歌:“手撕”英伟达,翻身仗叙事靠谱吗?
(来源:维科网)









