长期 GOOG+ AVGO , NVDA ,AMD AI 算力的战国时代的开启 FA

上次GOOG ER 有一条重要的消息漏掉了。  先说结论, 这肯定了AI算力从一家独大到三分天下的猜测。 加剧了竞争。 MSFT , AMZN因为和GOOG的直接竞争关系因该不会直接上TPU。 但其他家会。 

2026年4月29日,Alphabet CEO Sundar Pichai 在 Q1财报电话会议上正式宣布,Google 计划将 TPU 芯片直接出售给部分精选客户,供其安装在自己的数据中心中。

这是一个重大战略转变。此前 Google 的模式是通过 Google Cloud 平台向客户出租 TPU 算力,而非出售硬件本身。 

 

  • Anthropic(Claude 的开发商)与 Google 签署了多 GW 规模的下一代 TPU 协议,芯片预计从 2027 年开始交付。同时,据 The Information 报道,Google 也与 Meta 签署了数十亿美元的芯片协议。 
  • Meta 在 2026 年 2 月与 Google Cloud 签署了多年期、数十亿美元合同,用于 Llama 4 训练以及内部推荐和排序应用。 
  • CFO Anat Ashkenazi 表示,Google 今年将有部分 TPU 销售收入入账,但更大的资产负债表影响将在 2027 年显现,且收入会因芯片交付时间不同而逐季波动。 

    目前 Google Cloud 的合同积压已达 4620 亿美元,TPU 硬件协议也已纳入其中。

目前英伟达占据 AI 加速芯片市场 80%~90% 的份额,而 Meta 原本是英伟达最大客户之一。从90%的市场占有率来说,英伟达的营收利润会增长但 市场占有率在激烈的竞争中只会走下坡路了, 符合逻辑的是90% -> 99% = 不可完成的任务 , 更自然的结果 90%->  80%-> 70%-> 60% ...。 

但从长期来看,威胁是结构性的,而非立竿见影的

  • TPU 在推理和张量密集型任务上性价比比 GPU 高约 4 倍,但英伟达 GPU 在训练多样化模型、研究灵活性以及游戏/图形/通用计算等非张量工作负载上仍然更有优势。 
  • Meta 采取的是"混合策略"——英伟达负责灵活性,TPU 负责效率,并非完全替代。
  • 分析师 估计,若 Google TPU 大规模对外销售,Alphabet 中期有望拿下全球 AI 芯片市场最多 20+% 的份额。 

AMD 在这场博弈中竞争更为激烈——它本来就在争夺英伟达的替代品地位,而 Google TPU 的入局,让 AMD 的 MI 系列 GPU 面临双重竞争:既有 NVDA 从上方压制,又有 Google/Broadcom ASIC 从专用场景切入。

 

 

最新进展:  

据 The Information 报道,OpenAI 已开始使用 Google TPU 为 ChatGPT 等产品提供算力支持,这是 OpenAI 首次有实质性地使用非英伟达芯片。 

这份与 Google 的合同,是 OpenAI 从"微软独家云"转向多元化算力供应的一部分。目前 OpenAI 的算力供应商还包括微软、Oracle 和 CoreWeave。


 

 OpenAI 要用 TPU核心动机是NVDA GPU的推理成本太高

推理消耗了 OpenAI 超过 50% 的计算预算。分析师指出,TPU 尤其是老一代 TPU,在推理任务上的单次成本显著低于英伟达 GPU——因为 TPU 的专用架构减少了能量浪费和空闲资源,在大规模运行时更具成本效益。 

Barclays 预测,仅消费端 AI 推理的芯片资本支出在 2026 年就将接近 1200 亿美元,到 2028 年超过 1.1 万亿美元,这迫使 OpenAI 等 LLM 服务商不得不考虑 ASIC 替代方案。


 

Google 并未向 OpenAI 出租其最强大的 TPU,这一点据 Google Cloud 内部员工透露。也就是说,竞争对手能用,但用的是"降配版",Google 不会把最强算力拱手相让。


 

TPU 客户版图(截至2026年),目前已知的 Google TPU 主要客户包括:Anthropic、OpenAI、Apple、Meta 以及 Safe Superintelligence(SSI)。


 

OpenAI 虽然是 Google 在 AI 领域最直接的竞争对手,但在算力上已经成了 Google 的客户——这正是 AI 行业最吊诡的现实:竞争与合作并存,成本压力让意识形态让步于经济逻辑。对 NVDA 而言,连 OpenAI 这个最核心的大客户都在分散筹码,长期压力不可忽视。

 

 

 

请您先登陆,再发跟帖!