Groq的LPU不依赖HBM而使用SRAM,实质上是用极高的硬件成本,换取极致的带宽和延迟性能,

来源: 2025-12-26 20:59:56 [博客] [旧帖] [给我悄悄话] 本文已被阅读:

以针对大语言模型(LLM)的推理场景进行优化。但其片上SRAM容量(目前百MB级别)与HBM(目前数十GB级别)的差距,也决定了其适用场景:极其擅长高并发、低延迟的Token生成,但难以独立完成千亿参数以上大模型的训练

简单来说,你可以这样理解这个技术选择:Groq为了在AI推理的“短跑比赛”中拿到绝对速度金牌,不惜使用“黄金”(SRAM)来打造跑道;而英伟达等使用HBM的厂商,则是用“钢铁”(DRAM)建造了一条容量巨大、能同时让更多人奔跑(训练大模型)的公路。

在英伟达"收购"Groq之后,一家专注于SRAM和存内计算技术的半导体公司,是美股中少有的“SRAM概念股”的GSI Technology (GSIT)暴涨26%. 目前该股价格仅为7.65, 值得关注