业内人都知道nvda泡沫大

来源: 咖喱披萨 2024-03-15 10:21:52 [] [旧帖] [给我悄悄话] 本文已被阅读: 次 (905 bytes)

它的business 单一,各种硬件公司都在推训练芯片,女大要保持自己的edge很难。

nvda的市值比goog还大, 谷歌的diversity不是nvda能比的,况且谷歌自己的tpu性能并不比gpu差,只是谷歌不卖而已,谷歌只通过cloud service卖算力,不卖鸡,只卖蛋。

你看看,连扫地大妈都说要买nvda的时候,就知道街上炒作到什么程度了。

所有跟帖: 

一时半会儿破不了 -越王剑- 给 越王剑 发送悄悄话 越王剑 的博客首页 (0 bytes) () 03/15/2024 postreply 10:26:39

为什么破不了?只要一个大基金开始做空,泡沫会破的很快 -咖喱披萨- 给 咖喱披萨 发送悄悄话 (0 bytes) () 03/15/2024 postreply 10:30:32

九叔在,就不会破!不想女大泡沫破的话,11月份选九叔!如果选了老川,这泡沫就会破! -hhtt- 给 hhtt 发送悄悄话 hhtt 的博客首页 (0 bytes) () 03/15/2024 postreply 10:39:50

选九叔, 得永生! -咖喱披萨- 给 咖喱披萨 发送悄悄话 (0 bytes) () 03/15/2024 postreply 10:41:51

I don't think valuation is that crazy -越王剑- 给 越王剑 发送悄悄话 越王剑 的博客首页 (232 bytes) () 03/15/2024 postreply 10:46:22

还没到最后疯狂时刻,等涨到一塌糊涂了来得及下车 till $1600 哈哈 -青裁- 给 青裁 发送悄悄话 (0 bytes) () 03/15/2024 postreply 10:27:00

刀口舔血,快意人生! -咖喱披萨- 给 咖喱披萨 发送悄悄话 (0 bytes) () 03/15/2024 postreply 10:41:06

作为一个GPU业内人士来说几句,GPU是集成上万(还在增加)计算单元的芯片,硬件的功耗,系统的效率优化难度很高。AI的算法不断演 -zanger- 给 zanger 发送悄悄话 (0 bytes) () 03/15/2024 postreply 11:02:00

AMD 和intel机会怎么样? -study169- 给 study169 发送悄悄话 (78 bytes) () 03/15/2024 postreply 11:43:57

CPU不适合做矩阵运算,AMD的GPU在AI推理有机会,NV在模型训练上占优。现在推理市场在扩大 -zanger- 给 zanger 发送悄悄话 (0 bytes) () 03/15/2024 postreply 11:51:00

演进,只要AI仍旧依赖大规模数据处理,GPU很难被取代 -zanger- 给 zanger 发送悄悄话 (0 bytes) () 03/15/2024 postreply 11:04:00

这么大的市场,行业龙头老大不可能让英伟达独家霸占的,但是,芯片设计不是一年二年这么容易搞出来的。 -parentb- 给 parentb 发送悄悄话 (0 bytes) () 03/15/2024 postreply 11:43:07

AMD和intel做了好几年了,软件支持上一直不给力 -study169- 给 study169 发送悄悄话 (0 bytes) () 03/15/2024 postreply 11:45:11

用户都在找second source -cisa- 给 cisa 发送悄悄话 cisa 的博客首页 (99 bytes) () 03/15/2024 postreply 11:54:54

主要是这些年深度学习框架几乎全部在用CUDA进行优化,别的厂商无法兼容 -丁丁在美洲- 给 丁丁在美洲 发送悄悄话 丁丁在美洲 的博客首页 (426 bytes) () 03/15/2024 postreply 12:06:13

CPU架构不适合矩阵运算。In-memory-computing合适。但是,离能够和GPU较量,5年不止。 -哪一枝杏花- 给 哪一枝杏花 发送悄悄话 (0 bytes) () 03/15/2024 postreply 17:18:50

我很多同事大模型训练都主要用谷歌的tpu了,训练性能不比nvda的gpu差 -咖喱披萨- 给 咖喱披萨 发送悄悄话 (190 bytes) () 03/15/2024 postreply 14:35:29

真的,英伟达遇到强大的对手了。呵呵。。 -parentb- 给 parentb 发送悄悄话 (0 bytes) () 03/15/2024 postreply 15:15:38

TPU不能和GPU比。现在的model,参数是1T级别的。只有GPU。Google听着好听,其实只有1.5%的算力可以 -哪一枝杏花- 给 哪一枝杏花 发送悄悄话 (157 bytes) () 03/15/2024 postreply 17:14:48

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭/移除任何Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock/Adblock plus

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”