第一,类似Sohu这只能够竞争者会越来越多
第二,新的技术出现,训练大模型根本不需要GPU了,可以利用便宜的,FOGA,NPU…,能耗也大大降低。也不依赖于NVDA的生态系统了,无异于釜底抽薪。
长期不看好NVDA,估计也是昙花一现。
类似于这篇文章的模型和训练方法会雨后春生的出来。
NVDA风险主要来自它难以维持目前的垄断地位
所有跟帖:
•
好分析,AI会继续红火但不一定是NVDA,哈哈
-BrightLine-
♂
(0 bytes)
()
06/30/2024 postreply
08:01:24
•
是这个意思
-青裁-
♂
(0 bytes)
()
06/30/2024 postreply
08:03:03
•
我依旧看好NVDA,长持
-加州阳光123-
♀
(0 bytes)
()
06/30/2024 postreply
08:14:36
•
苹果的生态链,和产品真还是无人能替代的。处于垄断地位。
-tw1234-
♀
(0 bytes)
()
06/30/2024 postreply
17:44:55
•
有人说SOHu这个样子的芯片早出现过,但是只能体现在某一个方面。所以无法取代。我也不懂这些专业,就是一听
-jessielxh-
♂
(0 bytes)
()
06/30/2024 postreply
08:16:41
•
SOHU其实就是个ASIC,在算法进化阶段没法按需求设计;一旦算法成熟,需求大,ASIC
-study169-
♂
(24 bytes)
()
06/30/2024 postreply
08:20:12
•
喔,明白了。目前应该无法取代,以后不用进化完就有优势。什么时候会进化完呢?
-jessielxh-
♂
(0 bytes)
()
06/30/2024 postreply
08:46:22
•
这文章的方法是对大模型不需要强解超级规模的矩阵,记住每个细节,用-1,0,1三种状态就好,因此不需要GPU了
-青裁-
♂
(0 bytes)
()
06/30/2024 postreply
08:25:15
•
算法基本结构,对openAI没有影响,但会大幅度降低算力需求。一片GPU可以顶以前10片,20片,100片?
-study169-
♂
(27 bytes)
()
06/30/2024 postreply
08:25:40
•
NVDA 最主要的问题是:它几乎不可能长期维持现有80%比上的gross margin
-三心三意-
♂
(0 bytes)
()
06/30/2024 postreply
09:28:00
•
这篇文章最大的问题是没有日期,鬼知道是10年前还是 100年前的文章?
-verilog-
♂
(0 bytes)
()
06/30/2024 postreply
10:13:57
•
06/18/2024在论文共享网站上的论文,有源代码。这类方法近几年比较活跃
-study169-
♂
(0 bytes)
()
06/30/2024 postreply
10:22:47
•
https://arxiv.org/pdf/2406.02528
-study169-
♂
(105 bytes)
()
06/30/2024 postreply
10:23:44
•
谢谢,这就明白了
-verilog-
♂
(0 bytes)
()
06/30/2024 postreply
10:29:53
•
在十年前这些分析的点同样适用
-ProgrammerA-
♂
(909 bytes)
()
06/30/2024 postreply
11:29:30
•
这个分析比较局限,看见是树叶,没有看见大树
-未知-
♂
(903 bytes)
()
06/30/2024 postreply
12:11:56