AI 1.0
过去就是几家大公司,用海量gpu,训练基础model,读个本科。
然后大家微调,或者说再训练,读个研究生。效果不是太好。
过去5家,每家用20万nvda大卡,共计100万大卡
AI 2.0
现在ds把算法,程序公开了,很多公司可以可以用大量gpu,直接训练专业应用,效果更好。相当于本科、研究生连读。
gpu总需求上升了。
因为专业直接训练效果更好,应用面更广,inference本身需要的gpu上升更快。
现在有100万专业应用训练,各需要2万nvda大卡,需要2 billion大卡
说说ds会推高nvda,今年上400
所有跟帖:
•
对,不一定是利空,可能造成更多需求,就像汽车
-灵山问禅-
♂
(0 bytes)
()
01/27/2025 postreply
18:46:25
•
但是,openai这些公司有麻烦
-wass-
♂
(0 bytes)
()
01/27/2025 postreply
18:48:00
•
同意这个说法不过今年能上200就很厉害了毕竟很多预期已经priced in
-CatcherInTheRye-
♂
(184 bytes)
()
01/27/2025 postreply
18:51:35
•
赞同!如今哪家公司要是不整一批GPU,建一个自己的大模型,都不好意思融资招人
-蓬莱阁21-
♂
(0 bytes)
()
01/27/2025 postreply
19:01:46