高端芯片很难对中国有足够威胁,OpenAI的Scaling Law提出

论文Scaling Laws for Neural Language Models指出提升10倍的计算能力,模型效果提升只有10%

也就是说,10%的计算能力可以打到90%的性能,1%的计算能力就可以达到80%的性能了

如果DeepSeek目标是最牛的LLM那需要很多GPU,但是只要凑合能用的话1%的计算能力都够了。更何况H20和H100一比性能蹩脚,本来也不怎么划算。

请您先登陆,再发跟帖!