论文Scaling Laws for Neural Language Models指出提升10倍的计算能力,模型效果提升只有10%
也就是说,10%的计算能力可以打到90%的性能,1%的计算能力就可以达到80%的性能了
如果DeepSeek目标是最牛的LLM那需要很多GPU,但是只要凑合能用的话1%的计算能力都够了。更何况H20和H100一比性能蹩脚,本来也不怎么划算。
论文Scaling Laws for Neural Language Models指出提升10倍的计算能力,模型效果提升只有10%
也就是说,10%的计算能力可以打到90%的性能,1%的计算能力就可以达到80%的性能了
如果DeepSeek目标是最牛的LLM那需要很多GPU,但是只要凑合能用的话1%的计算能力都够了。更何况H20和H100一比性能蹩脚,本来也不怎么划算。
WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.
Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy