(zt 知乎 小目标?)
持墨、zzk again、flaneur等人赞同
拒绝虚空开炮。用过了才有发言权。
当前我公司在用昇腾910b替换英伟达a800训练大模型,基本情况:
1.可用,华为提供了有torch-npu,原来torch实现的模型,经过少量修改+一段时间踩坑(因为算子实现不一致,各种溢出问题,给华为提bug),模型都跑起来了,结果没有问题。
2.910b单卡性能落后a800,但是卡便宜可以堆量,集群规模上来后,整体差距不大。
3.配套用的arm cpu,生态上还是欠缺,缺的东西都得自己想办法搞。
华为昇腾现在最大的问题就是屎一样的生态,以及torch后端切换中的实现bug。
禁用英伟达简直是给华为送助攻,因为nv买不到了,只能硬吃华为昇腾这个屎了。
个人看好这一波下来,国内买不到卡的厂家都只能硬着头皮买昇腾,最后反而导致昇腾的生态原来越完善。顺带arm开发环境都会被完善。
编辑于 2023-10-21 10:49
女大完了?!
所有跟帖:
•
理论上用RTX 4070堆起来都OK,但有极限,同时平台要处理的问题要多得多了,这是还没开始开发就要碰到要解决的,我猜啊
-cnrhm2017-
♂
(0 bytes)
()
10/24/2023 postreply
18:06:54