也就是说,无论哪个大公司想要自己设计硬件用来训练AI,还需要自己开发软件包,再移植AI代码。要花很多时间和资源。
所有跟帖:
•
大多数AI模型都有PyTorch 或者tensorflow 实现。PyTorch 支持OpenCL,OpenCL可以在
-study169-
♂
(131 bytes)
()
02/03/2024 postreply
22:05:03
•
你说的不错。但时间就是金钱,而且是成千上万亿美元的规模。
-uptrend-
♂
(0 bytes)
()
02/03/2024 postreply
22:12:46
•
所以现阶段大家训练模型都是用Nvidia GPU,但将来运行大模型就会用各种自研的芯片
-study169-
♂
(50 bytes)
()
02/03/2024 postreply
22:18:50
•
Nvidia GPU的更新换代很快,没那么容易被替代。
-uptrend-
♂
(0 bytes)
()
02/03/2024 postreply
22:23:35
•
只是LLM基础模型训练要求高。LLM微调训练笔记本就可以胜任了。我们公司几乎所有项目都是AI,连A100
-study169-
♂
(18 bytes)
()
02/03/2024 postreply
22:28:05
•
开源的LLM虽然能微调,但是性能不咋样,用于专项评测时和随机回答的结果差不多。你公司用的是开源的SLMs吧?
-uptrend-
♂
(0 bytes)
()
02/03/2024 postreply
22:37:14
•
除了专做LLM基础模型的,大多数公司用开源模型,我们也是。AI应用有太多细分领域
-study169-
♂
(0 bytes)
()
02/03/2024 postreply
22:52:15
•
一个同事用笔记本做过演示
-study169-
♂
(300 bytes)
()
02/04/2024 postreply
04:17:05