(1)训练大模型是要很多钱,但是好像一年前就在说地球的数据已经用尽了,也就是说大模型所处理的数据量已经枯竭了。多出来的数据无非都是些垃圾重复数据而已。那么未来训练大模型为什么还需要那么多钱?
(2)女大很久没出新品了,也就是说现有的架构已经完全满足当前的训练要求。为何还要买那么多的GPU?需求在哪里?
(3)最近agent,bot之类的玩意貌似很火。这些小玩意其实只需要联网就行了,即便推理端有很多需求,也不至于需求那么多。推理的GPU用很低端的就行了吧?何况还有DeepSeek之类的硬件架构能极大地减小计算需求。那么在这方面也用不上更好的GPU了。如果这个假设成立,那么这里也花不了什么钱。
(4)AI编程能极大提高效率。也不需要更多的程序员去编程了。顶多也就是需要它们去测试一下。或者测试也不需要,用AI机器人左右互搏也能搞出个七七八八。这又能花多少钱?
那么,到底哪里要花那么多钱?