现在AI的重点是怎么让AI计算变得足够便宜

来源: voiceofme 2024-05-04 10:36:48 [] [博客] [旧帖] [给我悄悄话] 本文已被阅读: 次 (1826 bytes)
本文内容已被 [ voiceofme ] 在 2024-05-04 11:18:51 编辑过。如有问题,请报告版主或论坛管理删除.

OPENAI, MICROSOFT, GOOGLE 这些公司将继续花大钱让AI 模型变得更强大,而现在的已有的大模型已经足够强大到横扫一切传统的专门种类的模型。 这些大公司的强大模型虽然开放给大家用,但要收取很多的费用来支撑运算成本,而且这些模型的每次调用需要等待不短的时间才能返回结果,这些都限制了大模型的应用。让这些强大的模型在现实经济环境中找到能被接受的应用的关键在于,有没有足够便宜的但功能强大的硬件让这些强大模型能被低成本的用在关键应用中。

这改变了以前大家一起搞大模型, 把大模型搞的更强大的做法, 最近一些做大模型的startup公司开始出现重组。比如做chatbot的公司inflection AI不少员工包括两个创始人都加入了微软, 做图像生成的公司Stability AI的CEO 下台。这些公司因为有资金的压力也融不到进一步的资金而出现状况。而这其中根本的原因是,这些公司是没有办法和OPENAI, MICROSOFT, GOOGLE这些公司竞争去研发生产中心式的大规模模型。 

但一些偏重于硬件偏重于计算平台的startup却正在获得大量的注资。 比如建立云计算平台来加速GPU运算的CoreWeave刚刚获得1.1B美元的融资,公司的价值为19B美元. 只有让计算足够便宜下来, 强大的模型才能在不同的应用中能够被使用,这包括不同的应用verticals,也包括不同的应用环境,比如手机应用。

nVidia 的CEO Jessen Huang说过,PC的硬件成本在20年内下降了一万倍,平均每五年下降10倍,而现在到了降低大规模模型的时期,而且降低的速度也会是像PC的硬件成本一样快。

 

所有跟帖: 

AI算法,像Transformer,硬件,像英伟达GPU,都要让计算变得便宜。 -Bob007- 给 Bob007 发送悄悄话 (0 bytes) () 05/04/2024 postreply 10:53:02

transformer 和以前的RNN比确实要快速,但现在也有一些替代算法比它更快。 -voiceofme- 给 voiceofme 发送悄悄话 voiceofme 的博客首页 (0 bytes) () 05/04/2024 postreply 11:02:45

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭/移除任何Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock/Adblock plus

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”