AI不光训练大模型需要钱, 连前端每个提问的推理过程都需要GPU来大量计算, 因为不是像数据库一样去大模型里找一下就完了
所有跟帖:
•
不是可以int4 batch处理吗?
-伯克希尔哈萨维-
♂
(0 bytes)
()
02/05/2026 postreply
16:55:14
•
你自己跑过吗? 自己用一般电脑下载个模型跑一下CHATbot就知道有多慢了
-testmobile-
♀
(0 bytes)
()
02/05/2026 postreply
16:57:17
•
没跑过,跑那些东西没意思。
-伯克希尔哈萨维-
♂
(0 bytes)
()
02/05/2026 postreply
16:59:20
•
这就是一般人和技术人员眼里AI的不同之处, 我在家跑了几次本地GPT就知道这东西推广很难, 太耗资源了
-testmobile-
♀
(0 bytes)
()
02/05/2026 postreply
17:02:42
•
就是剽窃而已。没必要用什么大模型。
-伯克希尔哈萨维-
♂
(0 bytes)
()
02/05/2026 postreply
17:05:57
•
还有所谓的AI编程, 我用最新的CLAUDE, 一半以上的结果都需要我花时间手动修改, 不知道如何做到大量提高生产力的
-testmobile-
♀
(0 bytes)
()
02/05/2026 postreply
17:05:02
•
一定会有更好的方法吧。像deepseek
-五谷不分-
♂
(0 bytes)
()
02/05/2026 postreply
16:58:22
•
deepseek都开源了,这些科技公司的牛马难道都不知道抄一抄,减少成本吗?
-伯克希尔哈萨维-
♂
(0 bytes)
()
02/05/2026 postreply
17:00:24
•
我用了最新的kimi, 个人电脑上也是很慢
-testmobile-
♀
(0 bytes)
()
02/05/2026 postreply
17:00:33