……2T 参数,whatever it is

所有跟帖: 

准备周末读斯坦福的“巨著”:AI Index Report 2025 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (271 bytes) () 04/11/2025 postreply 14:32:33

这个挺好的 如果AI 培训 run out of data 怎么办? -挖矿- 给 挖矿 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:40:29

不是事先就分一部分training dataset 一部分validation dataset? -成功的兔- 给 成功的兔 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:47:27

想说的是总数据量 似乎已经到了极限 -挖矿- 给 挖矿 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:49:10

这是Machine Learning。LLM不这么干,LLM greedy,eats every bit of data -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:51:02

请您先登陆,再发跟帖!