东西太多,变化太快,比CS还fluid。刚出来的Llama4有2T参数。。。

本帖于 2025-04-11 14:20:52 时间, 由普通用户 我是谁的谁 编辑

所有跟帖: 

……2T 参数,whatever it is -成功的兔- 给 成功的兔 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:23:34

准备周末读斯坦福的“巨著”:AI Index Report 2025 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (271 bytes) () 04/11/2025 postreply 14:32:33

这个挺好的 如果AI 培训 run out of data 怎么办? -挖矿- 给 挖矿 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:40:29

不是事先就分一部分training dataset 一部分validation dataset? -成功的兔- 给 成功的兔 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:47:27

想说的是总数据量 似乎已经到了极限 -挖矿- 给 挖矿 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:49:10

这是Machine Learning。LLM不这么干,LLM greedy,eats every bit of data -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 04/11/2025 postreply 14:51:02

请您先登陆,再发跟帖!