OpenAI以前指责过豆包用它的API输出训练模型。豆包承认是有一个小组用OpenAI训练很小部分但后来把数据清理出来了

所有跟帖: 

但根本问题是OpenAI花几百上千亿做训练路子对不对 -whaled- 给 whaled 发送悄悄话 (0 bytes) () 01/23/2025 postreply 18:51:32

AI Infrastructure花的钱建的数据中心的算力主要不是做训练,而是训练后deploy持续运作的算力。 -大观园的贾探春- 给 大观园的贾探春 发送悄悄话 大观园的贾探春 的博客首页 (0 bytes) () 01/23/2025 postreply 18:58:13

英伟达和几个头部AI公司股票悬了 -青裁- 给 青裁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:01:00

我估计是用它的输出逆向工程,揣摩OAI的架构 -bagel_bites- 给 bagel_bites 发送悄悄话 (533 bytes) () 01/23/2025 postreply 18:57:34

这个和我儿子说的一样,他也说RL才有课题可做,GenAI做得太多了 -whaled- 给 whaled 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:02:18

同意,RL是主方向 -青裁- 给 青裁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:04:00

Hinton 的 Boltzmann Machine 实践上落后了,理论还是站得住的 -bagel_bites- 给 bagel_bites 发送悄悄话 (210 bytes) () 01/23/2025 postreply 19:14:46

RL只能是domain narrow,所以不会有什么AGI -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:16:42

policy是可以学习和巩固的,这就是人脑学习的过程 -bagel_bites- 给 bagel_bites 发送悄悄话 (51 bytes) () 01/23/2025 postreply 19:18:51

产生联想是不可逾越的鸿沟,因为电脑没有自主意识,人脑才有 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:21:39

这个将来的事情不好说,我觉得可能。 -bagel_bites- 给 bagel_bites 发送悄悄话 (84 bytes) () 01/23/2025 postreply 19:24:10

情感是关键词here。。。哪天电脑有了情感,人类就准备后事吧。不过我认为不可能。 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:25:46

显而易见 -bagel_bites- 给 bagel_bites 发送悄悄话 (201 bytes) () 01/23/2025 postreply 19:05:33

这里大部分连皮毛都没有搞懂 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:07:46

谷歌DeepMind的Demis那个是RL,和Altman的Generative AI是AI里不同的两个门派。 -大观园的贾探春- 给 大观园的贾探春 发送悄悄话 大观园的贾探春 的博客首页 (0 bytes) () 01/23/2025 postreply 19:03:54

Demis也搞生成式人工智能的,大姐 -bagel_bites- 给 bagel_bites 发送悄悄话 (0 bytes) () 01/23/2025 postreply 19:06:39

请您先登陆,再发跟帖!