也就是说在多模态(视觉,听觉、文字)数据的驱动下,AI可以虚拟存在并进化,没接触过外界但生成的内容遵循物理规律。

本帖于 2025-08-18 11:43:43 时间, 由普通用户 uptrend 编辑

所有跟帖: 

别听他瞎扯,除非算法突破,目前这种算力堆积的永远达不到agi。我工作中用的一个neural operator算是进步, -newbiestock- 给 newbiestock 发送悄悄话 (215 bytes) () 08/18/2025 postreply 11:41:40

果然是师弟 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:45:27

专家和大师的水平还是差了不少,你说的需要ASI吧? -uptrend- 给 uptrend 发送悄悄话 uptrend 的博客首页 (0 bytes) () 08/18/2025 postreply 11:48:06

完全同意。在没有基本搞清人脑是怎么工作的之前,想要超过人脑,可能性不大。别忘了人脑和人脑是不同的。比如,现在大模型可能就 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:59:23

比我的脑子强,但是,比大千绝大多数人的脑子,恐怕差远了。 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 12:00:11

师弟,这是回你的,怎么删了 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 12:01:00

师兄,我炒股不行,然而那些忽悠咱们的,不太容易,看破不说破, -newbiestock- 给 newbiestock 发送悄悄话 (60 bytes) () 08/18/2025 postreply 12:03:57

哈哈,只要自己不上当就行。 -遍野无尘- 给 遍野无尘 发送悄悄话 遍野无尘 的博客首页 (0 bytes) () 08/18/2025 postreply 12:41:24

不好意思啊,师兄,我删帖了 -newbiestock- 给 newbiestock 发送悄悄话 (12 bytes) () 08/18/2025 postreply 12:01:32

我现在还在用模型训练数据阶段, 没有接触太底层的算法, 但是越来越怀疑大模型的前景 -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:49:07

我个人认为,在某些特别的领域可能可以,但是,AGI,很怀疑 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:50:12

如果训练的输入动些手脚,那。。。 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:50:44

印度应该会最先实现agi,你懂的 -newbiestock- 给 newbiestock 发送悄悄话 (12 bytes) () 08/18/2025 postreply 12:00:31

下一代的LLM可以不用focus,用relationship -cnrhm2017- 给 cnrhm2017 发送悄悄话 cnrhm2017 的博客首页 (0 bytes) () 08/18/2025 postreply 13:45:48

请您先登陆,再发跟帖!