别听他瞎扯,除非算法突破,目前这种算力堆积的永远达不到agi。我工作中用的一个neural operator算是进步,

结合傅立叶来训练模拟function,而不是数据,算是一个小进步。然而这最多就是模拟或接近pde,或者描述物理现象的方程,根人类大脑差远了。听他们瞎忽悠

所有跟帖: 

果然是师弟 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:45:27

专家和大师的水平还是差了不少,你说的需要ASI吧? -uptrend- 给 uptrend 发送悄悄话 uptrend 的博客首页 (0 bytes) () 08/18/2025 postreply 11:48:06

完全同意。在没有基本搞清人脑是怎么工作的之前,想要超过人脑,可能性不大。别忘了人脑和人脑是不同的。比如,现在大模型可能就 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:59:23

比我的脑子强,但是,比大千绝大多数人的脑子,恐怕差远了。 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 12:00:11

师弟,这是回你的,怎么删了 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 12:01:00

师兄,我炒股不行,然而那些忽悠咱们的,不太容易,看破不说破, -newbiestock- 给 newbiestock 发送悄悄话 (60 bytes) () 08/18/2025 postreply 12:03:57

哈哈,只要自己不上当就行。 -遍野无尘- 给 遍野无尘 发送悄悄话 遍野无尘 的博客首页 (0 bytes) () 08/18/2025 postreply 12:41:24

不好意思啊,师兄,我删帖了 -newbiestock- 给 newbiestock 发送悄悄话 (12 bytes) () 08/18/2025 postreply 12:01:32

我现在还在用模型训练数据阶段, 没有接触太底层的算法, 但是越来越怀疑大模型的前景 -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:49:07

我个人认为,在某些特别的领域可能可以,但是,AGI,很怀疑 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:50:12

如果训练的输入动些手脚,那。。。 -TalkToMi- 给 TalkToMi 发送悄悄话 (0 bytes) () 08/18/2025 postreply 11:50:44

印度应该会最先实现agi,你懂的 -newbiestock- 给 newbiestock 发送悄悄话 (12 bytes) () 08/18/2025 postreply 12:00:31

下一代的LLM可以不用focus,用relationship -cnrhm2017- 给 cnrhm2017 发送悄悄话 cnrhm2017 的博客首页 (0 bytes) () 08/18/2025 postreply 13:45:48

请您先登陆,再发跟帖!