这个说法有道理:即使是现在最流行的大语言模型,似乎也并没有一个数学理论证明它一定行,或者在什么条件下行,什么条件下不行

所有跟帖: 

无法证明,因为当今大模型的本质就是用神经网络做统计,计算各种特征,包括隐形特征的概率分布。这种高度复杂的,大量的,深度嵌 -衡山老道- 给 衡山老道 发送悄悄话 衡山老道 的博客首页 (402 bytes) () 11/27/2025 postreply 15:03:28

看看热力学第二定律怎么证明的,非常奇妙 -波粒子3- 给 波粒子3 发送悄悄话 (0 bytes) () 11/27/2025 postreply 15:08:39

计算机模仿神经元,模仿神经网络,是AI的基本操作,与概率统计无关。:) -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 15:16:28

从in/out角度来看,AI用这种嵌套函数计算的是样本空间(in)的一个概率分布函数(out) -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 15:24:08

越说越玄,堆砌平常人听不懂的词句,是故弄玄虚,说了跟没说一样。 -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 15:19:36

看来你还是不懂。今天你们那过节,我就不多说了。不过你记住,任何需要数据采集分析的,必须有统计的参与。 -新手庚- 给 新手庚 发送悄悄话 新手庚 的博客首页 (0 bytes) () 11/27/2025 postreply 16:29:43

+1,有数据就有统计 -manyworlds- 给 manyworlds 发送悄悄话 (0 bytes) () 11/27/2025 postreply 21:45:06

LLM的实质是自回归预测,这决定了其幻觉不可避免。 -十具- 给 十具 发送悄悄话 十具 的博客首页 (0 bytes) () 11/27/2025 postreply 17:52:47

传统机器学习有理论保证自己在iid条件下工作。LLM能超越iid,因为它是基于依赖上下文的自回归模型。这点还是知道的。 -十具- 给 十具 发送悄悄话 十具 的博客首页 (0 bytes) () 11/27/2025 postreply 17:42:52

AI我不懂,好像跟概率统计连不上。 -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 18:41:25

唉,非要犟到底。知道啥是回归(分析)和回归模型吗?去查一下这是不是统计学的术语。:) -新手庚- 给 新手庚 发送悄悄话 新手庚 的博客首页 (0 bytes) () 11/27/2025 postreply 20:03:33

LLM的巨大成功是有科学基础的。LLM处理的基元是人类语言的词,词在认知学上就已经是智慧构建了,是知识的符号。再加上语义 -十具- 给 十具 发送悄悄话 十具 的博客首页 (105 bytes) () 11/27/2025 postreply 20:42:57

也因为LLM的原理如此,LLM不可能是AGI或强AI。它不可能有自我意识,我们生而俱有的空间感知和抽象能力。做认知心理学 -十具- 给 十具 发送悄悄话 十具 的博客首页 (66 bytes) () 11/27/2025 postreply 20:56:32

请您先登陆,再发跟帖!