学数学的,需要有大局观。当今AI的大模型,核心是概率和统计,就是计算各种特征的概率分布,但数学家却缺席这场盛宴。

回答: 立业爬陡坡(第一部分)(1)蒋闻铭2025-11-27 08:52:29

所有跟帖: 

说什么呢?我系里的华人同事,有一大半是做概率统计的。:) -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 14:33:46

统计学家只知道用单个函数来逼近样本空间,长期以来止步如此。是计算机科学家想到用深度嵌套的复合函数来逼近复杂的样本空间。 -衡山老道- 给 衡山老道 发送悄悄话 衡山老道 的博客首页 (0 bytes) () 11/27/2025 postreply 14:45:19

这个确实是一个创造。我想应该有不少数学家已经在从理论上研究这类逼近了。 -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 15:00:35

介绍看家坛的一篇文章 -波粒子3- 给 波粒子3 发送悄悄话 (120 bytes) () 11/27/2025 postreply 19:56:40

这是用AI帮助证明一个问题。这里的问题是AI的方法为什么work -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 20:18:33

AI与概率统计关系不大。做神经元的数学模型的有很多。 -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 14:47:10

说明你一点不懂当今的AI。 -衡山老道- 给 衡山老道 发送悄悄话 衡山老道 的博客首页 (0 bytes) () 11/27/2025 postreply 14:52:06

也说明蒋老师不怎么懂统计。我出国后拿的第二个学历就是统计。 -新手庚- 给 新手庚 发送悄悄话 新手庚 的博客首页 (0 bytes) () 11/27/2025 postreply 15:08:37

也许这反而成了他的一个优点,不会用AI去蒙人 :) -manyworlds- 给 manyworlds 发送悄悄话 (0 bytes) () 11/27/2025 postreply 21:41:47

AI本身所用的基础数学工具或语言都是已经很成熟的数学理论。但目前为止其方法上却更像是一种实验科学。 -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 14:40:43

是因为理论落后,导致科学家只能尝试不同的方法。 -衡山老道- 给 衡山老道 发送悄悄话 衡山老道 的博客首页 (0 bytes) () 11/27/2025 postreply 14:42:45

这个说法有道理:即使是现在最流行的大语言模型,似乎也并没有一个数学理论证明它一定行,或者在什么条件下行,什么条件下不行 -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 14:48:55

无法证明,因为当今大模型的本质就是用神经网络做统计,计算各种特征,包括隐形特征的概率分布。这种高度复杂的,大量的,深度嵌 -衡山老道- 给 衡山老道 发送悄悄话 衡山老道 的博客首页 (402 bytes) () 11/27/2025 postreply 15:03:28

看看热力学第二定律怎么证明的,非常奇妙 -波粒子3- 给 波粒子3 发送悄悄话 (0 bytes) () 11/27/2025 postreply 15:08:39

计算机模仿神经元,模仿神经网络,是AI的基本操作,与概率统计无关。:) -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 15:16:28

从in/out角度来看,AI用这种嵌套函数计算的是样本空间(in)的一个概率分布函数(out) -方外居士- 给 方外居士 发送悄悄话 (0 bytes) () 11/27/2025 postreply 15:24:08

越说越玄,堆砌平常人听不懂的词句,是故弄玄虚,说了跟没说一样。 -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 15:19:36

看来你还是不懂。今天你们那过节,我就不多说了。不过你记住,任何需要数据采集分析的,必须有统计的参与。 -新手庚- 给 新手庚 发送悄悄话 新手庚 的博客首页 (0 bytes) () 11/27/2025 postreply 16:29:43

+1,有数据就有统计 -manyworlds- 给 manyworlds 发送悄悄话 (0 bytes) () 11/27/2025 postreply 21:45:06

LLM的实质是自回归预测,这决定了其幻觉不可避免。 -十具- 给 十具 发送悄悄话 十具 的博客首页 (0 bytes) () 11/27/2025 postreply 17:52:47

传统机器学习有理论保证自己在iid条件下工作。LLM能超越iid,因为它是基于依赖上下文的自回归模型。这点还是知道的。 -十具- 给 十具 发送悄悄话 十具 的博客首页 (0 bytes) () 11/27/2025 postreply 17:42:52

AI我不懂,好像跟概率统计连不上。 -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 18:41:25

唉,非要犟到底。知道啥是回归(分析)和回归模型吗?去查一下这是不是统计学的术语。:) -新手庚- 给 新手庚 发送悄悄话 新手庚 的博客首页 (0 bytes) () 11/27/2025 postreply 20:03:33

LLM的巨大成功是有科学基础的。LLM处理的基元是人类语言的词,词在认知学上就已经是智慧构建了,是知识的符号。再加上语义 -十具- 给 十具 发送悄悄话 十具 的博客首页 (105 bytes) () 11/27/2025 postreply 20:42:57

也因为LLM的原理如此,LLM不可能是AGI或强AI。它不可能有自我意识,我们生而俱有的空间感知和抽象能力。做认知心理学 -十具- 给 十具 发送悄悄话 十具 的博客首页 (66 bytes) () 11/27/2025 postreply 20:56:32

是你们学数理的太狭隘。AI本来就不是一门纯数理科学,而是计算机科学,数学,认知心理学,脑科学,语言学的交叉。 -十具- 给 十具 发送悄悄话 十具 的博客首页 (0 bytes) () 11/27/2025 postreply 21:21:02

所以现在还停留在人工智障的程度。没有逻辑学家的深度介入,AI好不了 -哪一枝杏花- 给 哪一枝杏花 发送悄悄话 (0 bytes) () 11/27/2025 postreply 17:04:22

人工智障。这个说得有趣。:) -蒋闻铭- 给 蒋闻铭 发送悄悄话 蒋闻铭 的博客首页 (0 bytes) () 11/27/2025 postreply 17:15:47

阿尔法狗之前的AI主流还真是rule based逻辑推断,投入巨大但进展很慢。近10年的AI主流方法论切换到了统计推断, -十具- 给 十具 发送悄悄话 十具 的博客首页 (36 bytes) () 11/27/2025 postreply 22:15:58

请您先登陆,再发跟帖!