学数学的,需要有大局观。当今AI的大模型,核心是概率和统计,就是计算各种特征的概率分布,但数学家却缺席这场盛宴。
所有跟帖:
•
说什么呢?我系里的华人同事,有一大半是做概率统计的。:)
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
14:33:46
•
统计学家只知道用单个函数来逼近样本空间,长期以来止步如此。是计算机科学家想到用深度嵌套的复合函数来逼近复杂的样本空间。
-衡山老道-
♂
(0 bytes)
()
11/27/2025 postreply
14:45:19
•
这个确实是一个创造。我想应该有不少数学家已经在从理论上研究这类逼近了。
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
15:00:35
•
介绍看家坛的一篇文章
-波粒子3-
♂
(120 bytes)
()
11/27/2025 postreply
19:56:40
•
这是用AI帮助证明一个问题。这里的问题是AI的方法为什么work
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
20:18:33
•
AI与概率统计关系不大。做神经元的数学模型的有很多。
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
14:47:10
•
说明你一点不懂当今的AI。
-衡山老道-
♂
(0 bytes)
()
11/27/2025 postreply
14:52:06
•
也说明蒋老师不怎么懂统计。我出国后拿的第二个学历就是统计。
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
15:08:37
•
也许这反而成了他的一个优点,不会用AI去蒙人 :)
-manyworlds-
♂
(0 bytes)
()
11/27/2025 postreply
21:41:47
•
AI本身所用的基础数学工具或语言都是已经很成熟的数学理论。但目前为止其方法上却更像是一种实验科学。
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
14:40:43
•
是因为理论落后,导致科学家只能尝试不同的方法。
-衡山老道-
♂
(0 bytes)
()
11/27/2025 postreply
14:42:45
•
这个说法有道理:即使是现在最流行的大语言模型,似乎也并没有一个数学理论证明它一定行,或者在什么条件下行,什么条件下不行
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
14:48:55
•
无法证明,因为当今大模型的本质就是用神经网络做统计,计算各种特征,包括隐形特征的概率分布。这种高度复杂的,大量的,深度嵌
-衡山老道-
♂
(402 bytes)
()
11/27/2025 postreply
15:03:28
•
看看热力学第二定律怎么证明的,非常奇妙
-波粒子3-
♂
(0 bytes)
()
11/27/2025 postreply
15:08:39
•
计算机模仿神经元,模仿神经网络,是AI的基本操作,与概率统计无关。:)
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
15:16:28
•
从in/out角度来看,AI用这种嵌套函数计算的是样本空间(in)的一个概率分布函数(out)
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
15:24:08
•
越说越玄,堆砌平常人听不懂的词句,是故弄玄虚,说了跟没说一样。
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
15:19:36
•
看来你还是不懂。今天你们那过节,我就不多说了。不过你记住,任何需要数据采集分析的,必须有统计的参与。
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
16:29:43
•
+1,有数据就有统计
-manyworlds-
♂
(0 bytes)
()
11/27/2025 postreply
21:45:06
•
LLM的实质是自回归预测,这决定了其幻觉不可避免。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
17:52:47
•
传统机器学习有理论保证自己在iid条件下工作。LLM能超越iid,因为它是基于依赖上下文的自回归模型。这点还是知道的。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
17:42:52
•
AI我不懂,好像跟概率统计连不上。
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
18:41:25
•
唉,非要犟到底。知道啥是回归(分析)和回归模型吗?去查一下这是不是统计学的术语。:)
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
20:03:33
•
LLM的巨大成功是有科学基础的。LLM处理的基元是人类语言的词,词在认知学上就已经是智慧构建了,是知识的符号。再加上语义
-十具-
♂
(105 bytes)
()
11/27/2025 postreply
20:42:57
•
也因为LLM的原理如此,LLM不可能是AGI或强AI。它不可能有自我意识,我们生而俱有的空间感知和抽象能力。做认知心理学
-十具-
♂
(66 bytes)
()
11/27/2025 postreply
20:56:32
•
是你们学数理的太狭隘。AI本来就不是一门纯数理科学,而是计算机科学,数学,认知心理学,脑科学,语言学的交叉。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
21:21:02
•
所以现在还停留在人工智障的程度。没有逻辑学家的深度介入,AI好不了
-哪一枝杏花-
♀
(0 bytes)
()
11/27/2025 postreply
17:04:22
•
人工智障。这个说得有趣。:)
-蒋闻铭-
♂
(0 bytes)
()
11/27/2025 postreply
17:15:47
•
阿尔法狗之前的AI主流还真是rule based逻辑推断,投入巨大但进展很慢。近10年的AI主流方法论切换到了统计推断,
-十具-
♂
(36 bytes)
()
11/27/2025 postreply
22:15:58