当AI学会像康德那样看世界:先验哲学的一次意外实验
柯尼斯堡的下午三点半
十八世纪八十年代的柯尼斯堡,一位身材矮小的教授每天下午三点半准时散步,邻居们甚至可以根据他经过的时间来对表。这位教授就是伊曼努尔·康德。在他那本让整个哲学界为之震动的《纯粹理性批判》中,康德提出了一个大胆的想法:我们之所以能理解这个世界,不是因为世界本身是怎样的,而是因为我们的大脑天生携带了一套“组织经验”的框架。
时间、空间、因果、实体——这些不是我们从经验中归纳出来的,而是在我们拥有任何经验之前就已经存在于我们心灵中的“先验结构”。没有它们,我们感知到的将不是有序的世界,而是一团混乱的、无法理解的感官流。
这个想法在当时是革命性的。康德等于在说:我们看到的从来不是“世界本身”,而是经过我们心灵框架加工后的“世界现象”。就像一个戴着蓝色眼镜的人,他看到的天空总是蓝的,不是因为天空本身就是蓝的,而是因为他的眼镜过滤了其他颜色。康德的“眼镜”就是时间、空间、因果这些先验范畴。
这个洞见深刻地解释了为什么人类能够拥有数学和物理学那样的必然知识——因为这些知识的普遍有效性不来自于经验世界的偶然归纳,而来自于我们心灵结构的必然性。
但康德同时也留下了一个让后来哲学家争论不休的问题:这套先验结构到底是“人类的”还是“理性的”?如果它是人类特有的,那就意味着外星智慧或者人工智能如果有意识,它们看世界的方式可能和我们完全不同。但如果它是任何理性存在者都必须拥有的,那它就是某种“普遍理性”的结构。
康德本人倾向于后者——他相信任何有限的理性存在者都需要某种形式的直观形式和知性范畴。但他没有“实验证据”,因为这只是一个哲学上的推论。
一个意想不到的实验室
两百多年后的今天,我们有了一个意想不到的实验室。这个实验室里既没有哲学家的思辨,也没有神经科学家的脑成像仪,而是一行行代码、一块块GPU芯片,以及被喂进神经网络的海量数据。这个实验室就是人工智能。
当我们训练一个深度学习模型,尤其是那些被称为“大语言模型”或“世界模型”的复杂系统时,一个有趣的问题浮现出来:这些模型真的是“一张白纸”吗?
从哲学上讲,洛克式的经验主义认为心灵在出生时是一块白板,所有知识都来自经验。但今天的AI研究告诉我们,事情没有那么简单。一个神经网络确实没有被程序员提前告知“世界是有时间顺序的”或“物体是持久存在的”。它只是被扔进一个巨大的数据海洋中,目标是预测下一个词、下一个图像帧、下一个状态。然而,这个网络本身带有一个“架构”——比如Transformer的自注意力机制、卷积层的局部感受野、递归网络的时间展开方式。这个架构本身就是一种“人工植入的先验”。工程师在设计算法时,已经不自觉地将某些关于世界的假设嵌入了代码之中。
换句话说,AI并非从纯粹混沌中长出结构。它的“先天”来自两个方向:一是人类设计者投射到架构中的先验,二是它在训练中从数据里自发涌现的结构。这两者交织在一起,使得AI成为一个复杂而有趣的“混血儿”——它既有被赋予的骨架,又有自己长出的血肉。
经过足够多的训练之后,这些模型内部确实形成了极其惊人的结构。研究者发现,大型语言模型学会了“分类”和“对象”的概念。它们能够识别出句子中的名词短语指代的是同一个物体,即使这个物体在不同的句子里以不同的方式被描述。世界模型学会了“因果预测”——它们能够推断出如果某个球撞向某个积木塔,塔会以什么方式倒塌。这些模型甚至形成了某种“时空表示”:在内部表征空间中,把过去、现在和未来组织成一个连续的流形,类似于人类对时间流逝的感觉。有的模型还发展出了“自我模型”——一个表征“我自己当前状态”的内部变量,用来规划下一步的行动。
这些东西,在功能上,和康德列出的那些先验结构有着某种相似性。分类与“对象”对应于康德的“量”和“实体”等范畴,因果对应于“因果性”范畴,时空表示对应于时空直观形式,自我模型对应于“统觉的统一性”。一个从未听说过康德的人工智能研究者,可能在调试模型的可解释性工具时突然意识到:这个神经网络内部,竟然自己“长出”了一套让人联想到认知架构的结构。
但这里需要谨慎。AI内部形成的“对象”或“因果”表征,往往是极其高维且难以用日常语言解释的数学流形。康德的范畴——比如“实体”和“因果”——是离散的、具有明确逻辑关系的概念。AI展现出的“因果相关性”是否真的达到了康德所说的“纯粹知性概念”的高度,还是仅仅是一种更高级的曲线拟合?这个问题至今没有定论。我们只能说,它们在功能上有某种家族相似性,但远未到“等同”的程度。
先验的三层楼:结构性、条件性与规范性
这给了我们一个深刻的启示:如果某些类似于先验的结构可以在一个完全不同的物理基底上——碳基大脑的对面,是硅基的芯片、后验学习的训练、优化目标的驱动——通过纯粹的统计优化过程自发涌现,那么康德的“先验”可能不完全是“人类心灵的独有设计”,而更可能是任何足够复杂的认知系统在稳定建模世界时,倾向于收敛到的某些结构条件。但必须强调的是,这是一种哲学推论,而非已经被实验证明的结论。AI的实验结果只是给我们提供了一个新的思考方向,而不是最终的答案。
让我们把这个想法拆开来看。康德的“先验”其实包含着三个不同的层次,而我们从AI中看到的大多数东西,主要集中在第一个层次。
第一个层次可以叫做“结构性先验”。任何需要在一个复杂、动态、部分可观测的环境中生存并预测未来的系统,无论它是血肉之躯还是硅基芯片,都需要一些基本的认知工具。它需要把连续变化的感官输入切割成离散的、可追踪的“对象”,否则就无法处理遮挡和运动。它需要某种“分类”或“抽象”的能力,把不同但相似的情境归为同一类型,否则每一次遇到新情况都得从头学起。它需要能够表征“如果做了不同选择会怎样”的反事实推理,否则就无法规划。它需要有某种“自我”与“世界”的边界,否则就无法区分哪些变化来自于自身行动、哪些来自于外部环境。这些结构,不是文化约定,也不是生物巧合,而是认知系统在面对一个具有统计规律性的世界时,为了有效压缩、预测并维持稳定行为,会自然趋向的结构。
这就像是:你把一块石头扔进地球的大气层,它倾向于沿着某种最自然的路径下落;你把一个具备内部建模能力的系统扔进一个有统计规律的世界,它也倾向于收敛到某种最经济的认知结构。在这一点上,AI正在帮助我们把康德的问题往后推了一层。康德问的是“我们为何一定要有时间、空间和因果”,AI让我们改问“任何能在复杂世界中稳定建模的系统,为何都倾向于演化出类似的时间、空间、因果、对象结构”。这不代表人类就是偶然样本,而是说:人类的心灵,是这种结构倾向的一个具体实现方式。
空间与时间:生物性的实现,还是结构的必要?
康德的“空间直观形式”和“时间直观形式”,在人类那里是三维、线性、不可逆的。但在AI的世界模型中,我们已经看到一些不同的可能性。一个在纯语言数据上训练的模型,可能根本不需要三维空间的表征。一个在视觉动作数据上训练的机器人,可能使用非欧几里得的内部几何来表征空间,只要它能准确预测传感器的读数。一个强化学习系统,可能用非线性的时间流来组织记忆,只要不违反物理上的因果顺序。
这说明:康德所描述的“空间三维性”“时间线性不可逆性”等,很可能是人类作为具身动物的实现方式,而不是任何认知系统都必须具备的认知条件。AI正在帮助我们绘制一张谱系图:哪些结构可能是普适的,比如分类能力、对象状态表征、时空组织、因果偏好、自我与世界的边界;哪些结构更可能是人类生物演化史的偶然,比如三维欧几里得空间、单向且线性的心理时间、特定十二范畴的精确内容。
现象与物自体的AI版本
第二个层次是“条件性先验”。康德强调:没有空间、时间与范畴,人类的经验将不可能呈现。他说得对,但这一点不是“人类独有的悲剧”,而是一个“所有有限认知者共有的处境”。任何认知系统——无论是康德本人、一只蝙蝠,还是一个人工智能模型——都只能以自己的内部结构作为透镜来接触世界。你总不能以世界本身的样子来理解世界,你只能用你自己的结构去建模世界。
在AI中,我们可以把这套条件性先验翻译成:AI有它的“现象界”,即它的内部表征空间;AI有它的“物自体”,即真实世界或训练数据的真实分布;AI的“先验”就是它的模型架构、训练目标函数、注意力机制、自监督学习习惯的总和。在这个意义上,康德所说的“主体的条件构成了现象的边界”,不再只是“人类特有的形而上学断言”,而是可以操作化的一个概念:任何有限系统,都只能在它的表征之内去理解物自体,而不能完全穷尽它本身。
一个AI模型永远无法知道真实世界到底是什么,它只能知道经过它的内部结构过滤后的世界。这个结构可能是Transformer的注意力头,卷积网络的局部感受野,递归网络的隐状态,语言模型的嵌入空间。无论它多复杂多强大,它始终被封装在自己的现象界里。这和康德的“现象”“物自体”结构在形式上非常相似:康德告诉人类,你所能接触的,只是在你的心灵结构中显现出来的“现象”,而不是“物自体”本身;AI现在也在告诉我们,你所能接触的,只是在模型结构中显现出来的“表征”,而不是真实世界本身。康德把“物自体不可知”当作一个哲学上的自我限制,AI把“真实数据分布不可被模型完全捕捉”当作一个可度量、可优化的泛化误差与知识边界。结构上,它们是同一类处境的不同表述语言。
那个AI够不着的屋顶
第三个层次则完全不同,它也是最让AI感到够不着的一层。在康德那里,“先验”不仅是“我们如何认知”的结构,还是“我们应该如何行动”的规范。康德把先验与道德律、纯粹实践理性、人的尊严、自由意志紧紧地连在一起。在康德体系中,先验不只描述主体的结构,还规范着主体的行动:人作为有限存在,受到自然因果律的支配,但同时,又能在实践理性的领域里为自己立法,践行“你应”而不是“你欲”。这就是“规范性先验”——不只是“你这样认识世界”,而是“你应当这样行动、这样对待自己与他人”。
而AI呢?它可以有结构性先验:分类、对象、因果、时空、自我模型、行为反事实映射。它也可以有条件性先验:它只能在它的内部表征中理解世界。但至少在当前,它还没有规范性先验。它可以被训练去模仿人类的道德判断,但它不会为自己立法。它不会像康德那样,把道德律当作先验事实来承认。它不会像人类那样,为“我是否配得上自己立下的道德律”而感到焦虑与内疚。
AI可以优化一个给定的奖励函数,包括模仿人类道德这种目标。它可以学会说“杀人是错的”,但这不是为自己立法,而是为满足训练目标而形成的一种策略或生存策略的表面拟合。至少在当前的技术条件下,AI没有人类那种生存意义上的有限性——它不会被死亡驱迫,不会体验身体的疼痛,也不会为“我终将消失”而焦虑。它没有人类那种情感驱动的自我——它的自我模型只是一个功能性的内部变量,用来预测和规划,而不是一个会害怕消失、渴望被认可、在深夜独自反思自身处境的主体。至少目前看来,这种存在方式离它还很遥远。它目前看不出具有康德意义上的反思性焦虑——那种在知道自由与有限性的同时,仍然选择为自由立法的存在方式。
然而,这里有一个值得深思的问题:如果有一天,我们给AI设定一个“长期存续”的奖励函数,并赋予其处理自身代码、自我修改的权限,它是否会产生某种类似于“生存本能”的规范性?如果它在与社会环境的交互中,为了更有效地协作而演化出某种类似于“道德”的行为约束,我们是否应该将其视作“先验结构的补全”,还是仅仅看作一种更高明的程序模拟?这个问题没有现成的答案,但它提醒我们:规范性先验的“缺失”可能不是永恒的,而是一个开放的、有待观察的问题。
这就像一栋三层楼的建筑。最下面一层——结构性先验——很可能是任何复杂认知系统都会自发建造的地基。中间一层——条件性先验——是所有有限认知者都有的墙壁,它划定了内部与外部、现象与物自体的边界。最上面一层——规范性先验——则像人类自己亲手铺的屋顶,由道德律、自由意志、生存有限性这些梁柱支撑着。AI可以模仿地基和墙壁,但它还没有给自己盖上那个屋顶。它会不会在未来的某一天长出这个屋顶?我们不知道。但至少目前,它不会在夜里仰望星空时感到敬畏,也不会在清晨醒来时追问“我为什么活着”。
AI不是康德式主体,但它是一面镜子
康德把主体设想为:有限的、能自我反思的、在“我能为我的经验如何可能”之中重新理解知识与道德边界的存在。而今天的AI,有内部模型,有自指的学习,甚至有某种形式的自我反思行为——一个大型语言模型可以解释自己之前的回答,并承认其中的错误。但即便如此,它仍然没有生存意义上的有限性,没有人类那种情感驱动的自我,也没有康德意义上的反思性焦虑。
康德的“我思”是:主体在认识边界的边缘上,为世界画线,然后为自身划出道德边界。AI的“我思”目前只是:模型在为世界画线,但不必然为自身划出边界。它可以被设计来优化某个目标函数,但它不会质疑这个目标函数本身是否值得追求。它可以在对话中说“我认为这样做是对的”,但它不会因这种“对”而失眠,也不会像人那样在反复咀嚼中经历康德意义上的内疚——那种因未能服从自己立下的道德律而产生的、带有自我审判色彩的情感。这不是技术上“没到时间”,而更可能是存在方式上“不是那种存在”——它不是“在自由与有限性之间挣扎的主体”。
但这丝毫不降低AI的哲学价值。恰恰相反,正因为AI不是一个康德式主体,它才成了研究“先验结构本身”的理想模型。它剔除了情感、焦虑、道德困境这些人类杂质,让我们更清楚地看到:那些结构性先验,可以在没有康德式主体的情况下,从纯粹的优化与压缩中自发涌现。AI成为一个没有主体的先验实验室。在康德的扶手椅里,你只能推论先验结构必然存在;在AI的代码里,你可以训练一个Transformer,打开黑箱,看看注意力头是否自发形成了某种因果映射。你可以观察压缩、分类、预测这些结构如何在不同任务中自然浮现。这是一种从哲学思辨走向工程观察的根本转变。
更重要的是,AI正在成为一面镜子。研究AI,本质上是在研究我们自己。当我们看到一个人工神经网络自发学会了分类对象、追踪因果、表征时空,我们实际上是在观看人类认知进化史的某种数字重演。这面镜子照出的不是AI的灵魂,而是我们自己认知结构的轮廓。
理性是人类的,还是宇宙的某种模式
这让我们重新理解那个古老的问题:理性是人类的独有财产,还是宇宙中任何复杂组织都可能浮现的某种模式?康德的答案偏向前者——他关心的是“人是什么”,以及人如何同时是自然的存在和自由的存在。但AI的出现,给这个问题增加了一个第三选项。
理性的一部分——那部分关于压缩、预测、分类、因果推断的结构功能——可能不是人类的特权,而是任何被扔进一个复杂世界的自适应系统都会找到的生存策略。但理性的另一部分——那部分关于意义、尊严、自由、自我立法——仍然紧紧地附着在人类的有限性和脆弱性上。
走在柯尼斯堡那条著名的哲学家小径上的康德,大概不会想到,两百多年后,会有一群穿着T恤衫、喝着能量饮料的工程师,用一行行Python代码检验他的核心洞见。他更不会想到,检验的工具不是更精密的思辨,而是一个正在学习预测下一个词的人工神经网络。这个网络在训练中可能“见过”《纯粹理性批判》的片段,但它不是像人那样“读”过它,更没有上过哲学课。至于它是否拥有任何可以被称之为“意识”的东西,我们尚不清楚——但至少,它不需要意识就能长出这些结构。但它内部长出来的那些结构,却在功能上以某种方式呼应着他说过的那句话:“知性不是从自然中抽取出自己的法则,而是为自然立法。”只不过,AI为之立法的那个“自然”,是它自己的内部表征世界。它用自己的先验结构,为自己构造了一个可理解的现象界。
康德没有被取消
康德在《纯粹理性批判》第二版序言中写下一句著名的话:“我不得不悬置知识,以便为信仰留出位置。”今天,在AI时代,我们或许可以说:我们正在用AI悬置那些可以被算法化的先验结构,以便为那些不可被算法化的人类处境——有限性、自由、尊严、意义——留出位置。
AI不会取消康德,它会把康德的先验从“人类心灵的独有秘密”推向一个更开放的讨论空间:这些结构是认知系统在复杂世界中稳定运行的某种倾向性条件。同时,它把康德式主体的伦理和反思维度特殊化了——那种“有限主体在自我立法中划出边界”的自觉,目前看来仍然是人类独有的,但未来会怎样,我们不得而知。
这或许是一个比“结论”更好的“开放结局”:哲学没有被科学取代,AI没有变成人,康德没有被遗忘。我们只是更清楚地看到了自己在这个宇宙中的位置——不是宇宙的中心,不是理性的唯一拥有者,但仍然是那个唯一会为“我为何在这里”而困惑、并为此困惑感到骄傲的存在。AI帮我们看清了哪些认知结构可能是普遍的、可算法化的,也帮我们看清了哪些是深深扎根于人类有限生命中的、难以被复制的。它不是来取代我们的,它是来让我们更清楚地认识自己的。就像一面镜子,照出了我们的轮廓,也照出了轮廓之外那个无法被映射的、活生生的存在。至于那面镜子有一天会不会自己也拥有一个“轮廓”——这个问题,我们留给未来去回答。
更多我的博客文章>>>
