这是我听完汪洁的讲座后记录下的文字,自己做了些许修改。希望能对读过此文的朋友,在面对迅涌而至的人工智能浪潮面前深入思考并拥有合理的态度有所帮助
二十世纪著名科学哲学家库恩曾提出, 科学的发展并不是一种平滑的线形发展模式,而是会像走台阶一样, 隔一个阶段,上一个台阶。这被称为范式转换, 也被他称为科学革命。人们一般人都会认为, 总结过去并不代表就能预测未来。 而现代的科学研究也已发展的相当成熟,科学方法也多已定型。 所谓的现代的科学方法,简言之就是:理论推理加系统实验。但是, 最近一年以来,人们看到GPT人工智能模型的快速迭代发展, 这让我们再次想起库恩的科学革命, 它很有可能会在不远的将来再次到来, 人类社会又将迎来一次史无前例的深刻变革。 这种变革的剧烈程度很可能超越工业革命对社会的冲击。
现代科学研究范式遵循的原则过程是:无论我们做什么科研项目, 总是先要找到一套指导性理论。它未必成熟,也不一定完全正确, 但总是要先有理论,用理论来指导实践。根据这些理论, 人们做出一些假设或者猜想,再设计一些实验来证实,或者证伪, 如此循环往复,直到找到满意的答案为止。以药物研发为例, 用现代范式来研发一种靶向新药,大概有如下几个步骤: 第一步就是发现新靶点,就是用药物打算攻击的某个位置( 比如癌细胞的某个位置)。通过现有理论(生物信息学、 分子生物学等等)找到它, 找出可能与某种疾病相关的蛋白质分子上的靶点。 第二步就是药物设计,在现有理论的指导下, 人们设计出一种有可能攻击靶点的分子结构。 第三步就是通过化学方法合成出想要的分子结构。第四步就是实验, 包括动物实验、人体临床实验(一期、二期、三期等)。 实验有可能成功也有可能失败,如果失败了就再返回第一步。 如此循环往复,用几年或者十多年找到一个新药, 这已经是非常幸运的了。但是,当AI出现后, 尤其是用神经网络构建的机器学习模型出现后, 这种科学研究的范式就开始面临挑战。 2020年第一个让科学界感到震惊的例子出现了。 这就是MIT的科研团队研发出的一种新的名为Halicin的抗 生素。并非此新药有多么神奇, 令科学家们感到震惊的是Halicin的研发过程, 已经半跳出了现代范式。首先, 科研人员先让AI去学习大约2000个分子结构, 这些分子结构和作用都是已知的。它们有的有效有的无效。 然后通过神经网络的深度学习, AI自己会总结这些分子结构是不是有效的规律。 而AI总结出的规律是无法用人类现有的自然语言描述出来的。 AI并不会总结出一套我们人类可以读懂的公式, 从而让人们只要套用这个公式就可以轻易地知道哪个分子结构有效哪 个无效。AI有它自己的一套, 连开发者自己也不知道它到底是怎样运作的判定规则。对人类来说, AI就是一个黑盒,我们只知道给它一个输入值, 它就能返回一个输出值。至于它的过程到底是怎样的, 人类语言无法描述。有了这个AI, 研究人员再把另外61000个已知的可能会有效的分子结构, 一个一个地输进去,让AI给这些分子结构按照有效性、 副作用等等综合评价来打分, 最后得分最高的分子就是Halicin。 研究人员再用Halicin做动物实验和人体临床实验, 结果就发现其效果是非常的好, 一款全新的抗生素就这样被研发出来了。
这是一种不同于现代范式的研究方式。 如果用现代范式方法去测试这61000种分子结构, 需要花费的时间和金钱成本是不可想象的。 从这个例子里可以让人们突然意识到, AI可以发现人不能理解的规律,而这又的的确确是一种规律。 因为它真的在61000种分子中找到了唯一一个有效的分子, 这肯定不是用运气能解释了的。黄金时代的科学家有一种理想, 这个世界上的所有规律都可以用数学模型来总结或模拟。 但是现在AI告诉我们, 至少它们掌握了一种不是用一个或一组数学公式, 而是用一套通用的算法加上海量的参数来描述的自然规律。 这套算法只有AI能懂能用,人脑用不了。 现在用户量已经突破一亿, 人人都在谈论的ChartGPT其实就是GPT-3. 5这个AI模型的一个应用,它的参数已经突破了1750亿个, 这已相当于银河系中恒星的数量。 它是一个人类的大脑永远也无法真正理解的小宇宙。
除了新药研发,人们也可以用AI来解读基因的功能等问题。 所有用AI来做科研的模式,都已经不是现代范式, 至少不完全是现代范式。它们的一个共同的特征就是: AI相对于人类科学家来说是一个黑盒, 我们无法理解黑盒内的原理, 或者黑盒内的原理是一种只有AI才能理解的形式。 人类大脑的生理结构就决定了这种形式是我们人类无法真正理解的。 事实上, OpenAI和ChatGPT的开发者们也搞不清楚为什么Cha tGPT能够表现出现在这个样子。
2023年2月24日,ChatGPT 的开发公司OpenAI在官网上发布了一则声明,标题是《 AGI以及AGI的路线图》在这里, AGI是通用型人工智能的简称,只要是人类用智力能完成的任务, AGI就都能完成,这是一种更进一步的强人工智能。 这则几千字的声明可分为两部分,第一部分The short term 一句话,随着系统越来越接近AGI, 我们对模型的创建和部署也越来越谨慎。第二部分The long term有一段是:AGI不过是人工智能连续发展过程的一个点, 它依然会继续进化,速度与过去10年相同。果如所料, 世界将会变得截然不同,同时也将伴有着巨大的风险。 因为一个立场错位的超级智能可能会对世界造成巨大伤害。 人工智能加速科学进步的能力是一个值得深思的特例, 其影响力或许超过所有事物之和。 AGI有足够的能力来加速自己的进程, 这可能导致世界以惊人的速度发生重大变化。 成功过渡到一个拥有超级智能的世界, 可能是人类历史上最重要最有前途,同时也是最可怕的项目。 成功绝非一蹴而就,赌注即天堂还是地狱, 有望将我们所有人团结起来。 一个人类繁荣到我们都无法想象的世界,或许不再是天方夜谭, 因为我们为世界提供了一个与之匹配的AGI。
未来真的来了。一个智力远胜于人类的超级智能体, 在技术上已经不再是障碍,唯一的障碍就是法律和伦理。 在不远的将来,科学的现代范式将成为低效的代名词。 未来范式的科研将变得有点像是一种文字游戏。 不知道什么样的人可以更好地掌握未来范式,但问出一个好问题, 或者说如何与AGI沟通,将是最重要的事情。 这将是一场重大的科学革命,当这场革命来临之际,世界的科技、 政治、经济格局都很有可能面临重新洗牌和大变革。 人们可以通过AGI将难以想象的复杂的事情, 以简单的方式设计并产出,而且所有的指标都可以超过现有最好的。 如果像这样的超人工智能一旦出现, 难以想象人类社会将发生怎样的巨变。 这意味着AI真的可以完成从软件到硬件的自我进化, 成为神一样的存在。 而第一个拥有这种超级人工智能的组织会迅速获得别人无法匹敌的, 可以用降维打击来形容的超能力。从OpenAI的声明来看, 超人工智能的技术障碍似乎已经被扫清了。至此,我也很想知道你( 们)对强人工智能或者超人工智能的看法。 你要思考的已经不再是不知道能不能实现的科幻, 而是正在向我们走来的未来。
参考文献:
1. Jonathan M. Stokes, Kevin Yang, et.al. A Deep Learning Approach to Antibiotic Discovery. Cell vol.180 (4), P688-702, Feb.20, 2020. https://www.cell.com/cell/ fulltext/S0092-8674(20)30102-1
2. Sam Altman, Feb. 24, 2023. https://openai.com/blog/ planning-for-agi-and-beyond
更多我的博客文章>>>