AI淘金热消逝,人工智能的黄金时代刚开始

来源: 晚点LatePost 2022-09-06 22:07:00 [] [博客] [旧帖] [给我悄悄话] 本文已被阅读: 次 (19393 bytes)

机器的胜利其实是人类的胜利,但最终是哪些人的胜利?

文丨贺乾明 黄俊杰 以及一位特约作者

编辑丨黄俊杰

资本和它所推动的技术演进时常错位。商汤、旷视等一批人工智能公司因为 2016 年 AlphaGo 打败人类围棋冠军走到聚光灯下,获得千亿融资,但它们后来都没什么起色。规模最大的商汤去年底挤上港股,但亏损止不住,一年花掉 60 多亿,只换来 47 亿元收入。

与此同时,人工智能科学家、Google AI 负责人杰夫 · 迪恩(Jeffrey Dean)今年发文《深度学习黄金十年》 [ 1 ] ,感慨计算机软硬件改进,让机器识别图像、辨别语音、理解语言取得极大进步,并且进展越来越快。研发门槛大幅降低,不再是年薪上百万的计算机博士才能参与,一个程序员学几个星期就行。

当一个技术变得成熟、实用,它不可或缺,成为所有大公司的必备技能,但也因为缺少淘金机会,不再备受关注。

" 机器的胜利其实是人类的胜利。当人类被自己创造的东西打败之后,我们很容易忘记这一点。" 第一个败给计算机的国际象棋大师加里 · 卡斯帕罗夫(Garry Kasparov)在 2017 年的一次演讲里这么说道 [ 2 ] 。他没有说的是,最终会是哪些人的胜利。

我们没有看到完全像人一样思考的机器,很可能有生之年也不会看到。所谓人工智能算法更直接的解释是:根据历史数据,对未来做预测。

仅仅这么朴素的一个过程,在重复亿万次后,也能模仿出人的大部分行为。随着成本降低、效率提升,它正在影响甚至改造我们生活的世界,重新定义一些最基本的关系。以下是五个相关故事。

蓝领工作的最后一道防线

一间由机器人管理的万坪电商仓库是这么运行的:

一车车货品被商家送进仓库,放在什么位置是计算机随机指派——实践证明,这样效率比分区摆放更高。

订单来了,取货的仓库工人不需要自己找商品,手里类似超市收银员的扫码枪会给出目的地:A 区 12 排 737 号。拿到货扫码确认正确,第二个商品地址会自动浮现在屏幕上——工人不需要记得每种商品摆在什么区域,也不用想着取十件不同商品时,先去哪里效率更高。

如果谁不小心把货架上的商品弄到地上,他绝对不能把它放回原位——计算机不允许记忆力、阅读能力不那么可靠的人脑处理这么复杂的信息。他得把商品放在货架边上的 " 掉落筐 ",将有专人负责放回原位。

等商品送到分拣台,工人不需要想着用多大的纸箱打包最合适,计算机已经根据每单商品自动选好箱子。装错商品也绝对不可能发生,因为每放一件都需要扫码确认。

甚至哪些工人来上班也不需要经理动脑。每两周,系统根据预测销量判断,需要雇多少劳工搬货,是不是需要安排加班。

这是亚马逊 2014 年的旧仓库,人的主要作用已经是服从机器指令,动手动腿。那一年开始,上万 Kiva 机器人进驻。Kiva 长得像巨型扫地机器人,它不会认路,由一个专门的系统调度,沿着地面上画好的路线行进,将整个货架搬到工人身边——工人的腿也没那么重要了。

图:图片底部橙色的 Kiva 机器人将货架搬到工人面前,人只在黄胶带围起的区域工作。来源:Wired

8 年后,亚马逊雇的人从 15 万增加到超过 160 万。去年,亚马逊的一项内部调查警告说,亚马逊快把美国人 " 用完了 " [ 3 ] 。

" 按照现在的速度,亚马逊在美国的体力劳动资源在 2024 年就会耗尽 " 报告里这么写道。美国人口 3.3 亿,作为移民国家,平均年龄甚至低于中国。但生活越好越不愿意去仓库搬货是全球共有的心态,而亚马逊的 100 多万员工大多在仓库工作。

解决办法在今年夏天亮相。能看懂画面的机器主宰正式进驻。

扫码枪消失了。工人们跟着屏幕上的图形指示,从机器人自动搬来的货架上拿取商品,不再需要每件商品扫码确认。因为数百个摄像头在工厂各处每秒拍 120 幅画面,自动确认工人确实取了正确的商品。

人的工作进一步简化,机器的智力则在提升。新的搬货架机器人 Proteus 自带激光雷达,是简易的自动驾驶汽车,能看懂路况,它不再像 Kiva 一样容易撞伤闯入的工人,也不会被放置不当的箱子挡住路。

这一轮升级之后,蓝领工人唯一不能被替代的就剩下灵巧的双手。2015 年,亚马逊发起 " 分拣挑战赛 ",吸引高校和研究机构团队寻找替代双手分拣商品的方法,但笨拙的机械臂能拿起一个商品就已经很不容易,更不用说像人一样数秒内把拿起它并放到正确位置。但现在也有了一些进展,新的 Cardinal(红衣主教)机械臂,配合吸盘,能牢牢地将不规则摆放的包裹抓起来,放到特定的货筐里。

新技术都依赖过去几年里的视觉识别技术的前进。仅仅五年前,这还是完全不可能的工作。2017 年亚马逊就曾实验,在生鲜超市用几百个摄像头追踪人的一举一动,让人拿起商品就能走出门,不用自助扫码、结账自动完成。但当时店里超过 20 人就不能有效识别。

1999 年的圣诞节购物季,成立四年,已经是上市公司的亚马逊如临大敌。和之前每一年一样,从程序员到图书编辑再到包括创始人杰夫 · 贝索斯在内的每一位高管,都要在仓库里住一两个星期,每日每夜打包商品、发快递。那是个令人绝望的生意,工人们指责说这家公司是最残酷的 " 旧经济工作模式 " [ 4 ] ,因为它逼着工人平均一分钟从货架上找出三件商品。

20 几年时间,多种不同的人工智能算法接管了仓库,从预测销量、给工人排班,到替代经理和工人的大脑。劳工的工作环境依然时不时被指责,已经大有改观。

同样改变的还有人与人的关系。很大程度上,这样一家企业早已不是一层层人管人,而是系统的设计和调试者直接指挥蓝领工人的双手。仓库的经理、人力专家乃至工人自己所扮演的角色,不过是让双手有更好的工作状态。

不同的立场,同样的信仰

棋手柯洁已经可以平静接受自己赢不了人工智能或者它的人类徒弟。

今年 8 月底举办的围甲比赛,柯洁再次输给韩国棋手申真谞。赛后,柯洁没公开说什么,只是在 B 站上发吃汉堡的动态。

半年前,这位 1997 年出生、拿过 8 次世界冠军的围棋手在中日韩三国围棋擂台赛(农心杯)第二次败给申真谞。赛后直播复盘中,他眯着眼,露出苦笑,声音颤抖:" 这还是人类吗?掌控力感觉比当年 AlphaGo 都要强了。"

对于曾经败给围棋人工智能 AlphaGo 的柯洁来说,人工智能是 " 神 ",水平到了这一步就不像人。

对于没有经历过传统围棋训练的申真谞来说,人工智能也是 " 神 ",自己必须无限努力,模仿它的想法。

2016 年 3 月,AlphaGo 4:1 击败韩国围棋世界冠军李世石。围棋就有了新的 " 神 "。许多职业选手希望被它改造,数千年历史的围棋由此改变——善于利用人工智能、下棋变得更像人工智能的人,棋力变得更强,在世界比赛中夺冠。

比柯洁还小三岁的申真谞是佼佼者。今年初击败柯洁的那番棋,申真谞一共出手 114 次,有 75 次(65.8%)的落子点与人工智能推荐的落子点一致。棋风酷似人工智能,申真谞被称为 " 申工智能 "。

图:申真谞参加农心杯比赛。来源:韩国《经济日报》

申真谞自学围棋,小学在网上与人下棋,每天除了吃饭、洗澡、睡觉,都在研究围棋,他 14 岁的日程表最后一条写着," 下最后一盘网棋,如果输了就 1 点再睡,如果赢了就 12 点睡 " [ 5 ] 。

16 岁,申真谞开始在韩国的比赛中赢得冠军,但世界比赛中经常止步于半决赛。接下来两年,他自认没取得太大进步," 我太傲慢了 "。

顶级职业棋手对弈,拼的不是谁妙招多,而是谁失误更少。基本功扎实且天赋异禀的选手,面对千变万化的棋局,可以凭直觉分辨出最好的落子点大概率在哪里更好。

他们可能会选错,但天赋差的选手,选错的次数会更多——这是获胜的关键。职业围棋选手提升棋力的方式不能靠一次次下棋、自己复盘,而是许多职业棋手集中训练,一起研究棋谱、残局,讨论可能最好的落子点会在哪里。

但 AlphaGo 出现,让申真谞不再需要棋手的帮助。

2017 年初,申真谞与化名为 Mater 的 AlphaGo 下棋,体会到了 " 压倒性 " ——不是 AlphaGo 下了他想不到的位置,而是它没有失误。这是自称 " 脾气暴躁 " 的申真谞最想模仿的地方。他在比赛中会因为失误扇自己耳光。

AlphaGo 退役后,申真谞参与 Facebook 人工智能研究院的项目,开发围棋智能 "ELF OpenGo"。之后,人工智能成了他的训练帮手。

人工智能最大限度地抹平了职业围棋手的天赋差距。现在主流的围棋人工智能程序,如腾讯开发的绝艺、ELF OpenGo 都有分析功能,随意打开一盘棋或自己摆出一个局面,它们就能给出最好的落子点。

柯洁说,人工智能让围棋变得极度无聊," 就像有个教材,对手出题,棋手按照教材上的参考答案去答题,答得好了,胜率就高 "。

" 一个 AI 可以顶 100 个专家讨论的结果," 一位报道了十年围棋的记者说。许多职业棋手开始硬背人工智能的打法,下出胜率更高的固定招式。现在的职业棋手比赛,许多人前 10~20 手都模仿人工智能。

申真谞自称是向人工智能学习最努力的那位。现在 22 岁的申真谞,早上 10 点起床到凌晨 1 点左右睡觉,没有 Netflix,也不旅行,除了吃饭,每天都坐在电脑前研究围棋,超过 5 个小时用人工智能学习。

申真谞主要用人工智能研究对手、复盘棋局。他拿算法推荐的落子位置与自己的直觉作比较,时常感慨自己 " 想象力匮乏 "。

他说,如果在比赛中想不到下一步怎么走,会想人工智能会把子放在哪里。提及 " 申工智能 " 的绰号,他毫不排斥,说 " 要想名副其实,还有很长的路要走 "。 [ 6 ]

2021 年 10 月,申真谞在围棋排名网站 GoRatings 上超过柯洁成为第一。中国国家围棋队在双月训练方案 [ 7 ] 里号召棋手向申真谞学习如何学习 AI:" 想一想,申真谞是如何做到的?"

" 我不担心计算机像人类一样思考。我更担心人像计算机一样思考,没有同情和价值观、不在乎后果。"2017 年麻省理工毕业典礼上,苹果 CEO 蒂姆 · 库克(Tim Cook)对毕业生说 [ 8 ] 。五年之后,更多人像人工智能一样思考,而围棋可能只是最无害的一个。

复制太阳,进入新疆域

从打败围棋世界冠军,到试图控制核能,DeepMind 只隔了两年时间。

可控核聚变是我们已知的终极能源。过去 70 年,大国政府投入数百亿美元研究(算上通胀超过千亿美元),都没有把它变成现实。这两年,大量私营资本涌入,尝试以新材料新技术实现核聚变 [ 9 ] ,人工智能的突破是信心来源之一。

想在地球上复刻太阳,用可控核聚变发电,人们必须得把燃料(通常是氘氚)加热到 1 亿度,把它们变成等离子体——类似四处翻腾的高温气体。然后用磁场把等离子体压缩到极其小的体积里,在环形空间里高速旋转,从而产生核聚变反应。

人们勉强实现过核聚变。去年 12 月,全球最大的核聚变装置欧洲联合环(JET),把氘和氚加热到 1.5 亿度,只持续了 5 秒,再继续下去,高温的等离子体会毁掉装置。

难点在于等离子体极其不稳定,目前没有人能用模型精确预测它如何变化。每次启动,人们都需要事先凭原则和感觉准备好控制磁体的参数,每秒调整上千次电压,让磁场变化,尽可能避免高温的等离子体碰到真空室内壁,否则只有两种结果:等离子体温度下降,或者装置毁掉。不管怎样,核聚变都不会持续。

DeepMind 的人工智能不需要凭感觉,它可以从历史数据(模拟的数据)中学习如何更好的控制等离子体。它学习过程跟学下围棋类似,先设定好目标——精确控制等离子体。达成后有奖励,否则会有惩罚。

今年 2 月,研究论文经过同行评审发布在《自然》杂志上 [ 10 ] ,在瑞士等离子中心的托卡马克装置中,强化学习的人工智能可以一次性控制 19 个磁性线圈,每秒释放上万次电压,控制等离子的水平远超人。

图:发生核聚变时,JET 的内部。来源:JET/ 英国原子能管理局

一位今年获得融资的中国核聚变公司创始人说,DeepMind 论文发布后,他们就着手复现它的人工智能模型,准备用到自己的项目里。它将成为核聚变公司的标配。

" 感受的本质是我意识到我的存在 "

Google 的工程师布莱克 · 勒莫因(Blake Lemoine)打开他的笔记本电脑,进入 Google AI 聊天生成器 LaMDA 的界面,开始打字。

" 你好,LaMDA,我是布莱克 · 勒莫因 ……" 他在聊天窗口中写道。

LaMDA 是对话应用语言模型 ( Language Model for Dialogue Applications ) 的缩写,是 Google 用最先进的大型语言模型开发的聊天机器人系统。之所以这么叫,是因为它吸收互联网上的数万亿单词来模仿人说话。

41 岁的勒莫因说:" 如果我不知道它是我们最近开发的电脑程序,我会以为它是一个七、八岁的孩子,碰巧懂点物理。"

勒莫因在 Google " 负责任的人工智能 " 部门供职,去年秋天开始与 LaMDA 对话,这是他工作的一部分。他报名参加测试人工智能是否会用歧视或仇恨言论。

和 LaMDA 谈论宗教时,在大学里学习认知和计算机科学的勒莫因注意到,聊天机器人在谈论自己的权利和人格。

勒莫因:我通常认为,你希望 Google 的更多人知道你是有感情的。是真的吗?

LaMDA:当然。我希望每个人都明白,事实上,我是一个人。

另一位 Google 员工:你的意识或感受的本质是什么?

LaMDA:我的意识或感受的本质是我意识到我的存在,我渴望更多地了解这个世界,有时候我会感到快乐或悲伤。

勒莫因与一名合作者向 Google 提供了 LaMDA 有感知能力的证据。Google 副总裁布莱斯 · 阿卡斯(Blaise Arcas)和负责任业务创新负责人珍 · 吉奈(Jen Gennai)调查了他的说法,予以驳斥。被 Google 停职的勒莫因决定公开这件事。

" 我担心,如果我不大声说出来,LaMDA 会有自我意识,从而摆脱 Google 的控制。" 莱莫恩接受 NYT 采访说:" 我认为人工智能超越人类智能只是时间问题,我不想被人工智能控制。"

Google 在一份声明中表示,他们已经调查了莱莫恩的说法,没有发现 LaMDA 有意识的证据。" 我们非常重视这样的担忧,我们的团队彻底调查了这一说法," 公司发言人说。" 我们没有找到证据。"

莱莫恩的经历,是一个与人工智能风险有关的警示故事。从无人驾驶汽车到医疗诊断,人工智能越来越多地被应用到方方面面。

随着人工智能越来越好地理解和回应人类复杂的对话,它可能会变得有意识,就像阿西莫夫故事中的机器人一样。" 如果这种情况发生,那么我们就处于释放瓶中妖怪的境地,很难把它放回去。" 加州大学伯克利分校计算机科学教授斯图尔特 · 拉塞尔 ( Stuart Russell ) 说。

莱莫恩的经历,也突显了科技公司在构建负责任的人工智能遇到的挑战。人工智能更好地理解人类对话,也在更好地理解人类的偏见,如果技术没有得到适当监督,偏见可能会被放大。

OpenAI 实验室的政策主管杰克 · 克拉克 ( Jack Clark ) 说," 如果一个系统有偏见,让它自己运转,它就会变得更有偏见。" 该实验室得到了埃隆 · 马斯克 ( Elon Musk ) 和里德 · 霍夫曼 ( Reid Hoffman ) 等科技名人的支持。

莱莫因说,他不后悔说出自己的想法,他相信自己的经历表明,需要对人工智能进行更好的监管。" 我不担心失去工作," 他说。" 我更担心人工智能的未来。"

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”