编者的话:AI变得越来越聪明了吗?围棋“人机世界大战”中,人工智能程序AlphaGo击败围棋世界冠军李世石,关于“人工智能时代来临”的呼声甚嚣尘上,一定程度上引起了我们的恐慌,无论是电脑替代人脑,还是AI统治世界,似乎已经存在于可以预见的未来。2020年世界人工智能大会演讲嘉宾盖瑞·马库斯对此有不同理解,他的新书《如何创造可信的AI》中,精心绘制了一条AI未来路线图,探讨人工智能的深度理解学习能力。
《如何创造可信的AI》
[美] 盖瑞·马库斯 欧内斯特·戴维斯 著
龙志勇 译
湛庐文化·浙江教育出版社
若要征服世界,机器人首先要有这样一个欲望,要有力争上游、野心勃勃、永不知足的性格,还要有暴力倾向。至今为止,我们所见的机器人都沾不上边。
我们根本没有理由认为机器人会以科幻小说的风格发动针对人类的起义。在AI的60年发展过程中,我们根本没有从AI身上觉察到一丝一毫的恶意。对人类所关注的领地、财产、胜者为王的权力,或是人类历史上曾被争夺过的任何资源或利益,AI都表现得毫无半点兴趣。AI没有满腔的雄性激素,没有征服全世界的狂傲欲望。AI充其量不过是井底之蛙般的书呆子和白痴专家,只专注于其所在的一个小圈子,根本意识不到井外还有一个更大的世界。
以围棋为例。围棋的本质,就是争夺领地。会下围棋的AI,基本就是现如今征服世界能力最强的AI了。在20世纪70年代,计算机围棋程序水平很低,稍有水平的人类玩家就能轻而易举地将其打败。而当时的计算机,并没有表现出任何想要跟人类耍手段的迹象。而现在,围棋程序的技巧变得极其精湛,就连最优秀的人类玩家也不能望其项背。但计算机依然没有兴趣去征服人类领地,更没有兴趣将人类程序员关到动物园的笼子里。只要不是摆在棋盘上的东西,它们就不感兴趣。
关于“围棋棋盘之外是否还有其他有趣的事情”这样的问题,AlphaGo根本不在乎,更不会在乎“我这帮人类主人让我整天下围棋,其他什么都不让我做,这样公平吗”之类的问题。
在棋盘之外,AlphaGo没有生命,也没有好奇心。它甚至都不知道围棋是用石子作为棋子来下的,也不知道棋盘之外还有其他事物的存在。它不知道自己是台需要插电的计算机,也不知道对手是需要吃饭的人类。它不记得自己在过去下过很多盘围棋,也预见不到自己在未来将会下更多盘围棋。赢得一盘棋,它不会欣慰,输掉一盘棋,它没有失落。在下围棋上取得了惊人的进展,它也不会骄傲。
真实世界中,人们奋勇前行的那股动力在机器身上根本不存在。若是实在想要为算法描绘出一点人性化的意味(此处没什么道理可讲),你可以说,AlphaGo非常满足于自己现在所做的事情,对其他事情完全没有任何欲望。
针对医疗诊断、广告推荐、导航或任何其他领域的AI,我们都可以借用上面这段逻辑。至少在目前的应用场景中,机器只会去做程序中指定的工作,除此之外别无其他。只要我们能保持这样的状态,就用不着杞人忧天地担心科幻小说中想象出来的情景。
目前,机器人尚不具备行走于世界所需的智慧或灵巧性,只能在经过精心控制的环境中发挥作用。我们根本没有理由认为机器人会以科幻小说的风格发动针对人类的起义。
至少在我们可预见的未来,这样的状况不会发生。
有一个迄今为止尚未得到解决的问题,就是机器在面对人类的弦外之音甚至含混不清的表达时,必须能对人类意图进行准确推测。一方面,存在我们所称的“糊涂女佣”问题。“糊涂女佣”是儿童绘本中描述的一位女佣,她只会听从主人指示字面上的意思。想象一下,如果你早上出门前跟清洁机器人说“将客厅的东西收到衣柜里”,结果回家一看,客厅里的每一样东西果然都被装进了衣柜里,而且为了能装进去,机器人还不遗余力地将电视、家具和地毯分拆成了小块。
2016年3月23日,微软怀着激动的心情,发布了名为Tay的全新聊天机器人。Tay和最初那个名为伊丽莎的聊天机器人一样,并未事先人工预置好全部内容,而是在与用户互动中不断学习,逐渐发展。之前微软曾发布过一款名为“小冰”的中文聊天机器人,在中国取得了巨大成功。由此,微软在Tay上也倾注了很高的期望。
然而,一天时间不到,此项目就被匆匆叫停。因为一群心怀不轨的用户,蓄意让Tay去学习那些有关种族歧视、性别歧视和反犹太主义的愤怒话语。无辜的Tay有样学样,发了不堪入目的推文。
互联网的其他地方也存在着各种大大小小的问题。亚马逊的语言助手Alexa会毫无征兆地突然嘿嘿笑一阵,让用户毛骨悚然。iPhone的面部识别系统会将母亲和儿子搞混。还有“一坨狗屎引发的血案”—当扫地机器人路过一坨狗屎,就会变身粉刷匠,蘸着这坨“颜料”在你家地板所有能经过和进出的地方画出一幅杰克逊·波洛克风格的线条抽象画。
常识是人们普遍掌握的知识,也就是普通老百姓都具备的基本知识,比如“人们不想让自己的钱丢掉”“我们能把钱放在钱包里”“可以把钱包放在口袋里”“刀是用来切东西的”,以及“在东西上面盖上一条毯子,并不会让东西消失”。如果我们看见狗背着大象,或是椅子变成了电视机,肯定会大吃一惊。
常识的最大讽刺,实际上也是AI的最大讽刺,就在于常识是每个人都了解的,但似乎没有人确切地知道常识究竟是什么,以及如何建造出具备常识的机器。
为了对人工智能应该具备什么样的知识进行盘点和定义,我们必须引入语义网络的概念。请想象一个这样的语义网络,粗略看来似乎没什么问题:迈克尔·乔丹身高1.98米,他出生在布鲁克林,等等。但是深入观察就会发现,如果系统只知道图中所包含的内容,而其他一概不知,就很容易犯各种愚蠢的错误。系统可能会认为迈克尔·乔丹出生时就有1.98米,或者乔丹同时为奇才队和公牛队效力。“打篮球” 这个说法既可以指代他的职业生涯,也可以指代从他小时候第一次接触篮球一直到现在(假设他现在还会偶尔和朋友一起以休闲娱乐为目的而打篮球)。
如果我们告诉系统,乔丹从1970年到现在一直打篮球,假设从他7岁的时候开始打球,一直坚持到现在,那么系统一定会错误地认为乔丹在过去的48年间一天24小时,一年365天永不停歇地打篮球。
计算机之所以不够智能,真正原因就在于它们对世界的运行方式缺乏基本理解。可惜,掌握常识这件事远比人们想象的要难上许多。
短期的解决办法,是对我们亲手构建的人工智能进行限制,确保AI不可能去做任何可能产生严重后果的事情,并纠正我们发现的每一个错误。
但从长期来看,甚至从短期来看,这样做都无法解决问题。我们经常是头痛医头脚痛医脚,而不是给出全面的解决方案。摆脱这种混乱局面的唯一方法,就是着手建造具备常识、认知模型和强大推理工具的机器。将上述能力结合为一体,可以形成深度理解,这本身就是构建能可靠预测并评估自身行为结果的机器的先决条件。只有整个行业 将注意力从统计模拟和对大数据的严重而肤浅的依赖上转移过来,这场伟大的事业才能正式启动。我们要用更加优秀的人工智能来治愈有风险的人工智能,而通往更加优秀人工智能的阳光大道,就是打造对世界拥有真正理解的人工智能。
可信的AI,也就是基于推理、常识性价值和良好工程实践的人工智能, 无论是出现在10年之后还是百年之后,有朝一日若真能实现,定会掀起一场巨大的变革。
然而,谁都无法假装自己有能力预测未来的所有分支。在1982年的电影《银翼杀手》中,世界上到处都是先进的人工智能复制人,他们看起来和人类几乎没有什么区别。然而在一个关键时刻,哈里森·福特饰演的里克·狄卡在一个公用电话前停下来打了个电话。在现实世界中,用手机取代付费电话要比构建人类级别的人工智能容易得多,但电影摄制组中没有人预料到这个时代问题。在任何关于技术突飞猛进的预测中,无论是我们做出的还是别人做出的预测,都必然会存在一些非常明显的偏差。
公元前600年,当泰勒斯开始研究“电”的时候,他知道自己发现了某种意义非凡的东西,但当时的条件还不可能预料到这东西的确切用途。他肯定想不到,有朝一日,电会引发社交网络的发展,会孕育出智能手表、维基百科这样神奇的事物。由此看来,若想在当下预测出人工智能未来的发展走向,或是人工智能在千年之后,哪怕是500年之后对整个世界形成的影响,实在是夜郎自大。
我们所知道的,就是人工智能正在不断发展的过程之中,所以,我们最好尽自己最大的力量,确保接下来会发生的一切都是安全、可信、可靠的,并在我们的引导之下,让人工智能尽可能地为全人类提供帮助。
摘编自《如何创造可信的AI》