婴儿天生具有帮助我们学习常识的本能,但迄今为止,开发人工智能算法的这种本能离我们还有些遥远

 

  二月里的一个周六上午,克洛伊,一个身穿条纹衬衫和打底裤的3岁孩子,正好奇地探索新玩具的种种可能玩法。她的父亲加里·马库斯(Gary Marcus)是纽约大学的一名发展认知科学家,他带回家一些可以用来粘住乐高积木的胶带。积木玩得很熟练的克洛伊对这种胶带很感兴趣,以前她都是将积木往上搭,堆得越高越好,但如果用了这些胶带,她能否将积木向水平方向,或颠倒过来搭建呢?马库斯建议她可以从桌子侧面向外搭建。10分钟后,克洛伊开始用胶带把积木粘到墙上。“我们最好在妈妈回来之前做好这件事,”马库斯用一种平淡的声调说,“她会不高兴的。”(剧透:胶带会令墙上油漆受损。)
 
  在马库斯与女儿的游戏中隐含着一个科学实验。克洛伊能把她学到的某种知识应用到一个新的环境中吗?几分钟后,她就成功搭建了一个从墙体向外延伸的乐高积木雕塑。“爸爸,我做到了!”她大声叫道。在对新获得知识的灵活应用中,克洛伊展现了一种常识能力,到目前为止计算机科学家一直在努力想要让人工智能(AI)复制的人类的一种智力,一种本能。马库斯认为人工智能将从像克洛伊这样的小小思想家这里学会这些能力。
 
  机器学习研究人员认为,通过海量数据训练的计算机几乎不需要多少编程指令,就能学会包括人类常识在内的任何东西。马库斯认为这些专家存在认识上的“盲点”,常识是一种社会性的东西,“物理嫉妒”的一种形式,在这方面人们认为越简单越好。他认为计算机科学家忽视了几十年来认知科学和发展心理学方面的研究成果,这些研究表明,人类在出生时或在幼年时表现出来的一些与生俱来的能力,能够帮助我们抽象地、灵活地思考,就像克洛伊那样。他认为人工智能研究者应该将这种本能纳入他们的AI编程计划中。
 
  然而,许多为机器学习取得的一些成功洋洋自得的计算机科学家们,正在急不可耐地探索人工智能的极限。俄勒冈州立大学的计算机科学家托马斯·迪特里奇(ThomasDietterich)说道,“我认为,大多数机器学习研究者,在为人工智能提供大量背景知识上,都有方法论上的偏见,因为在某种意义上,我们将这种做法视为一种失败。”他还补充说道,计算机科学家也欣赏简洁,不喜欢调试复杂的代码。麻省理工学院心理学家乔希·泰南鲍姆(JoshTenenbaum)说道,像脸书和谷歌这类大公司是推动人工智能向那个方向发展的另一个因素,这些公司最感兴趣的是定义狭窄的短期问题,如网络搜索和面部识别,在这些领域内,像一张白纸一样单纯的AI系统可以通过海量数据集的训练,非常出色地完成许多工作。
 
  但从长远来看,计算机科学家预计,AI们将要承担需要灵活性和常识的更艰巨任务。他们需要创造出能够为人们解说新闻的聊天机器人,可以在混乱的城市交通中安全行驶的自动出租车以及能够照顾老人的机器人。泰南鲍姆说,“如果我们想要制造出能在机器人C3PO所处的人类世界中真正互动的机器人,我们就需要在更一般的环境中解决所有这些问题。”
 
  一些计算机科学家已经在进行这方面的尝试。2018年2月,麻省理工学院启动了“智力探索”(IntelligenceQuest)研究计划,目前正在筹集数亿美元用于探索通过编程语言理解人类智力的途径。研究人员希望,这类研究将产生介于纯粹的机器学习和纯粹的人类本能之间的某种人工智能。他们将从嵌入式规则开始启动,让机器一边发展一边学习。“从某种意义上说,这就像由来已久的先天与后天的辩论,只是如今被翻译成编程语言而已。”特南鲍姆说道。
 
  部分探索将发现婴儿知道些什么,以及从什么时候开始知道的,并将这些发现应用到机器学习上。位于华盛顿西雅图的艾伦人工智能研究所(AI2)的首席执行官奥伦·艾齐奥尼(Oren Etzioni)说道,这需要时间。AI2最近宣布了一项1.25亿美元的研究项目,目的是开发和测试人工智能的常识能力。“我们希望建立在人类大脑固有的代表性结构上,”艾齐奥尼说,“但我们不理解大脑是如何处理语言、推理和知识的。”
 
  最后,特南鲍姆说,“我们正试图认真对待人工智能最古老的梦想之一:开发一种像人类婴儿一样成长的智能机器人,像婴儿一样开始,像孩子一样学习。”
 
  在过去的几年中,人工智能已经证明它可以翻译语音,诊断癌症,并在扑克游戏中击败人类。但在获得的每一次胜利中,它们也都会犯一个大的错误。例如,图像识别算法现在可以比人类更好地分辨狗的不同品种,但它们有时却会把一只吉娃娃误认为蓝莓松饼。在经典的电脑游戏《太空入侵者》中,人工智能拥有超人般的游戏技能,但如果移除掉游戏中几乎所有的外星人,只留下一个外星人,人工智能就会莫名其妙地陷入不知所措的困境。
 
  机器学习是人工智能的一种,但成是它们,败也是它们。从广义上讲,人工智能已经从依赖于许多编程规则(也称为老式人工智能,简称为GOFAI)的软件转移到通过反复试验而学习的系统。得益于强大的计算机、大数据和被称为神经网络的算法上的进步,机器学习已开始启动。这些网络是由简单的计算元素组成的集合,这些元素在某种意义上模拟了人类大脑中的神经元,在它们摄取训练数据时,会产生更强或更弱的“神经元”连接。
 
  自Alpha的成功之后,谷歌旗下的“深度思维”(DeepMind)项目一直在推动深度学习的发展。每次去掉一些规则,软件似乎一直在改进。2016年,机器人阿尔法围棋(AlphaGo)击败了人类围棋冠军李世石,围棋是源自中国的一种经典战略游戏。在接下来的一年里,AlphaGoZero以更少的编程指令轻而易举地击败了AlphaGo,几个月后,一个更简洁的AlphaZero系统在击败AlphaGo的同时,还掌握了国际象棋的玩法。
 
  1997年,一个经典的、基于规则的人工智能,IBM的深蓝击败了国际象棋冠军加里·卡斯帕罗夫(GarryKasparov),但事实证明,真正的国际象棋技巧在于知道例外的例外,即通过经验收集到的信息。AlphaZero通过不断地下棋来学习,可以打败深蓝这个如今最好的象棋程序,以及每一个人类冠军。
 
  然而,像Alpha这样的系统显然并没有从中汲取到有关常识的知识。如果改用21x21的围棋棋盘,而不是标准的19x19的棋盘,人工智能将不得不重新学习游戏规则。20世纪90年代末,马库斯培训了一个人工智能网络,让它输入某个数字,再输出这个数字,这是可以想象得到的最简单的任务,但他只训练它输入输出偶数,因此当他再用奇数对这个人工智能网络进行测试时,网络就会陷入困境。它不能将学习到的知识从某个领域应用到另一个领域,就像克洛伊开始将她的乐高积木向侧面搭建那样。
 
  答案不是再回到基于规则的人工智能设计模式(GOFAIs)。一个孩子认识狗并不是从基本规则开始的,比如“有四条腿、有一条尾巴,大小像猫”那样的动物是“狗”,孩子的识别方式更加微妙,哪怕是只长了3条腿的一只吉娃娃,一个3岁的孩子也不会认不出它是一条狗。人类的认知不是一块空白的白板,也不是固定不变的。相反,有证据表明,我们拥有一些可以帮助我们学习和思考这个世界的特质。大自然赋予我们的不是一个技能库,而是为我们搭建了一个如何认识世界的框架。

 

机器学习的胜利:AlphaGo2017年击败了围棋冠军柯洁

 

  哈佛大学心理学家伊丽莎白·斯波克(ElizabethSpelke)认为,我们至少拥有4种“核心知识”系统,让我们在理解物体、动作、数字和空间方面拥有一个良好的开端。我们是凭直觉获得知识的物理学家,例如,快速理解物体及其相互作用。根据一项研究,出生只有3天的婴儿能够将一根杆子隐藏部分的两头理解为整个实体的一部分,这表明我们的大脑可能倾向于感知有紧密结合关系的物体。我们还是直观的心理学家,在2017年的一项科学研究中,斯波克实验室的研究生莎丽·刘(ShariLiu)发现,10个月大的婴儿可以推断出,当一个动画人物爬上一座高山拿取某个模型而不是另一个时,这个动画人物一定更喜欢前者。马库斯证明7个月大的婴儿已开始学习一些语言规则,当包含三个单词的句子(“wo fe fe”)打破了之前听到句子的语法模式(“ga ti ga”)时,他们会感到惊讶。根据后来的研究,新生儿也表现出类似的行为。
 
  马库斯列出了他认为应该被纳入人工智能的包括10种人类本能的最小清单,其中包括因果关系、成本效益分析以及类型与实例等概念,如,狗的概念与我的狗的概念。2017年10月,他在纽约大学一场关于人工智能是否需要“更多先天机制”的辩论中,面对纽约大学计算机科学家、Facebook首席人工智能科学家扬·勒坎(YannLeCun),他提出了自己的论证观点。为证明他关于直觉的观点,马库斯展示了一头刚出生不久的小野山羊在悬崖绝壁上往下跑的幻灯片,他说,“它们不可能通过反复试验来学会这种生存技能,它只要犯一次错误,就有可能导致致命的后果。”
 
  勒坎并不认同许多发展心理学家的观点,他认为婴儿有可能在几天时间内学会这种能力,如果是这样的话,机器学习算法也可以。他的信念来自于经验,他从事的是图像识别研究工作,早在20世纪80年代他就提出,没有必要通过手工编码算法来进行图片特征识别,30年后他被证明是正确的。有批评者问他,“既然可以通过编码来建立算法,你为什么要让机器通过学习来识别呢?”他的回答是:建立某种算法并不容易,如果你不能完全理解某件事是如何运作的,那么你所设计的规则很有可能会是错误的。
 
  但是马库斯指出,勒坎自己已将10个关键本能中的一个嵌入到了他的图像识别算法中:平移不变性,即:某个物体,无论它出现在视野中的某个地方,都能将其识别为同一个物体的一种能力。平移不变性是卷积神经网络背后的原理,卷积神经网络是为勒坎带来最大名声的研究成果。在过去5年里,卷积神经网络已经成为图像识别和其他人工智能应用的核心,并从而开启了当前对人工智能深度学习研究的狂热。
 
  勒坎告诉《科学》杂志说,平移不变性也可能最终通过更好的一般性学习机制而自行出现。他说,“很多这样的东西会在了解世界运作的过程中自发地出现。”加拿大多伦多大学的“深度学习”先驱杰弗里·辛顿(GeoffreyHinton)也认同这一观点,“大多数相信先天知识的人都有一种毫无根据的信念,即很难从头开始学习数十亿个参数。但我认为,最近在深度学习方面取得的进展表明,这实际上是非常容易的。”
 
  关于人工智能在纯学习和纯本能之间的定位的争论还将继续下去。但争论忽略了一个更为实际的问题:如何设计和编码这种混合型的人工智能机器,如何将机器学习――它的数十亿神经网络参数――与规则和逻辑结合起来,目前还不清楚,而如何确定最重要的本能并对其进行灵活编码,目前也还不清楚。但这些挑战都未能阻止一些研究人员和公司进行这方面的尝试。
 
  位于澳大利亚悉尼的新南威尔士大学的机器人实验室,布置得就像客厅和厨房,冰箱里贮藏着一瓶瓶高级啤酒。计算机科学家迈克尔·蒂尔舍尔(Michael Thielscher)解释说,这里实际上是家用机器人的一个测试实验室,他的团队正在尝试赋予一款丰田人类辅助机器人(HSR)两种类似人类的本能,这款人类助手机器人有一个手臂和一个作为脸部的屏幕。他们希望通过为HSR编程,将一些具有挑战性的问题分解为更小、更容易解决的问题,就像人们将一道食谱分解成几个步骤一样。其次,他们想赋予机器人对信念和目标的推理能力,即人类本能地考虑他人想法的一种能力。如果一个人想要机器人为他去拿一只红色的杯子,但它发现只有一个蓝色的杯子和一个红色的盘子,它会如何做出选择?
 
  到目前为止,他们设计的软件已显示了一些类似于人类的能力,包括决定拿蓝色杯子而不是去拿红色盘子的这种良好的判断能力,但是需要被编入系统的规则比蒂尔舍尔计划的要多得多。因此,他的团队不得不告诉AI,杯子通常比红色更重要,在理想的情况下,机器人会有一种社会本能,可以快速地自动学会人类的喜好。
 
  其他研究人员正致力于为他们的AI们注入类似于婴儿似乎与生俱来的同样的能力,即直观理解物质世界的能力。伦敦“深度思维”(DeepMind)项目的计算机科学家开发出了他们所称的“互动网络”,包含了关于物质世界的假设:离散物体是客观存在的,并有其独特的相互作用。就像婴儿快速地将世界解析为相互作用的一个个实体一样,这些人工智能系统也很容易地学会了对象的属性和相互之间的关系。他们的研究结果表明,交互网络能够比一般的神经网络更准确地预测自由落体时线绳和和球体在盒子里弹跳的行为轨迹。
 
  位于加州旧金山的机器人软件公司Vicarious目前正在利用其所称的图式网络进一步拓展这一理念。他们开发的这些系统假设了物体和其相互作用的存在,但同时还试图推断出它们之间的因果关系。随着时间的推移,这个公司开发的软件通常学习可以像人类一样,从期望达到的结果向后倒推计划,就像人们通过让鼻子停止发痒的结果得知,挠痒可能会有所帮助一样。研究人员将他们的方法与美国电脑游戏机厂商雅达利公司开发的最先进的神经网络进行了比较,在雅达利公司开发的游戏中,玩家可以通过滑动球拍让一个球发生偏转,然后击倒一堆砖块。而因为图式网络可以学会因果关系,例如,无论球的速度如何,都能击倒砖墙,因此,它不需要新的训练就能学会有所改变的游戏规则。例如,你可以移动目标砖块的位置,或者让玩家同时玩三个球,图式网络仍然能在游戏中应付裕如,表现出色,卷积神经网络则无法做到。
 
  除了我们天生的一些能力外,人类还得益于大多数人工智能所没有的东西:身体。为帮助软件理解和解释世界,Vicarious公司给它嵌入了“具体的身体”,这样它就可以在虚拟环境中探索,就像婴儿通过推倒一组积木来学习重力一样。2018年2月,Vicarious推出的一个系统可在二维场景中寻找有界区域,让一个小小的虚拟人物在这个区域中活动,在它的探索过程中,系统学会了包含的概念,这有助于它比标准图像识别的卷积神经网络更快地理解一些新的场景,后者只能被动地对每个场景进行全面探查。概念是适用于许多情况的一种知识,它对于常识来说至关重要。“在机器人技术中,机器人能够对新情况进行推理是极为重要的一环。”Vicarious公司的创始人之一迪利普·乔治(Dileep George)说道。今年晚些时候,该公司将在仓库和工厂中测试其软件,这一软件将帮助那里的机器人在包装和运输之前,对产品或货物进行收集、组装等工作。

 

 

  最具挑战性的任务之一是对本能进行灵活编码,这样一来,AI们就能应付一个不总是遵循规则的混乱世界。例如,自动驾驶汽车不能指望其他司机都像它一样严格遵守交通法规。为了应对这种不可预测性,加州斯坦福大学的心理学家和计算机科学家诺亚·古德曼(NoahGoodman)帮助开发了概率编程语言(PPLs)。据他描述,该编程语言将计算机代码的刚性结构与概率数学相结合,与人们遵循逻辑方式、但也允许不确定性存在的方式相呼应,例如,如果草地是湿的,有可能是因为才下过雨,但也有可能是因为有人开了洒水器。至关重要的是,PPL可以与深度学习网络相结合,形成更广泛的学习能力。
 
  在优步公司工作时,古德曼和其他人发明了这样一种“深度学习PPL”,叫作Pyro。一家共享租车公司正在探索Pyro的应用,例如,如何在道路建设和有比赛的日子里对司机和路线规划的适应性进行安排等。古德曼说,PPLs不仅可以解释推断物质世界和物流的一些现象,还可以理解人们之间是如何交流的,例如如何应对诸如夸张、反语和讽刺等棘手的表达方式。
 
  克洛伊可能要等到她成长到十几岁的时候才能掌握语言中的讽刺现象,但她天生的语言能力已经很明显了。在马库斯公寓里的一个场景中,她拿着一对被卡住的乐高积木说,“爸爸,你能帮我untach这个吗?”她按自己的想法创造了一个新词,意思是让父亲帮她弄开卡住的两块积木,但她的父亲忍住了想要纠正她错误用词的想法。语言和思想就像乐高积木一样,它们的部件很容易被混合搭配使用,并热切地想要在世界上进行实际测试。
 
  在克洛伊厌倦了在墙上搭建积木后,一个比她年龄更大、更有经验的智能系统有机会尝试一下:她5岁的机器人“兄弟”亚历山大,它很快在墙上搭建了一个比克洛伊向外伸出更远的乐高积木建筑。“你可以看出,它做的事情是建立在克洛伊所做事情的基础之上的。”马库斯说。当问及这个墙上结构向外延伸多远才会倒下时,亚历山大的估计很准确。“为了评估结构的完整性,它对可粘在墙上的乐高积木进行了1000万次的反复试验,它结合了它所知道的所有关于物质世界的知识,并进行了一些推理和推断。”马库斯说。
 
  马库斯看起来很自豪,他自豪的不仅是他后代的能力,同时也为这种能力支持了他关于我们如何了解这个世界,以及人工智能应该如何学习的理论而自豪。在完成了他们的乐高建筑后,克洛伊和亚历山大投入了他们父亲的怀抱,当他抱着他们转圈的时候,他们高兴地尖叫起来,给他们另一个机会来调整他们对物质世界的直觉,并感受到其中的乐趣。

 

 

资料来源 Science

责任编辑 彦隐