http://www.nature.com/polopoly_fs/7.24696.1427198673!/image/WV.jpg_gen/derivatives/box_100/WV.jpg

 

  智能机器人总有一天会与人类为敌,这种担忧在人类社会普遍存在。但本文作者、伦敦帝国大学外科讲师胡坦·阿什拉费恩(Hutan Ashrafian,上图)指出:有没有人想过,有谁能保护机器人不受来自其他机器人和人类的伤害呢?
 

“机器人权”理念的出现

  在不久的将来,以机器人形式出现的人工智能(AIs)也许具有思维能力,而且这种可能性越来越大。无论采取何种形式,机器意识的出现将会给人类社会带来重大影响。
 
  几个月前,物理学家斯蒂文·霍金(Stephen Hawking)和微软创始人比尔·盖茨(Bill Gates)警告说,智能机器人将会变得越来越强大,人类甚至难以控制它们。长期以来,科幻作品经常以智能机器人的道德难题以及它们如何与人类共处作为主题,最为典型的是1982年拍摄的电影《银翼杀手》和今年上映的《机械姬》。
 
  在研究AIs时,学术界和艺术界大多关注的是人和机器人之间的相互关系问题,譬如:机器人会使人类生活更好吗?它们会很危险吗?未来它们会成为人类的威胁吗?但这些都忽略了至关重要的一点,即我们还必须考虑智能机器人之间的相互关系,或它们彼此的交流对创造它们的人类会产生怎样的影响。例如,如果我们允许智能机器对其他机器人实施侵害――即使这类“犯罪”没有直接影响人类的利益,却可能对人类社会产生不好的影响。诸如此类的这类哲学研讨为“机器人权”理念的出现铺平了道路。
 
  通常有关开发机器人的讨论都引用了科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的“机器人学三定律”:1.机器人不得伤害人类,也不得见人类受到伤害而袖手旁观;2.机器人必须服从人类的指令,但不得违反第一定律;3.机器人应保护自身的安全,但不得违反第一、第二定律。然而,这些定律都没有提及机器人应该如何对待彼此,包括忽略其他具有思想的机器的权利,这显然是不合理的。
 
  人类已经为表现出思维活动的动物赋予权利和保护,目前文明社会也蔑视那些为了娱乐而设立的斗兽项目。由此可见,比动物更智能的机器人也不应该为了人类的娱乐而相互打斗。毫无疑问的是,军用机器人必须部署在战场上。但除了正当战争之外,迫使AIs和机器人发生冲突、或虐待它们,是有违人类道德、伦理和心理健康的。
 

迎接智能族群的到来

  尽管智能机器人还存在于科幻小说里,但有必要从现在开始认真对待这些问题。例如,英国工程与自然科学研究理事会(EPSRC)和艺术与人文科学研究理事会(AHRC)已经提出了一套机器人设计原则:强调机器人是工业产品,人类必须对它们负责。
 
  科学家、哲学家和决策者必须更深入地思考机器人和AIs之间的关系,包括提出有关AIs的国际宪章(类似联合国的《世界人权宣言》),这将在研发过程中有助于引导人们在道德上更加慎重地对待机器人和AIs,包括引入针对人工智能和机器人的人道主义法(AIonAI)理念,以期研制出安全的AIs。甚至应该设立一个AIonAI年度奖项,以奖励那些最无私的AIs设计。
 
  在推进AIonAI理念的同时,社会学家、哲学家应该加强与机器人学与计算机科学的联系。投资人除了支持AIs开发,也应该向诸如惠康基金会等医学研究投资者看齐:既支持尖端健康研究,同时为医学伦理学和历史研究提供资金。
 
  当前和未来,从事AIs和机器人研究的机构在关注AIonAI理念的同时,应举办以AIonAI为议题的研讨会,为出台相关的指导方针和政策做铺垫,激励下一代机器人工程师和AI研究者掌握AIonAI原则。就如同进入英国政界工作的学生必须掌握PPE课程(政治学、哲学和经济学)一样,相应的,对机器人学和AIs感兴趣的学生则要学习CEP课程(计算机科学、工程学和哲学)。
 
  同时,我们必须把阿西莫夫的机器人学三定律拓展到与AIonAI对应的相互关系上。我为此提出第四定律:所有被赋予人性和是非观的机器人,都应该友善地对待其他机器人。
 
  不要低估人工思维机器到来的可能性。人类将要迎接一个新的智能族群的到来。无论这个族群是否是“人工的”,都不会影响这个问题的存在:新的数字族群应该得到尊严与权利,应该有新的法则来保护它们。
 
 

资料来源 Nature

责任编辑 则 鸣