提要:机器人的发展及其由之出现的新兴权利将对整个司法犯罪体系和我们的社会机构的哲学政治世界观产生重大的影响。计算机技术的发展将迫使我们对活的概念和权利概念重新定义。随着人工智能的进展,机器人将被认为是活的。机器人在下一个2550年很可能会有权利。电子司法机关有可能代替法院审理案件。妨碍我们理解机器人和人有相似性的是我们的“人类中心论”。随着智能机器人的发展,我们的宪法和法律可能需要修改或重写。有朝一日可能出现机器人法官和机器人律师在法庭上进行唇枪舌剑的场面。不可能的并非总是幻想的,幻想的并非总是不可能的。

在最近的5年里,哈佛司法部设立了一个作为其综合规划方案的一个组成部分的未来研究分部。起初,未来研究侧重关心的是些新出现的识别性问题,即决策者缺乏认识而又富有潜在影响的一些问题。

目前哈佛司法部的未来研究方案包括各种活动:研究立法对司法的可能影响;预测未来的承办案件量;发表有关新出现的问题、趋势和研究结果的新闻报导,为决策者提供有关技术、经济、人口、管理和犯罪的研究信息。

最近几年集中短、中期的未来研究。我们对一个长期出现的问题——机器人的权利——仍怀有浓厚兴趣。“机器人应该有权利吗?”对这一问题的肯定性回答一直受到怀疑。政界人士常常对这种研究的意图或可信性提出质疑。许多未来学家,特别是那些关心环境或人道主义未来的人士,也持不赞成的态度,他们认为我们不知道机器人学的第二级、第三级影响——潜在经济混乱,增强进界资本主义体系,和把人仅看作是一种特殊型式的计算机的信仰系统的产生。

那么,我们在这种不断的冷嘲热讽面前,为什么还要继续研讨这一主题呢?我们认为机器人的发展及其由之出现的权利是个叫人非相信不可的问题,它不仅强有力地、戏剧地影响司法犯罪的正义系统,而且将影响支配我们社会机构的哲学政治观念。

在未来的几十年中,也许在若干年内,一些精制的思维装置将被研制出来,它们被安置在自行推进的罩具内,人们将把它称之为机器人。现在,机器人被普遍地看作是机器——非生物,因此它们没有权利。有人争辩说,机器人的灵活性非常有限,必须人为地给它们编制“思想”程序,它们没有感觉和同感觉相关的情绪,它们不具备认为是活的那种基本特性。但是,明天的机器人无疑地会具有这方面的诸多特性,也许可能同它的人类对应物结成亲密的伙伴。

我们以为机器人有朝一日总会有权利。这无疑是件有历史意义的事件。显然,权利的这样一种扩展需要有一种将基本不同于现在的未来。权利向机器人扩展可能有助于我们对人类、机器和自然的这种相互联系的权利和责任的重新评价。随着权利向自然万物的整体扩展,从动物、树木到海洋,于是万物的责任、义务和尊敬便有了一种新的意义。的确,这些概念对我们今天的大多数人的世界观来说是陌生的。本文的旨意是要使读者相信:在下一个20 ~ 50年内,机器人很可能会有权利。

文化透视

权利的定义在历史上向来是成问题的,部分地是因为对什么是权利存在着许多大相径庭的定义。这些基本上不同的观点多半基于政治的、制度的和文化的原因。那些当权的或有权的人对权利的定义倾向不同于那些失权的或无权的人。另外,那些供选择的宇宙论文化对自然权利、人权和个人权利的概念的定义也完全不一样。

在历史上,人类曾提出过权利的人类中心说和权利的自我中心说。权利的许多概念反映了16世纪牛顿的钟表宇宙观和笛卡尔的理性观以及当时兴起的新教伦理观。

这种观点对洛克、卢棱和霍布斯这样一些启蒙思想家的影响是深刻的。霍布斯在《利维坦》—书中对存在问题作了生动的说明。霍布斯认为没有法权的生活意味着“不断的畏惧和横死;意味着终生过着孤独烦橘、野蛮无情、贫穷潦倒和碌碌无为的生活。”随着西方资本主义和理性思想的发展,人突然对自然摆出一副统治者的架势,想取代上帝充当宇宙的中心角色。这样,人的天赋权利像法制一样被制度化、官僚化和形式化了,并且使之沿着理性路线发展下去,以便为市场资本主义的发展提供必要的稳定性和可预测性条件。

此外,这种西方资本主义的传统观念还导致个人效能的丧失,和导致妇女、非白人和宗教团体的天赋权利的消失或征服。为了繁荣资本主义,为了占有剩余产品,必须存在资本、劳动和资源的划分;就是说,必须要有剥削的资_家和受剥削的下等阶级——环境,内部的无产阶级和外部的殖民地。为了替剥削提供一种思想意识的证明,就必须把被剥削者看作是“他者”,看作是不够格的人和不够格的统治代理人,这样,自然地,生活在殖民地的人和工业化国家中的下层阶级(妇女和无产阶级)必然要被否定某些权利。另外,自然权利的否定又从西方基督教和古典笛卡尔的分类中——精神和肉体、自我和环境、自我和自然——找到了它的思想证明,同样不幸地,我们认为未来机器人权利的可能性受到资本主义制度的(下一个长波的)扩展牵制着。只有在这一事件会有助于进一步加强资本主义制度的情况下,机器人才会被赋予权利。机器人在一制度的危机时期、即当该制度受到无政府状态和法律的不可预测性的威胁时很可能会获得权利,而这一条件又可能是由人工智能和机器人的发展造成的。

社会哲学家、行为能动论者、神秘主义者P. R. 萨卡尔在《新人道主义:理智的解放》—文中说,我们必须发展一种超越自我狭隘观点的新人道主义。我们必须摆脱对自身民族、宗教和阶级的依附感情。另外,人类在给什么是“实在的”和“重要的”下定义时,必须把动植物和所有生命都考虑进去。从东方人的观点看,技术的权利是合情合理的事情,因为天地万物都是活的,宇宙是活的。

萨卡尔还预言有一天技术将会有“精神”。这种“精神”似乎跟西方的精神观念无关。萨卡尔认为精神存在于万物之中。进化是这种精神对总意识、神性和自我实现的反映和发展。一般说,人类的精神最发达,动物次之,植物再次之,岩石最差。一旦技术能发展成更明敏的东西,于是它就会像大脑一样成为精神的更好载体。精神为了表现自我总是在经常不断地在寻找表达工具。万物皆有灵魂,只是意识的层次不同罢了。

佛教的观念同这种说法有类似。佛教徒认为自我总是以进化和退化的形式在化。人类置其他有感觉的生物于不顾,把自己钦定为地球的唯一继承者,而导致了自命不凡的灾难。佛陀或他们的任何弟子虽然没有为机器人提出明确的权利,但是佛教的观点无疑包含有将万物看作人而不是物的思想。

按照美籍印第安人约吉克 · 萨卡尔和佛教的观点,我们必须同自然和技术和谐地生活——事物不仅是因为对我有用处而存在;生命为自己而存在,或者说它是最高意识的一种反映。动物、植物和机器人应该有权利,不是因为它们像人类,而是因为它们是什么。

莫利斯谈到自然法时接着说:“我们生活于一个非迷信的世界——这里强施的法律义务是人为的策略,而自然法本身并没有表明世人的权利在何处——人不可避免地停止了对野兽和事物提起诉讼的原始习惯。所以,畜牲和树木不再有任何法律义务。可是,那些放弃了自然有法律义务的高傲自大的西方人还相信自然没有权利的信条。”

莫利斯认为自然对任何诉讼都应是一当事者,无论是对人的目的还是对其自身的目的来说。自然应当有权利。“自然再也不应该因心血来潮的念头或因对可能发生的损害没有思想准备而受扰乱;想要扰乱自然正当秩序的人在着手行动前应提供充分的理由。”我们应当像为不能代表自己的儿童提供保护人那样,指定某些威权人士充当自然的保护人。莫利斯接着写道:

一俟以法令形式授予野兽、绿色森林、地表岩石和新鲜空气以法律权利并且得到了严肃认真的对待。于是,人们就会像尊重他们的其他义务一样来尊重这些义务。

自然和机器人

我们认为,这种新人道主义思想能够而且应该适用于机器人。最终,人类不仅可以把机器人看作是机械奴隶、生产品和买卖物,而且可以看作是有其自身权利的实体。当然,现在拥有权利的机器人这种想法是难以想象的,无论是从“万物是活的”东方观点看还是从“只有人是活的”西方观点看。然而正如C. 斯通说的:……通观整个法律史,权利的每次向某种新实体的继续延伸总是有点不可思议的。我们倾向于设想无权“事物”的无权性是大自然的一种天意,而不是一种出乎支持某种现状的法律协定。

斯通提醒我们记住一种显而易见的却容易忽略的事实:人类历史是排斥的历史和权力的历史。人类曾把一大群人规定为不够格人——奴隶、妇女、“异族”、儿童和外国人。这些人一向被称之为无地位、无人格、无权利和可疑的劣等人。这也涉及到本文考虑的机器人权利问题 · 把权利的概念扩展到自然界意味着自然权利的整体论意义的辩证复归。重新尊重万物权利存在的思想一旦被确认,那时对人工创造物(如机器人)的法律方面的理解问题就可能提出来。

我们在进入后工业技术驾驭的社会时,我们需要对我们自己同自然和机器的相互关系以及同这种关系相联系的权利概念重新作出评价。

计算机和机器人技术不仅使传统工业:现代化,而且还在空间、遗传工程和战争防御系统创造了大量的新机会和问题。在教育、保健、公共机构以及思想模拟方面采用这些新技术是不可避免的,而且可能是积极的,如果加以适当预测和控制的话。任何继续无视技术的这种需要或阻挠其应用的企图都将是愚蠢的、徒劳的。但是在许多方面正是我们要继续做的工作。目前的美国宪法基础和权利法案“明显地反映了十八世纪英国社会的技术、政治问题……我们要继续做的事情是重新对它进行调整解释以适应越益迅速发展的技术社会的需要。”也许我们真正要做的是根据未来的趋势和问题重写这部宪法。

为了把树木、河流、机器人和计算机包括进去,这部宪法应当重写。我们不是说机器人应该与人有同等的权利,确切地说,应当把它们看作是已知宇宙的一个整体部门。另外,虽然我们不是在主张技术崇拜,但机器人的社会规划必须提到议事日程上来,因为“技术的妖精已从瓶中出来再也无法叫它回进去了。”

机器人技术

自1946年第一台计算机UNIVAC研制问世以来,计算机对世界社会产生了深刻的影响。早在十多年前,想在办公桌、家庭或学校有一台个人计算机,那确实似乎有些想入非非的。如今人们普遍地把个人计算机当作是我们现代世界的一部分。电脑控制汽车、立体音响、电冰箱、电话系统,工厂、办公室、航空器和防御系统等不一而足。计算机的下一步发展,如流动专门设备车或机器人,可能会像个人计算机一样成家庭或车间的普通而必需的伙伴。

计算机技术的前沿是人工智能的研制和称作生物芯片(biochips)的活计算机电路的创造。人工智能的发展要求计算机在推理时作出跳跃,即使量子跳过混乱的数据,程序计算机却始终办不到这一点。计算机必须跳跃式地处理变量而不是逐一地处理每个变量,这不像是人的格式塔“aha”一声恍然大悟地作出一决策的反映,但却有类似。

研制这样一种思维计算机的一个基本困难是把思维的整体过程转换成书写语言的线性描述。常识推理并不遵循像FORTRAN计算机语言那样的逻辑程序,“例如,今天还没有会告诉你碟子和盘子之间的这种区别的程序。”需要的是为程序设计研究出一种能将中国楔形文字符号的直观意义同西方书写体的科学精确性结合起来的新语言。

活生物芯片的开发将进一步使生物机器的定义模糊不清。科学家通过对活细菌的综合研究,和模拟电子线路开关原理,为细菌的遗传发生程序编制找到了一种方法。许多科学家认为,由于芯片发生内热,硅微型化已达到了它的极限。生物芯片具有改正设计缺陷的独特能力此外,J. 麦克利尔还特别指出,“因为蛋白质有组装自己的能力,所以[有机]计算机在不同程度也会把自己组合在一起。”

按照吉纳克斯公司的凯文 · 厄尔默的说法,在创造活计算机系统过程中,他们“正在用生命这种材料制造一台计算机。”据说,这些系统最终将被高度微型化,以致可以将其移植到人体内用以调节化学的和系统的不平衡性。随着这些芯片被用于操纵机械手或者使大脑或神经损害失去作用,人 - 机器人问题即受控机体问题将会提出来。预计到1990年初,这种有机计算机的研制可望实现。这种新技术的发展将迫使我们对生命概念重下定义。在这种爆炸性的高技术创新财期,计算机同人工智能和人的接触将会迅速增加。计算机 - 智能装置特别是专家系统,目前正在医药、石油湛探、空间旅行、航空交通控制、列车管理和绘图设计等方面参事决策工作,这里提及的影响只是少数的领域。

专家系统的最大优点是它的储存最小信息的无限能力,和它的回忆信息、相互参考信息作出瞬时结论的巨大速度。最大的缺点是要说服人们相信计算机的决定,当机器人以人的模样(声音、嗅觉、视觉、形状)——类人机器人——登台时,这种不信任感将会大大减少。

在判定计算机是否能做专家决定时,必须先叙述一下专家应有的品格。MIT的兰德尔 · 戴维斯对专家作了如下定义:(1)能解决问题;(2)能说明结果;(3)能从经验中学习;(4)能重建他们的知识;(5)必要时能突破规则;(6)能决定关系;(7)他们的知识达到极限时其工作业绩体面地逊色。

目前的计算机能做到前三条,但没有重新为自己编制程序或突破规则的这种人类能力。

现在构造的机器人是无生命的。但是有理由说,随着人工智能的进展,机器将会被看作是活的。Sam N. 莱曼 · 威尔齐格认为有根据说,人工智能机器人已经造出来,或者按照“活的”大多数定义,人工智能机器人将是可能的。下面引证的是他的“关于人工智能的法律定义”一文中的一段话:

按照任何定义,目前人工智能机器人的能力既令人钦佩又使人担忧。控制论专家已经证明人工智能构造物能做到如下几点要求:

(1)“模仿任何其他机器的行为”。

(2)好奇心(即为了研究它们的环境总是在移动);自我识别(即对它们自己的视觉能作出反映);相互识别其同类机种的成员。

(3)从它们自身的错误中学习。

(4)像人一样“有创造力的”和“有目的的”,甚至会“寻找它们力所能及的目标”。

(5)再生自己的能力(五种不同方式),其中第五种——“自我再生的随机方式”——颇类似于通过变异进化的生物(对机器人说指的是元件的随机变化),以致“高效的、复杂的、强自动机可能由低效的、简单的、弱自动机进化而来。”

(6)“通过自我修复机制而有无限的使用寿命”。

总之,“一代机器人正在迅速成长,一种能看能读、能说会道、能学会用甚至有感觉情绪的机器人即将问世”。但基本问题仍然存在——这些机器人能认为是“活的”吗?凯梅尼提出了区分生物和非生物的六条标准:新陈代谢,位置移动,再生性,个体性,智能,“自然”(非人工)成分。他说,按这6条标准,人工智能伺服机械装置无疑经得起检验。甚至像韦曾鲍姆这样一位人工智能批评家也承认,人们有足够的理由把“复杂自主的”计算机称作有“自我意识的”和能“社会化的有机体”。不过他认为,“对这样一种有机体所能达到的智能程度还无法定出一个界限,至少在原则上”,虽然,按照他的高见不是在“可见的将来”。

从这种观点看,机器人确实是活的。但是我们应当注意这种观点背后的世界观;它是基于这样的假设:我们能拿人脑和电脑作比较,创造性不是某种神圣地蒙生灵感的东西,而只是“以往存储信息的并置”——因此人和计算机可能是同样有创造力的。人的性质是由活的性质规定的,即由决策、反映、学习和辨别能力规定的,那么我们要问“我存在吗?”“我是谁?”

人工智能的热衷者严肃地争论说,机器人有生命不仅有理论的可能性,而且它们将不可避免地会被理解成是活的。妨碍我们理解机器人——现在的和将来的——和人有相似性的是我们的“人类中心论”,是我们坚持生命必须严格地以人的条件来判夷,比如必须有我们的语言结构这种偏见。当然,也许多不赞成这种说法论证。从西方的宗教观点看,人的灵魂是上帝直接赋予的;机器人是无灵魂的,因此是死的、没有权利的。从人本主义的观点看,只有能灵活地使用语言——拿人脑和机器人的记忆比较——才能证明机器人是活的。活的性质就是血肉筋骨之躯。因此,机器人仍然是死的,复杂的机器人能造得人一样能说会道、环顾四方,但它们终归是机器人而不是人。至于B. F. 斯金纳的那些受过训练会来回打乒乓球的鸽子,我们切莫傻瓜地以为它们真的在打乒乓球。

不论这些反对机器人像人的理由怎样振振有词,一旦计算机越来越成为我们生活的一部分,一旦我们慢慢地同他们重新商讨人和机器人的界限,他们可能会放弃其某些本能的理由。我们从家养的小动物身上已注意到这一点,它们确实被看作是有人的特征的和有某种权利的。当然,猫狗有权利的这种观念是有争议的。有人会说,关于虐待动物和必须惩罚犯罪的法规,只能由代表国家的政界人士来制定。反过来有人可能会争辩说,人只是充当利益的代理人,动物本身才是利益的真正当事人。

另外,从机器人权利的前景看,人工智能和机器人学是相当新的发明。假设计算机的存储和推理能力继续增长下去,那么,我们能有把握地预言,到2100年计算机与机器人将只是在体形上不同于人。那时执行心理治疗的计算机同从事同一行业的医生已无法区分开来,尽管计算机显然是没有思想的。例如在60年代,MTI的约瑟夫 · 韦曾鲍姆教授发明过一种叫ELIZA的计算机程序,以医生 - 病人应答格式,就读认关键词组、做语法替换练习、进行精神鼓励等模仿并嘲弄一位治疗专家。“韦曾鲍姆发现人们的情绪随着计算机表演而变化感到非常吃惊,他认为ELIZA理解他们的心情……该计算机程序有他原先未曾料想到的性能。”他事先也没有想过人类有把人的特点归咎于神、动物和非生物的这种需要。

但是类似ELIZA这种程序仅只是个开端。远为复杂得多的程序将会设计出来,一直到人的思想和计算机的生成思想间的差别成为不可能为止。我们对思想和生命的观念将随着变化的技术和对自然的变化信念而继续变化。这些观点也许会变到这种地步:有朝一日机器人可能有法律的宪法的权利。

(待续)

[Futures,1988年4月]

————————

*作者为哈佛司法部的规划研究员和未来学家。