科学家们设法将精密机械和微电子芯片植入人体内,以提高人体的机械功能。高新技术的“人工化”究竟会对人性产生什么影响,这是摆在世人面前的一个紧迫的课题——

人体内植入计算机芯片的实验

在一幢幢建筑物的正厅大门入口处,通常都用计算机识别系统来辨认客人的身份。计算机若认识他(她),大门即刻自动开启。现在英国雷丁大学的控制论系执掌教鞭的伍立克,自1998年以来除教书外,专心致志地从事一项实验——将一枚极微小的芯片植入人的左腕内,然后再将芯片发出的信号传送到计算机系统,研究如何在人体神经系统与计算机之间实现信号传递。如果实验成功,就为在人脑与计算机之间实现直接连接的目标上迈出可喜的一步。

下一个目标是什么?伍立克目前正在构思将超小型计算机植入人体内。“今天的人类躯体功能极其有限,这就使得许多超凡本能的发挥受到了限制。靠机械和微电子装置维系生命肯定会给人类带来莫大的福音”,伍立克说。诗人黎尔克曾经这样说过,“实际上,未来将发生的变革会比今天我们所预料到的要多得多。人类只有与时俱进,顺潮流而动。”未来的高新技术,确实在向人类的躯体渗透。

不远的未来,我们吃的将是遗传基因经过改善的食物;人造器官已能够成熟地植入体内;能从未分解的干细胞中提取移植用的人造器官技术现已进入研发阶段;用植入皮下的芯片来监控体内人造器官的工作性能,即便是在遥远的偏僻地带,医生们仍能将数字信号及时准确的传递过去。

最早塑造依靠机械装置维系生命和植入人造器官人之形象的是科幻影片,它们在世界上率先推出了超前理念。人类的生理机能怎么能用电子控制呢?这在当时确实令人感到不可思议。而将人工神经回路移植在人脑内并以此作为脑损伤医治方案的提出,当初人们普遍无法接受,并遭到恶意嘲笑。诚然,随着技术的进步——

高新技术带来的负面影响引人警觉

部分研究人员相信,在今后50年内,很可能会有大批植入人造器官与靠机械装置维系生命的人在社会上出现。机械装置正在与人身融为一体(或者说人类正在与机械同化)。人们作出的这一预测,同时也将人类社会最根本的问题摆到了眼前——我们这些纯粹自然躯体的人群是否会逐渐被淘汰?还是只允许占总人口的1/4抑或1/3?人造器官在整个人体中所占的比重应该有多大?对人脑所做出的决定如何下定义?是以人脑传递信号的人造媒体为准、还是根据人脑所发出的人性自身的思维内容及情感的信号来下定义?等等。

这些问题的根本性解决,首先要取决于生活在尖端技术时代的人类能在多大程度上理智的对待。对上述问题作出明确的定义更需要一个极其标准的概念。

但人类又不能因为惧怕被恐怖分子利用而被迫停止研究开发那些造福于人类的高新技术。这又是一个至关重要的棘手问题。

“上述令人烦恼的问题归拢起来,可划分为`技术、政治、伦理'三大方面”。座落于缅因州的美国世界伦理研究所所长基特说,“这三大领域之间几乎还看不到有丝毫调和妥协的余地”。技术的危险性无论哪个时代都存在过,任何高新技术都有正反两面的双重性质。

美国太阳微处理系统公司的乔伊博士曾在《有线》杂志上以“人类正在走向衰亡的未来”为主题,重点就遗传基因、纳米技术和机器人三大技术领域的进步,阐述了它们所带来的危险。但乔伊同时指出,随着遗传基因工程学的进步,在不远的将来,将使遗传基因治疗技术的应用成为可能。至少可以使像癌症这样的顽疾得以遏制。纳米技术是允许使人们根据纳米的极微小体积来操作物质的一种技术,这就有可能开发出许多新种类的病毒来。机器人工程学的进步,为人类制造具有智能和自动复制功能的机器开辟了一条金光大道。当然,这三大领域的技术进步,都必须取决于第四大要因的发展程度。也就是说,一切努力都取决于计算机能力的提高——

人体只不过是一种机械形式

位于尖端计算机技术开发最前沿的许多科学家,曾撰文谈到自己对高新技术的反作用之深刻的认识。但多数专家一致认为,乔伊的警告有些夸张。对于现实社会来说,高新技术的利还是大于弊的,这一点毋庸置疑。

“诚然,乔伊预料到50年后的那些因高新技术发展而必然产生的问题,很难说在距今半个世纪之后他现在的这一预测是否准确”,麻省理工学院的社会心理学专家特克尔说。特克尔近年来非常热衷于对仿真机器人的外观造型技术的研究开发。2001年11月,世界上首位商业化的机器人“巴比”就是由他和美国哈兹布罗公司共同开发的。借助传感器功能,巴比以光源为动力,能精确感受到每个人与它握手时自然触发的不同情感信号。

“问题是,我们的一切努力都依赖于计算机的反应速度。没有计算机,我们将一事无成。计算机支配着人类,如果人类变成了计算机的附庸和奴隶,那确实是令人担心的最糟糕的事情,”特克尔说。但许多从事人工智能和机器人工程学研究的专家学者却乐观地认为,“人类与机械还是存在着根本性差异的。人类毕竟属于具有生理功能的。人是有思维和灵魂的,而机器人却没有。即使略微有些,也不如真人那样健全和发达。整个人体,是根据基本粒子的物理性质按一定的基因图案不断进行相互作用的。”但无论怎样——

高新技术选择、发展必须理性化

迄今为止,被人类最为广泛接受的是关于“人性”的定义,即用语言形式定义下来的人类社会人与人之间的“理智行为”。但真正有理智的人,也会对技术的滥用和对技术的正义用途置若罔闻。智商能力可否从计算机中获取?如何客观的验证是新技术发挥的成果还是自己本身的工作成就?

2000年度诺贝尔化学奖得主白川英树,就是从无数次失败中获得了启迪和灵感,一举开发出具有划时代意义的导电塑料。可以这样认为,靠机械装置维系生命的人或植入人造器官的人,他们几乎与我们这些健全的人体并没有多大的差别。或许只不过他们的创造能力比我们稍微欠缺一些?

纯粹的假想力恐怕也不应忽视。如幼年时代的科学巨匠爱因斯坦,就经常自我陶醉在充满想象的愉悦中。最后,他终于顺着孩童时代的假想力这一原始线索,建立了著名的“相对论”。总之,人性的定义是个哲学问题,个中的某些哲理有时往往几乎无法直答。也就是说,只能意会,不能言传。哲学家们已为20世纪的若干方法论和用语费尽心血下过定义。“现代的伦理哲学,仍无法直接对涉及伦理问题的一切概念都下上贴切的定义。如果再找不到一些独辟蹊径的方法,则现代伦理哲学就会慢慢地颓废成一种无聊的学问”,大哲学家伍里阿姆兹曾这样憾叹道。

但如何给伦理问题下一个确凿的定义呢?对此,原计算机程序设计师、曾专门著书论述“有关人性与技术问题”的伍尔曼认为,“任何人都不应也无法去阻止技术进步的正常发展,因为技术本身并不存在什么问题,是无可非议和指责的。问题在于,技术人员是在执行当权者的正确决策还是在完成一项非正义的任务。”在《可以容忍的危险意识》一书中,伍尔曼一针见血地指出,“再没有比技术人员为了自身利益而盲目服从恐怖主义并为其效劳的唯心做法更可怕、更可悲的了。”

对于一些问题的答案,看来只能再等到下一个10年后或许才能最后明确。由此看来,我们所说的“人性观”还会自始至终的伴随着人类社会和高新技术的发展进程模棱两可下去。既然人类属于追求知识的高级动物,那么,无论高新技术的发展所带来的危险有多大,在整体上肯定仍将受到人类社会的普遍欢迎。当然,有些不同的观点和看法理应受到高度重视。人们普遍认为,未来人类无论怎样发展高新技术,都必须设法避免不要陷入被技术征服的窘境,而应该设法更理智的去驾驭它,发展它。

综上所述,人类的发展可以去选择技术,但驾驭技术的人的意图和动机却难卜难测。何去何从,人类自身要选择理智还是选择邪恶?看来都只能取决于掌握高新技术成果的人之本性了。

[新闻周刊(日)2002年9月3日]