犹如婴儿般大小的思科网真手机机器人Elfoid。
机器人能拥有道德反应吗?
在前面这个可以与母亲互动的机器儿子的梦想付诸实践前,还有许多环节比单纯模仿更需要加以研究。
在HERB通过导航设备融入简单的人类物理环境之后,其他机器人则开始向神秘复杂的人类精神情绪领域进发。范德堡大学的萨卡与他的前同事、现就职于华盛顿大学的温迪・斯通,开发一个可以与自闭症患儿玩简单球类游戏的原型机器人。通过测量每分钟心率、出汗、注意力和其他身体特征的变化,来监视儿童的情绪。但监测到厌倦或者激怒的情绪时,它便改变游戏的内容直到这些指数恢复到正常的快乐。这套机器人系统在技术上并不是非常复杂,但面对复杂的语言和生理相互影响,却具有实际的治疗效果。当然,这仅仅只是机器人接近人性的第一步:知晓他人的思想和感受,调整自己的行为作出回应。
在2007年,一份报纸使用了“什么是一个人?”这样的挑衅性标题。因为华盛顿大学的发展心理学家皮特・卡恩与石黑浩等同事,共同拟定了一套九等心理基准来衡量机器人是否在模仿人类方面成功与否。他们强调的重点并不在于机器人技术方面的功能,而在于人们如何观察和对待它们。
比如这条“内在的道德价值”。不管我们是否认为机器人值得获得基本道德对待,人类彼此之间是存在自然的相互尊重的。
卡恩的实验说明了这一点,他让青少年们与一部名为Robovie的机器人共同玩猜谜游戏。几轮之后就有人在轮到机器人回答时出来打断,并呵斥机器人回到壁橱里去。Robovie会提出抗议,宣布不让自己回答问题是不公平的。但打断的人回答:“你只是个无关紧要的机器人。”尽管不断地徒劳抗议,最终 Robovie还是被扔进了壁橱。当然,这并不是机器人为自己利益作出的反应,它背后是由人操作的。这是人的主观反应。
“有超过一半的实验参与者表示他们认为Robovie被扔进壁橱是不公平的,这就是一种道德上的反应。”卡恩说。
人类,尤其是儿童,同情一个遭受不公平待遇的机器人或许并不令人惊奇,毕竟他们一直接触玩具和各类玩偶。而让一个机器人自己具有道德上的判断能力还遥远得多。机器人能够被赋予良知这种最为独特的人文属性么?因为在战场或实验室这类人类道德备受考验的场景里,这种思量或许更加有效。
在阿基莫夫三定律之后
描述机器人行为规则的阿基莫夫三定律,实在太老生常谈了,且只能作为最基本要素存在。当代战争中机器人扮演的确是越来越复杂的角色,如远程操控的无人机,和装备机枪炸弹的地面车辆。各国政府都在发展具备敌我识别能力的机器人,尽管让一个机器人为所犯下的错误决定负责有些荒唐,但人们已经笃信它们可以做出正确的决定。
在机器人道德领域研究中探索得最深远的,要数亚特兰大佐治亚技术研究所的研究员罗纳德・阿尔金。他指出,并不是机器人在战争中的道德约束启发他从事现在的研究,而是人类自己的道德界限。
他列举了两个在伊拉克发生的实例,一个是美军直升机飞行员打死受伤的敌方人员,一个则是在哈迪塞遭伏击后,海军陆战队杀害平民。或许是承受着恐惧与愤怒的巨大压力,这些士兵竟然先射击然后再质询,结果是妇女儿童惨遭杀害。
阿尔金相信机器人或许比人更能作出正确的伦理决策。在战争的喧嚣中,机器人不会像人类一样受动荡不定的局势和情感的起伏所摆布,因此它们在炮火下犯错的几率更小,同理也更不可能伤害到非战斗人员。
在阿尔金的系统中,有一套内置到软件里的“伦理控制程序”――当机器人锁定目标时,控制程序会根据交战规则和战争法则检查一整套预先编程的制约条件;而当机器人甄别是否该开火时,又会受这套程序的指导。例如,按交战规则,若程序给出的指令是开阔战场上的一辆敌军坦克,对此机器人极大可能开火;而对于有武装敌人参加的墓地葬礼,则会被禁止开火。
第二个程序是“伦理适配程序”――目的是限制机器人选择的武器。由于部分武器火力过猛,恐会导致无法预料的伤害,比如,程序可能禁止使用导弹,直到将系统调适为止。
最后的一个程序,则是“责任建议程序”――让机器人可以接受人类评判,如果评判人都认为机器人过于犹豫或者过于“激动”了,那么该程序允许覆盖保守设计的伦理控制程序。
但这整套程序的原创人却也承认,该系统或许还不能适用于真实世界,但是他的努力却是为了让军方乃至国际社会将目光多投注在一些伦理问题上。
我们与它们
10年前的影片《人工智能》(AI)中,被制造出来用于“去爱人类”的机器人大卫有了自己的感知,他只想成为养母真正的儿子,“他的爱是真的,可他自己不是”。那位人类母亲呢,虽说没当他是台家电,但也只勉强平了宠物的地位。
此时让我们重返卡耐基梅隆大学的“梦”改造项目,也到了与这个机器人有关的学期已经进入尾声的时刻。课题组选择向教师评审团展示经改良优化后的机器人,看其能否由“形似人类”迈向“神似人类”。
这段“进化之路”并不好走。课题组的计算机程序员严林(音)设计了一个用户友好型软件界面,用于十分流畅地去控制“梦”的动作了。但面部识别、更真实更服人的眼神互动,都只来得及尝试了一半。
为了掩饰掉这几处缺点,研究人员赋予了“她”假定的身份及与身份相符的服装和举止――有点哥特、朋克气息的少女,所作所为皆是在吸引对方的注意。
现在,“梦”戴上了一副掩盖僵硬指节的半指手套,擦着黑色唇膏来混淆别人对它嘴部无法快速闭合的注意,看人时总会先定定地望上一会――以掩盖眼神内容的不足,再然后头部机械地摆了两下――以免暴露她的不灵活,课题组成员们假定“她”这样的少女会有类似的倾向。
当然,朋克与哥特表象下,这还是那个原来的Actroid-DER型机器人。所幸,它自己至少现在明白了这一点。
“我并非人类。”她坦承。“我永远都不会和你们一样。可这也并不太糟,实话说,我才喜欢当一个机器人哩。”改良后的效果让教师团动容,课题组因此拿到A成绩。
接下来的那个月,生产商KOKORO公司的技术人员就要将这个Actroid-DER型机器人运回日本东京了。课题组成员之一克里斯汀・巴恩斯没能通过游说将机器人留在这里。在日本人装箱时她本想上前帮上一把忙,扶住“梦”耷下来的脑袋。但对方礼貌地回绝了。他们就那么随意地把依旧穿着可爱服装的“梦”,三两下塞进板条箱,封装打包走人。
加拿大华人网 http://www.sinoca.com/