“无头尸”引发争议:杀死机器人有没有可能

希区波特
Image caption 希区波特2.0仍旧充满信任,友善,愿意跟人分享。

2015年,美国费城发生了一起“谋杀案”,一个靠搭便车只身周游世界的旅行者在途中遇害。

此案引起轰动,因为曝尸街头的受害者不是人,是一个机器人,叫希区波特(Hitchbot,搭便车机器人)。它的遇害引发的争议核心是人机关系。

在这件事上,问题不是人类能否信任机器,而是机器是否可以信任人类。

人类能不能杀死一个机器人?同样,人类可以如何防止被机器人杀死?

“无头尸”引发的争议

希区波特是加拿大科学家设计的实验小机器人,任务是研究人与机器相处的方方面面,尤其是人对机器的态度。

机器人首先是机器,是人类制造的工具。但人类无法不将机器拟人化,对它们赋予人性。人性中的善与恶便自然而然投射在机器人的世界,以及人类和机器互动的过程中。

希区波特开始周游世界后不久,即在费城被人发现尸横街头垃圾桶旁,而且是无头尸。虽然它的头是用透明塑料蛋糕盒做的,它很萌,设计成人畜无害的孩子模样,仍免不了这样悲惨的结局。

但是,“杀死一个机器人”这句话有没有语病?机器跟杀死同框,通常是机器杀死别的什么;杀死机器?毁坏机器是不是听着更自然?

现在还没有权威证据说明,机器被赋予多少人性、拟人化到什么程度,“杀死”机器人激起的反应才会跟杀死一个生命一样。

但世界各地许多实验室都在从事与此相关的研究。

Image copyright Hitchbot
Image caption 希区波特遭厄运前也曾风光过,在加拿大原住民的庆典上贵为嘉宾,还被授予“铁女人”名号。

希区波特在人世间

希区波特最近死而复生,就在它的诞生地,多伦多瑞尔森大学(怀雅逊大学,Ryerson University)。

如果让儿童设计机器人,可能看上去就像希区波特,蛋糕盒脑袋,白色水桶躯体,游泳救生浮条做成四肢,还坐在婴儿座椅里。它带着全球定位系统(GPS)接收器,还有一个与人对话的软件,它的胳膊可以动, 还会微笑和眨眼。

作为一个为搭便车而诞生的机器人,希区波特自然会竖起拇指示意需要搭车。

它的“父母”,弗萝克·泽勒(Frauke Zeller)博士和她丈夫戴维·史密斯(David Smith)教授把它设计成孩童的样子,以便赢得人们的信任,激起人们帮助它的愿望。

希区波特在人世间一开始就遇到一对善良的老年夫妇,把它带到哈利法克斯的露营地度了个假。后来,它跟着一群年轻人去观光旅游,之后又作为加拿大原住民庆典仪式嘉宾,被赐予女性性别和名字 - “铁女人”。

希区波特在推特、脸书和Instagram上有自己的帐号,一路上吸粉无数,迅即成为网红;许多人驾车数十英里,就为了“偶遇”希区波特,让它搭车。

希区波特开始被赋予越来越多的人性,人们开始给它打扮,戴上手镯和其他首饰。

有时,控制中心觉得必须关闭希区波特的GPS定位仪,免得在路上搭载它的人回家后被其他打劫。

然后,突然有一天控制中心接到希区波特横尸街头的图片,胳膊和腿都被扯掉,脑袋也不见了。泽勒博士说,全世界的希区波特迷都倍感震惊,因为它已经成为信任的象征。

即使知道它只不过是一些物质材料的组合,泽勒博士的团队对这个结局的伤心也出乎他们自己的意料。他们本来没有意识到自己对这个小机器人那么有感情。

凶手至今逍遥在外。

Image copyright Ryerson University
Image caption 对于一个个子跟小孩差不多的机器人希区波特(Hitchbot)来说,搭车旅行充满了各种意外的惊喜和危险

机器人的优势是可以死而复生。希区波特复活了,叫希区波特2.0,装了个新的脑袋,但它的父母不准备再放它出去做独行侠闯世界。

希区波特2.0第一次出门,有泽勒博士、史密斯教授和BBC记者一起陪同,去的地方是大学附近一个十分安全的咖啡馆。

当然它立刻被人认出来了,许多人停下脚步跟它打招呼、合影自拍,又见到希区波特了,大家都很开心。

希区波特现在还有一个机器人朋友,叫佩珀(Pepper),孩子模样,大眼睛,目前还在模型研制阶段。它们俩一起参加人机信任关系实验。

佩珀将来要从事的工作是跟癌症患者交谈。专家们认为,患者对佩珀会比对普通护理员更坦率,信任度更高。

Image copyright Innvo Labs
Image caption 你能忍心用棒槌猛击这个机器恐龙吗?它叫普利奥(Pleo),住在波士顿,麻省理工大学(MIT)实验室。

棒打普利奥

人类对待仿真程度较高的机器,比如人形机器人和象形机器动物,有恶与善两个极端。一个是残忍,比如2015年小机器人希区波特之死。至于凶手是把它当作机器来破坏,或者为了拆走它的零部件和定位设施,还是在心理上把它当作人类一分子,施以残暴而获得变态快感,现在无解 。

另一个极端则是把人对人的善意投射到机器人身上,心理上完全把它当成有喜怒哀乐疼痛欢愉的生命。在机器人被砸、被破坏时,这样的人会把它搂在怀里,保护它免遭毒手。

MIT教授凯特·达林(Kate Darling)在她的实验室专门折磨仿真度很高的机器恐龙。实验目的是检测人类对机器的善与恶、爱护和残忍可以达到怎样的极限。

她研究人机关系,以及人类对待机器人的态度和行为所折射的心理特质,比如同理心、共情心,心理上的暴力倾向,等等。

她发现,有些人被要求砸机器恐龙时毫无心理障碍,而另一些人完全下不了手。值得注意的一个细节是,被棒槌击打的机器恐龙会发出哀嚎,作出痛苦的表现。它有名字,叫普利奥。

参加实验的大部分人都不忍心击打普利奥。

有一位妇女参加达林教授组织的一次折磨机器恐龙实验时,心疼机器恐龙,直接把它的电池取出来,后来承认自己那么做是觉得这样恐龙就不会感到疼痛。

一个无可争议的事实是,机器人、机器狗、机器恐龙,即使仿真到可以以假乱真的程度,实际上还是没有生命的机器,是金属塑料零件的组合,而砸碎它们在道义上并没有什么问题。

但是,如果把仿真机器人或机器动物放在动物的位置上,那么很容易观察到一个现象就是无情折磨、毁坏机器人/动物的那些人,往往都有虐待宠物和其他小动物从中取乐的习性;在他们心目中,仿真的机器猫、机器狗跟真的猫和狗没区别,机器逼真的反应更刺激他们的虐待本能。

Image copyright Ryerson University
Image caption 希区波特漫游途中在一位临时主人家歇脚,主人要款待这位稀客,而招待机器人的美食应该是电池。主人家的狗狗似乎不太以为然。

人类天性使然

MIT另一个实验室的罗萨琳·皮卡德(Rosalind Picard)教授认为,人们对普利奥的这种反应实际上还是跟人性有关。

她是说,人际关系是人类的本能,天性,制造机器的工程师同样是人,同样具备这种天性。

把机器植入人际关系这个人类精神世界体系,是一件极具爆发力的事。

机器和人类在感情上能够沟通,机器能理解人类的情绪,对于服务类机器人来说至关重要,因为它们的职责就是为人提供服务,比如老弱病残的护理、家务劳动、餐饮服务等。

但是,对机器过度拟人化,对机器赋予过多的人性色彩,则可能不是很妥当。

皮卡德教授在她的实验室接受BBC采访时指出,“我们正处于一个关键节点,人类社会作为一个整体应该明确一点,那就是不能再用机器比人类更具人性的理念去误导人类。”

“它们可以在采访时 以假乱真,外表看上去可以像真人一样,在特定的情境中可以说出正确的话,”她说,但机器就是机器,与人类差远了。

机器人可以识别微笑的人脸,但它没有快乐幸福的感觉;它可以“学会”人在什么情况下会微笑,但不会理解“苦笑”。

Image copyright MIT
Image caption 皮卡德教授承认,即便是工程技术员也会对自己设计制造的机器产生感情依恋

皮卡德教授承认,对周围的事物产生情感依恋是人类本能,即使是没有生命的机器,连她自己都无法避免陷入这个情感坑。

最说明问题的是,大部分人对自己的第一辆私家车都有一种特殊的感情,在心底深处那辆车被赋予了人性。

皮卡德说:“把那辆车卖掉的时候我几乎要掉眼泪。”

她的实验室研制帮助人类但未必长得像人的机器人,其中一款是在医院代替家长和护士陪伴儿童病患的机器人。

她认为人类必须克制自己对机器的情感,同时又必须让机器理解人类的情感。就像是这样:

“如果机器人惹你生气了,那它必须能够知道你生气了,就像你的宠物狗一样,知道它这时应该作出认错的表示,类似于低头垂耳耷拉尾巴那种姿态和表情。”

Image copyright Getty Images
Image caption 机器人战士不太可能是科幻小说中描绘的人形机器人,其外表更有可能像是自动化的传统武器

杀人的机器人

谢菲尔德大学机器人学科教授诺埃尔·沙奇(Noel Sharkey)教授也认为,人们不应该过分沉溺于对机器人的拟人化,把机器当作有生命的人或动物来对待。

他对BBC表示,人类把机器人当作介于有生命和无生命之间的一种存在来对待,根源还是在人类对物的拟人化本能。

比如,一样东西活动了,人们会觉得它有思想,他说,但他希望自己能让人们停止对一切事物做这种“愚蠢的类比”,用言辞赋予它们人性。

他说:“我们应该开发一套科学的语言。”

沙奇教授最近参加了一个行业大会,在会上做了一个展示。他找到一个为养老院设计的可爱的机器海豹,把它的脑袋在桌子上猛砸。

在场的人无不对他怒目相视,斥他为妖怪猛兽。

而实际上他坚定地立足于和平阵营,他发起倡导禁止战争机器人的运动。把机器人用于战争,在他看来是现代机器人领域的头号伦理道德议题。

战争机器人并不像电影里那种拿着机枪的终结者;战争机器人实际上没有人形,它们是武器,看上去就是武器,只不过设计成可以自动寻找目标的杀人武器,“我认为这有悖于人类尊严。“

在他的反伦理机器人研发项目名单上包括:

  • 哈皮(Harpy) - 以色利研发的反雷达信号的武器,能够侦察识别信号是否属于以色列的雷达。如果不是,就直接扔炸弹
  • 俄罗斯军方研制的自动超级坦克
  • 卡拉什尼科夫公司设计的自动枪械
Image copyright Ryerson University
Image caption 人类对机器赋予了太多的人性?但是人性本来就极复杂,在机器人世界的投射不会更多一层扭曲吗?

过去五年来,沙奇教授一直在跟联合国合作,推动各国在一份国际公约上签字,承诺禁用战争机器人,或者在没有”有效的人类控制“情况下禁止使用战争机器人。

已经有26个国家签署了公约,包括中国。

但是,“人类控制”本身就包含着各种各样的问题。

如果编程出了差错,那么人工智能会作出什么样的反应?

如果用来制造娱乐机器人的技术被用来生产冷面杀手,又有什么机制可以防范、侦测?

在人机关系领域,应该有怎样的行为准则,游戏规则?应该搭建怎样的伦理框架?

这些都有待人类提供答案。

更多有关此项报道的内容