机器人应该享受“机器人权”吗?

Image copyright Getty

凯特·达灵(Kate Darling)喜欢让你对可爱的机器人做一些可怕的事情。在她今年组织的一次实验中,达灵让人们跟Pleo机器人一起玩了一会儿,这是一种专为儿童设计的绿色玩具恐龙。Pleo用柔软的材质制成,闪烁着令人信任的目光,一举一动都仿佛蕴含深情。当你从盒子里拿出这样的恐龙时,它就像是一只出生不久、懵懂无助的小狗 — 它还不会走路,你必须教它认识周围的世界。

然而,当人们与这些可爱的小恐龙玩耍嬉戏了一个小时后,达灵却变成了刽子手。她给参与者提供了刀子、斧子和其他武器,下令他们虐待和肢解这些玩具。接下来发生的事情“远远超出了我们的想象,”她说。

达灵是麻省理工学院的一名研究人员,对她来说,我们在机器人遭受虐待时所作出的反应具有重要意义,因为目前正在涌现一批全新的机器,迫使我们必须重新考虑人与机器之间的关系。

于心不忍

达灵通过Pleo实验发现,虐待某些机器人很快将变成不被社会所接受的行为。她甚至相信,我们有可能需要制定一套“机器人权”。如果是这样的话,什么情况下虐待或谋杀机器人可以被人接受?究竟是什么使得你在虐待一台机器前迟迟不肯下手?

直到最近,“机器人权”的想法还只存在于科幻小说中。或许是因为现实生活中的机器相对比较简单,没有人会因为扔掉烤面包机或遥控玩具车而感到难过。然而,社交机器人的出现却改变了这种状况。

达灵表示,它们可以展现自主的行为,甚至表现出某种思维倾向,而且还会化身成宠物或与人类相似的形态。换句话说,你会感觉它们是有生命的。这便能激发你的情感, 而且往往令你不能自已。

例如,在广播节目《Radiolab》2011年进行的一个小实验中,麻省理工学院的弗雷德姆·拜耳德(Freedom Baird)要求孩子们抓着芭比娃娃、仓鼠和菲比精灵的脚,让它们保持头脚颠倒的姿势,直到他们感觉不舒服为止。

孩子们可以一直抓住芭比娃娃直到手臂酸痛,但当他们这样对待不断扭动的仓鼠时却很快停了下来,他们稍后也放下了菲比精灵。这些孩子的年龄已经足够大,完全可以明白菲比精灵只是一个玩具,但程序中设定的哭声和“我害怕”的呼救还是让他们于心不忍。

事实上,不只是儿童,成年人也会与这些由电线和电路板组成的机器产生令人意外的情感纽带。达灵说,有些人会给自己家的Roomba吸尘器起名字,还有的士兵甚至会给自己的机器人授予“奖章”,或者为其举行葬礼。

她提到了一台令人难忘的军用机器人,这是一种通过主动踩雷的方式完成任务的排雷机器人。在测试过程中,爆炸的地雷几乎完全炸毁了这台机器人的腿,但步履蹒跚的机器人仍然一瘸一拐地前进。

据《华盛顿邮报》报道,看到这台机器人挣扎前行的景象,负责该项目的指挥官叫停了实验,因为他认为这种做法“惨无人道”。

Image copyright Getty

杀手本能

一些研究人员认为,如果机器人表现得像是有生命、有思维的生物,这种最简单的模仿也会促使我们对其产生同情,即便我们知道这都是人造产物。

德国杜伊斯堡-艾森大学的一些研究人员使用一台功能性磁共振成像扫描仪和其他设备来测量皮肤电传导,以此了解人们看到有人虐待Pleo恐龙时的反应 — 视频中的虐待者会让Pleo窒息,把它放进塑料袋里,或者用力打它。

尽管受测者知道Pleo只是一个机器人,但研究人员从他们身上测得的生理和心理反应的强度却远超预期。

达灵发现,当她在日内瓦的一次会议上让人们虐待Pleo机器恐龙时也会出现同样的情况。而她在上文所说的实验中还设计了更加令人不舒服的环节。

在跟Pleo玩了一个小时后,人们都拒绝使用达灵提供的武器伤害这些机器恐龙。于是,达灵开始耍起了心眼。她告诉受测者,只要杀死别人的恐龙就能保住自己的恐龙。即便如此,人们还是不为所动。

最终,她告诉人们,除非有人主动杀死一个Pleo,否则所有的机器恐龙都会遭到屠杀。经过一番交涉后,一位男士很不情愿地拿着斧子站了出来,对着一个Pleo砍了下去。

达灵回忆道,经历了这个残忍的场景,整个房间都鸦雀无声,时间长达数秒。人们的情绪反应之强烈似乎令他们感到意外。

立法建议

由于可能出现这种强烈的情绪反应,欧洲的机器人专家几年前就曾建议为机器人开发工作制定一系列全新的道德准则,并且希望根据现代社会的情况采纳作家艾萨克·阿西莫夫(Isaac Asimov)著名的《机器人法律》。

这部法律的五大原则之一是:“机器人的设计不应使其具有欺骗性……它们的机器特性必须保持透明。”换言之,必须要打破人们的错觉,不再让他们误以为机器人有情感和意识,而是应该还原其本来的面貌,让人们明白它们只是由电线、驱动器和软件组成的机器。

但达灵认为,我们不能局限于几个伦理方面的指导方针,而是应该更进一步去保护“机器人权”。

虽然这听起来很荒谬,但达灵却指出,虐待动物罪其实给出了很好的参照。

我们为什么要立法保护动物呢?仅仅是因为它们遭受了伤害吗?达灵质疑道,倘若果真如此,我们为什么制定了严刑峻法来保护某些动物,但对其他动物的遭遇却置之不理?

很多喜欢吃肉的人对产业化经营的农场中的恶劣环境不为所动,脚下踩到了昆虫也毫不动容,可一旦邻居家的猫受到了虐待,或者鲸鱼遭到捕杀,他们就会怒不可遏。

达灵认为,人类之所以制定这样的法律,是因为我们意识到这些动物的遭遇与我们自己非常相似。我们制定这些法律主要原因或许在于,我们不想看到残忍的行为。关键不在于动物的感受,而在于我们自己的情绪。

所以,尽管机器人只是机器,但达灵还是认为,一旦虐待行为 — 而非虐待结果 — 超过某个临界点,便会让我们难以忍受。

Image copyright SPL

感受痛苦

事实上,潜在的危害并非总是我们决定监管某项技术的唯一原因。来看看一个与此完全不同的东西:英国医学会曾经表示,应该在英国的室内公共场所禁止使用电子烟。

英国医学会认为,尽管吸烟者及其周围的人不会因此面临健康风险,仍然应该禁止这种行为,因为这会导致在公共场所吸烟再次变成正常行为。

再来看另外一个例子:试想,如果一位父亲当着4岁的儿子虐待机器人,这种行为是否能被人接受?孩子的思维往往没有成年人那么健全,虐待机器人可能会让他们以为,在某种情况下给别人制造痛苦是恰当的行为。

或者再极端一点:如果有人从实验室里得到了一个儿童模样的机器人,然后把它卖给心怀不轨的恋童癖者。社会应该允许这种行为吗?

随着科技的发展,今后的机器人可能会像我们一样感受到痛苦。事实上,一些研究人员已经开始开发这样的机器人。有人担心机器人有朝一日也可能拥有基本的存在感,倘若如此,结果恐怕就会令人担忧。

正因如此,哲学家托马斯·梅辛格(Thomas Metzinger)认为我们根本不应该继续开发智能机器人。

梅辛格表示,第一台有意识的机器人可能会像懵懂而无法自理的婴儿一样,显然与科幻小说中那种能力非凡的人工智能场景相去甚远,所以把它们当做传统机器来对待本身就是一种虐待。

行为底线

他表示,如果机器人拥有基本的意识,那么无论这种意识是不是人工模拟的都不重要。它相信自己是有生命的,它也的确能感受到痛苦。

梅辛格说:“我们应当努力克制,不能以任何方式增加宇宙中的痛苦总量。”

有一点是非常明确的:机器人的“生命力”存在一定的范围,从基本的模拟动物行为,到未来的获得痛苦感受。

但达灵的Pleo机器恐龙实验表明,要激发我们的情绪反应其实并不需要太高深的技术。问题在于,我们是否能够,或者是否应该,在对待机器人时划一条不得逾越的界限。

你的界限在哪里?是机器人疼痛哭泣或者向你求饶吗?是它认为自己遭受了痛苦吗?还是要等到它受伤流血为止?

请访问 BBC Future 阅读 英文原文

(责编:郱书)

更多有关此项报道的内容