爱恨交织 人工智能“双刃剑出鞘”

人脑和地球 图片版权 SPL/Carol & Mike Werner/Visuals Unlimited, Inc.

人工智能(AI)真棒!你看,AI 的翻译完美无暇;你跟手机对瞅一下就解锁了,当然就别提阿尔法狗大战世界围棋大师的故事了。机器人当伺应生的餐馆已经在某地开业,无人驾驶快递飞机已经上岗。这种事将越来越多。

人工智能真可怕!你看,那个影星怎么去拍色情视频了?你在网上说了句话突然遭围攻,你确定那些来势汹汹的不是机器人、机器手?那架萌萌的无人飞机,带着摄像头,还装了什么?谁在控制它?年迈父母家里那个打扫卫生的机器人,怎么语音合成出一堆粗口谩骂的言词?如果黑客侵入了心脏手术机器人的操作系统呢?

这种事估计也会增多,如果英国剑桥大学生存风险研究中心(CSER)新公布的一份报告里那些令人毛骨悚然的可能性变成现实的话。

这份题为《邪恶的AI》(全名《对人工智能的恶意使用》,The Malicious Use of Artificial Intelligence)阐述人工智能这一项利器加入落在歹毒之手,可能被用来造什么孽,做多少恶。

有人觉得人工智能比核武器更危险,今天看似可爱、无辜、有用的AI,很可能不久就会变成无法驾驭的大怪物。

最为惊悚的是 AI 强化学习领域,就是让人工智能通过强化学习,在没有人类范本或引导的情况下具备超人类的智能。

有些问题其实已经发生,比如用机器学习软件篡改色情视频人物头像,用语音合成软件制作假新闻节目。

图片版权 Getty Creative Stock
Image caption 人工智能可以为善,也可以为恶,因为它就是一个工具,一个威力可以无限的工具。

报告认为,对于AI的潜在威胁,人类再也不能视而不见。危险迫在眉睫。政府、科研和产业界面对“邪恶AI”,必须联手协同作战。

鉴于其双刃剑特性,AI系统设计者应该更多着力于如何防范滥用、误用和恶意使用,以及如何化解这种情况可能带来的危害。

政府和立法机构也必须拿出新的法律,制定新的法律框架来规范人工智能领域的发展。

网媒《连线》(Wired) 作者汤姆·西蒙奈特(Tom Simonite)建议,AI 和机器学习研发人员在发布新成果前多权衡利弊,三四而后行。他写道,这跟AI领域近年来的开放精神有点出入,但做这个让步是值得的。

图片版权 Kazuhiro NOGIKAZUHIRO NOGI/AFP/Getty Images
Image caption 智能机器小狗可爱,萌。可万一中毒,就成狂犬了。

需要共识

AI 俨然已经融入当下人类社会和生活,而且正在以几何级增长的速度扩展自己的存在,但围绕人工智能的争议非但不见减少,反而日渐高涨。

三、五年前,人们更多谈论的是机器人能为人类分担哪些劳作,而随着人工智能越来越"聪明能干",人类似乎越来越焦虑不安,"威胁"、"危险"之类字眼更频繁地与AI联系在一起。

如果说在不久的将来人类或沦为机器人的奴役,或被毁灭,那是夸张、科幻。但是,科学界已经就人工智能对人类社会可能构成的威胁形成了一定共识。

英国剑桥大学 CSER 中心最新发布警告,说人工智能恰似一把利剑,落入坏人手中后果不堪,比如无人飞机变成了导弹、运用假视频操纵舆论、黑客攻击自动化,等等。

CSER最新发布的《邪恶AI》 报告的内容来自一年前在牛津举办的一次研讨会。来自学术、社团和业界的14个机构的26名专业人士参加了研讨,涉及数码、实体和政治这三个AI最可能被恶意使用的领域。

图片版权 Getty Images
Image caption 机器人新闻很快将成为新常态?

CSER中心本身可以说是人类中较早意识到AI潜在威胁的人做出的应对努力。中心于2012年成立,任务是针对可能导致人类灭绝的四大"恶魔"研究对策,确保人类不毁于自己制造的恶魔手中。

四大"恶魔":人工智能(AI)、气候变化、核战争、邪恶生物技术(rogue biotechnology)。

这个机构也被戏称为"终结者研究中心"。

CSER的沙哈·埃文(Shahar Avin)强调,报告讨论的风险仅限于已有的和五年内可能出现的AI技术产品,不包括对未来的展望。

图片版权 Getty Creative Stock
Image caption 人类智能和人工智能

双刃剑

CSER执行总监 Seán Ó hÉigeartaigh博士指出,AI 将改变一切;《对人工智能的恶意使用》这份报告可以说是对今后5-10年的展望。

那么,在可以预见的将来,落入邪恶之手的AI可能带来怎样的灾难呢?《邪恶AI》归纳了一部分:

  • 比如,谷歌开发的AI"阿尔法狗"(AlphaGo),就是战胜国际围棋大师李世石(Lee Se-dol)的那个,在黑客手里就可以被用来归纳数据规律,搜索编码中易于攻破的薄弱环节;
  • 歹毒之人或有邪恶目的人可以买无人驾驶飞行器,用人脸识别软件训练它,使它能够自行搜索、攻击具体目标;
  • 可以让机器人自动化操作,制作和发布假视频来操纵舆论以达到某种政治目的;
  • 黑客可以用语音合成技术来假冒袭击目标,骗取关键信息
图片版权 Shutterstock
Image caption 机器人全线进攻人类职业疆域,新闻业也难免

末日警告

不断发出AI威胁警告的知名人士包括英国科学家斯蒂芬·霍金(Stephen Hawking)。他认为AI会是"人类历史上最重大的事件,不幸的是,也可能会是最后的重大事件"。

埃隆·马斯克(Elon Musk)让特斯拉自驾车上路、重型猎鹰可回收火箭上天,却警告说人类可能毁于人工智能。马斯克曾说,AI 之险尤甚于核武。

他们的担心主要有两点:一是具备人类决策能力的机器人没有人类道德约束,将来是否能够具备也是个疑问;二是人类创造了AI,AI又能创造更高级的超级智能,人类还没来得及设置防范措施,就可能面临机器失控的局面。

AI在军事上的利用是最令人恐惧的情况之一。如果把 AI 的冲击力跟核弹相提并论,那么人类对核武的规范、控制或许可以为 AI 提供参照。

法律专家指出,人工智能军备竞赛已经开始;如果核武竞赛有值得借鉴之处,那就是在允许AI机器人上战场前,必须有某种公约加以约束。

图片版权 Getty Images
Image caption AI 的威胁真真切切,双刃剑正在出鞘。

人类2.0版

《人民平台》(The People's Platform)一书作者阿斯特拉·泰勒(Astra Taylor)认为,人工智能对人类社会的影响主要在两个方面,一个是数据的寡头垄断,一个是重新定义人类和人工智能的关系,属于哲学层面的冲击。

人工智能的进步会加速中心化的趋势,未来很可能会出现少数几个庞大的、多功能的、基于云计算的商业智能寡头。他们实际上垄断了数据的收集和构建方式,以海量的信息构建一个框架,引领和影响众人的决策。这种力量如果不加规范,没有任何约束,后果堪虞,有史为鉴。

在哲学层面,人工智能将重新定义人类和机器的关系,尤其是双方的主从关系和力量对比。简而言之,一直以来都是

埃隆·马斯克(Elon Musk)一直在警告人类对机器人切毋掉以轻心,以免沦为机器的奴役或灭绝。

他最经常跟PayPal、特斯拉电动车、重型猎鹰可回收火箭和火星移民计划联系在一起。但较少人知道,他已经开始一项更令常人感到不可思议的事:用人工智能来“制造”增强版人类。

图片版权 FABRICE COFFRINI/AFP/Getty Images
Image caption 索非亚是人工智能机器人2017年在瑞士日内瓦“善用人工智能”峰会上亮相
图片版权 FABRICE COFFRINI/AFP/Getty Images

具体操作的是一家总部在旧金山的神经科技公司,Neuralink。这是马斯克在2016年与其他八人共同创办,2017年3月被媒体首次曝光。

2017年,马斯克对媒体说,短期内,Neuralink 主要研发治疗严重脑部疾病的仪器,但长远目标是强化人类(human enhancement)。有报道称这个公司在研制可以植入人脑的“脑机界面”(brain-computer interfaces, BCIs),人脑和电脑的零接触交流互动。

嗯,就是说,一个智力平平的普通人,植入一个芯片,然后就瞬间成了功夫大师,轻松击败歹徒,好像科幻电影里那样?现在,对此表示“并非没有可能”的人是越来越多了。

贫富分化

创新工场创办人李开复2017年曾在《纽约时报》撰文谈 AI 的冲击。他认为,AI 对人类社会的真正威胁并不在于技术层面,因为它们跟人类并不存在智力竞争,只是工具。

AI对人类社会真正的威胁,在他看来,是对工作的含义、财富的创造和分配方式的打碎、重塑,由此"引发前所未有的经济不平等,甚至改变全球力量均势。"

这些他认为迫在眉睫的挑战,包括大量工作被机器人取代,从制造业到服务业,各层面都可能有大量工作岗位消失。掌握AI技术的企业在这个过程中挣得钵满盆满。大规模失业的同时,财富迅速并大量集中到少数人手里。

这些社会、民生和政治问题,必须在政策和立法层面给与及时、妥贴的应对。

更多有关此项报道的内容