杀人机器人?科学家担忧人工智能军备竞赛

2013年在伦敦举办的“停止制造杀人机器人”活动。 图片版权 AFP
Image caption 2013年在伦敦举办的“停止制造杀人机器人”活动。

超过1000名科技专家、科学家、研究员共同撰写一封信,警告自动化武器可能带来的危险。

科学家在信中警告:“人工智能军备竞赛是个可怕的想法”。让人联想到热门电影“终结者”中的“杀人机器人”。

这封信的签署有科学巨擘史蒂芬·霍金(Stephen Hawking),企业家埃伦·穆斯克 (Elon Musk),以及苹果公司共同创办人斯蒂芬·沃兹尼亚克(Stephen Wozniak)。

这封信将在今天的国际人工智能联合会议中被呈现。

“杀人机器人” 近期在联合国委员会上成为辩论的主题之一,讨论是否要禁止某些有潜在威胁的自动化武器。

现在专家们呼吁要特别禁止那些使用人工智能来操控的武器,认为它们可能会“超越人类控制”。

专家们表示:“就像大部分科学家和生物学家不会对打造生化武器有兴趣一样,绝大多数的人工智能研究员不会对打造人工智能武器有兴趣,而且也不想弄脏自己的手去插足这个领域”。

美国麻省理工学院(MIT)教授乔姆斯基(Noam Chomsky)和谷歌人工智能首席Demis Hassabis,以及意识学专家Daniel Dennett都认可了这封信。

信件内容由未来生命研究院(Future of Life Institute)在网络上发布,而纸本将在布宜诺斯艾利斯举行的国际人工智能联合会议(International Joint Conference on Artificial Intelligence)上提交。

人工智能?

身为信件签署人之一的霍金,最近参加美国热门社交论坛Reddit“向我提问”活动,向网民收集关于“如何让未来科技更人性”的问题。

他在本周会挑出要回答的问题,但现在还没开始回答。在去年11月BBC科技新闻记者凯兰—琼斯(Rory Cellan-Jones)独家专访霍金,在访谈中,霍金提出了人工智能可能终结人类文明的担忧。

霍金说:“人类受限于缓慢的生物学进化过程,无法(与人工智能)较劲,而且将会被人工智能取代。”

然而,另一位签署这封信的微软研究首席Eric Horvitz也上传了一段为人工智能辩护的影片。

他说:“看看电脑计算已经为我们带来多少难以置信的改变,在社会经济面、医疗应用面等等。人工智能改变了许多事。”

“这将带来许多希望,许多可能的好处,当然也有其隐忧。我觉得有很多问题需要被解决,但我期待经由人类的引导,人工智能将带来更多正面效应。”

人为控制

英国国防部最近在一项声明中说到,所有英国军队的运作都必须“依照国际人道主义法”。

国防部表示:“英国的交战规则(ROE)很明确的是依照人道主义法为基础制定的,所以在此系统中永远会有‘人为控制’。英国军方人员在目前以及未来,总会有人员下达控制武器的指令。”

(编译:刘子维 责编:叶靖斯)

如果您对这篇报道有任何意见或感想,欢迎使用下表给我们发来您的意见:

Your contact details
Disclaimer

更多有关此项报道的内容