「惡魔」威脅終結人類 劍橋學子拔劍

更新時間 2012年 11月 26日, 星期一 - 格林尼治標準時間12:59
火人

人類造出超級人工智能,有可能玩火自焚嗎?電影裏的終結者會走進現實嗎?

電影裏,施瓦辛格扮演的機器人「終結者」說:「我會回來!」

劍橋大學的學者決定嚴陣以待,確保人類不至於被自己製造的惡魔機器人毀滅。

這個「終結者研究中心」(centre for 'Terminator studies)的主要任務是研製如何抗衡可能導致人類滅絕的四大「惡魔」:人工智能(artificial intelligence)、氣候變化(climate change)、核戰爭(nuclear war)和「邪惡」的生物技術(rogue biotechnology)。

這個中心的正式名稱是「生存風險研究中心」(Centre for the Existential Risk,CSER)。

杞人憂天?

很久以前,人類自我毀滅就是科幻小說和電影的主要題材;科研發展也在不斷「試水」未知領域、開闢新疆域。

最大的風險之一就是自掘墳墓。

如果這種擔心在幾十年前會被嗤為杞人憂天,那麼現在劍橋大學設立這樣一個防止人類滅絕的研究中心,或許從一個側面印證了這種可怕情景並非純屬虛構。

這個中心由三人聯合創辦:里斯勛爵(Lord Rees),英國皇家天文學家,《我們的最後一個世紀》(Our Final Century)一書作者,以及互聯網電話服務Skype的共同創始人之一揚·塔裏安(Jaan Tallinn)。

里斯勛爵在他2003年出版的這本書裏預言,人類表現出來的各種自殘、自毀行為,最終可能導致2100年人類徹底滅絕。

災難之盒

還有一位創辦人是劍橋大學知名哲學教授休·普萊斯(Huw Price)。

普萊斯教授曾經提醒人們,「超級智能機器」(ultra-intelligent machine),或稱人工綜合智能(artificial general intelligence, AGI),確實涉及人類存亡。

他說,AGI 有可能帶來「潘多拉的盒子」(神話裏盛滿災難的盒子,打開盒蓋,災難飛灑人世),我們對此務必重視;錯過這個關鍵時刻,就可能陷入滅頂之災。

當然,他承認現在誰都無法準確預計超級人工智能AGI可能帶來哪些具體災難,但這也正說明很有必要立項研究科技發展的「災難性的一面」。

他在中心剪彩儀式上表示,劍橋大學已經存在了800年,為了後人能夠慶祝它建校1000週年,現在就應該打磨抗擊「人類終結者機器人」的利劍。

與内文相關的鏈接

相關話題

BBC © 2014 非本網站內容BBC概不負責

如欲取得最佳瀏覽效果,請使用最新的、使用串聯樣式表(CSS)的瀏覽器。雖然你可以使用目前的瀏覽器瀏覽網站,但是,你不能獲得最佳視覺享受。請考慮使用最新版本的瀏覽器軟件或在可能情況下讓你的瀏覽器可以使用串聯樣式表。