人工智能未來可能會太聰明令其意外摧毀人類

A menacing looking robot in front of a small army of robots 圖片版權 Getty Images
Image caption 專家說,即使友善機器人也會倒戈

從英國著名理論物理學家史蒂芬·霍金(Stephen Hawking)到特斯拉創始人伊隆·馬斯克( Elon Musk)等世界頂尖人工智能(AI)專家,都曾表示過AI對人類生存的威脅。

真有一天,人類會成為自己發明的機器人的受害者嗎?

加州大學伯克利分校(the University of California, Berkeley)的斯圖爾特•羅素教授(Stuart Russell)是該領域的專家。

他在剛出版的《人類相容:人工智能與控制問題》("Human Compatible: AI and the Problem of Control")一書中指出,這種威脅並非來自機器人開始有了自我意識,並起來反抗人類主人。

而是因為這些機器人能力變得超強,最後有可能是因為人類的疏忽,為機器人設置了錯誤的目標,讓他們無意中把我們都消滅了。

羅素教授表示,這才是我們應該擔心的,而不是像好萊塢大片中所描繪的那樣,人工智能開始有自主意識,並向人類倒戈,最後把我們都殺光。

羅素教授強調:我們應該擔憂的不是意識,而是它們的能力(competence)。

「超強能力」

圖片版權 Getty Images
Image caption 機器人對人類交給他們的任務越來越勝任。

羅素教授在接受BBC的採訪時表示,假設我們發明了一個可以用於控制氣候變化的強大人工智能系統,並且能將大氣中的二氧化碳水平恢復到工業革命前的水平。

該人工智能系統經過分析後認為,最容易的方式就是消滅人類,因為人類活動是產生二氧化碳的最主要來源。

當然人類可能會對機器人說,你做什麼都可以但就是不能把人類全滅絶。人工智能系統然後可能會說服人類少生孩子,直到最後沒有人生孩子,人類慢慢滅絶為止。

這個例子是想強調與人工智能有關的風險,這些風險都是人類在創造人工智能前並沒有想明白的。

超級智能

英國劍橋大學存在風險研究中心( the Centre for the Study of Existential Risk, at Cambridge University)表示,當前大多數AI系統都是相對「狹窄」的應用程序,專門用於解決某一領域中的特定問題。

但1997年,超級電腦深藍(Deep Blue) 打敗了國際象棋世界衛冕冠軍加裏•卡斯帕羅夫(Garry Kasparov),成為人工智能史上里程碑。

圖片版權 Getty Images
Image caption 深藍的勝利是人工智能發展史上的一個重要時刻。

然而,雖然深藍擊敗了世界象棋衛冕冠軍,但深藍卻可能連一場簡單的跳棋遊戲都贏不了。因為深藍的設計者是專門讓它下象棋的。

但這才僅僅是開始,隨著人工智能的發展和進步,阿爾法圍棋的最新版AlphaGo Zero在經過短短3天跟自己練習之後,已經達到了超人水平。

AlphaGo Zero通過深度學習,已經不太需要太多的人工程序。 它成為圍棋、國際象棋以及將棋(又稱日本將棋)的高手。

這裏,最讓人感到震驚的是,AlphaGo Zero完全是自學成才。

劍橋大學存在風險研究中心表示,隨著人工智能逐漸強大,它可能會成為超級智能。它會在許多,或是幾乎所有領域都超越人類。

羅素教授說,這就是為什麼人類需要收回控制權。

如何收回控制權

圖片版權 Getty Images
Image caption 羅素教授說,人類需要收回控制權,否則就晚了。

羅素說,賦予人工智能更明確的目標並不是解決這一難題的方法,因為人類自己都無法確定這些目標是什麼。

羅素表示,人們應該徹底改變建立人工智能系統的整體基礎,例如,不再給機器人一個固定目標,而是讓人工智能系統必須明白,它不知道目標是什麼。

一旦人工智能系統以這種方式運作的話,它就會聽從於人類的指揮。在執行任務之前,它會尋求人類的許可,因為它不確定這是不是你想要的。

羅素教授表示,最至關重要的是,它們(AI)會樂意接受被隨時關閉的選擇,因為它們也希望避免做那些你不喜歡的事情。

神燈中的精靈

圖片版權 Getty Images
Image caption 科幻片《2001:太空漫遊》中,機器人電腦拒絶被關閉。

羅素說,我們現在發明的AI系統有點像傳說中的神燈中的精靈(a genie in the lamp)一樣,你輕拍神燈,燈裏的精靈出來了。你對精靈說:「你給我做這件事吧。」

「如果AI系統足夠強大,它就會完全按照你的要求去做,你也會得到你所要求的一抹一樣的結果。」

但羅素表示,問題是跟神燈中的精靈故事那樣,第三個願望總是要求精靈「取消前面的那兩個願望」,因為我們無法確定自己到底想要什麼。

其結果就可能造成,那個試圖完成錯誤指令的機器人實際上變成了人類的敵人,一個比我們強大得多的敵人。

到那時,一切就太晚了。

相關主題內容

更多有關此項報導的內容