人工智能面臨的最大挑戰不是技術?

(圖片來源: Alamy) Image copyright Alamy

人工智能如今隨處可見,它已經扎根於我們的生活。人工智能以這樣或那樣的方式觸及我們生活的大多數方面,從在網上決定購買什麼書籍或機票,到我們的求職申請是否成功,再到我們是否獲得了一筆銀行貸款,甚至罹患癌症後要接受何種治療方法,都離不開它。

所有這些事情——甚至包括其他更多的事情——現在都可以由複雜的軟件系統以基本上全自動的方式來決定。人工智能在過去幾年當中實現的巨大進步相當引人注目,它有可能會在很多方面讓我們的生活變得更加美好。

在剛剛過去的幾年中,人工智能的崛起已經成為不可避免的趨勢。大量的資金被投入到人工智能初創公司中。許多現有的科技公司——包括亞馬遜、臉書和微軟在內的一些巨頭——都開設了新的研究實驗室。毫不誇張地說,現在軟件就意味著人工智能。

人工智能已經在多項實踐活動中證明了自己——從給照片貼標籤到診斷疾病。有人預測它帶來的巨變堪比互聯網,甚至更大。我們詢問了一組技術專家,這個人工智能無處不在的快速變化的世界對人類來說意味著什麼?值得注意的是,他們當中幾乎所有人的反應都圍繞著道德問題。

谷歌的研究總監、機器學習領域的先驅彼得·諾維格(Peter Norvig)說,受數據驅動的人工智能技術是該公司最近取得的眾多勝利成果背後的推動力,現在關鍵的問題是找出確保這些新系統讓整個社會得到改善的方法——而不僅僅是讓控制它們的人受益。他說:"人工智能已被證明在實踐任務領域相當有效——從給照片貼標籤,到理解口頭和書面的自然語言,再到幫助辨別疾病,現在的挑戰是確保每個人都能從這項技術當中受益。"

一個重要問題在於,這種軟件的複雜性常常意味著不可能確切搞清楚某種人工智能系統行為方式背後的原因。根據目前人工智能的運行方式——它建立在一項非常成功的被稱為機器學習的技術基礎上——你無法揭開蓋子,一探裏面的究竟。所以我們選擇相信它。那麼我們的挑戰就是要想出新的辦法來監控或者審核人工智能目前正在發揮重大作用的眾多領域。

Image copyright Getty Images
Image caption 人工智能可以讓機器人執行更複雜的任務,例如日本的這個機器人在商店裏服務客人(圖片來源:Getty Images)

對哈佛大學法學院的互聯網法律學教授喬納森·齊特林(Jonathan Zittrain)來說,目前存在的一個威脅是,計算機系統變得越來越複雜,這可能使它們無法獲得必要的監督。他說:"隨著我們的系統———在技術的幫助下———變得越來越複雜而且緊密耦合,我擔心人類的自主性會減弱。如果我們'設置完畢就不再管它',我們可能會對某個系統的發展進化方式感到後悔,並哀嘆沒有一個明確的位置來考慮道德因素。"

人工智能技術將可以讓機器人完成更複雜的工作,例如日本這種為顧客提供服務的售貨機器店員。我們專家組的其他人也表達了同樣的憂慮。北卡羅來納州杜克大學人類與自主性實驗室(Human and Autonomy Lab)的主管米西·卡明斯(Missy Cummings)問道:"我們將如何能夠證明這些系統是安全的?"卡明斯曾是美國海軍的首位女性戰鬥機飛行員之一,目前是一位無人機專家。

人工智能需要監督,但目前還不清楚要怎樣做到這一點。卡明斯稱:"目前,我們還沒有想出被大家普遍接受的辦法。而且,在沒有一個行業標凖對這些系統進行測試的情況下,這些技術也很難被廣泛推行。"

然而,在這樣一個瞬息萬變的世界,監管機構常常發現自己要扮演追趕者的角色。在很多關鍵領域,比如說刑事司法系統和醫療保健領域,相關公司已經在探索利用人工智能做出假釋決定或者診斷疾病的有效性。但是,一旦把決定權交給機器,我們就面臨失控的風險——誰敢保證這個系統每一次都能作出正確決定?

微軟研究院首席研究員達娜·博伊德(Danah Boyd)稱,關於那些正在被寫進這種系統的價值觀以及誰將最終為它們負責,有一些很嚴肅的問題。她說:"監管機構、民間社會和社會理論家越來越強烈地希望看到這些技術是公平並且符合道德凖則的,但這些想法充其量不過是模糊的概念。"

存在道德問題困擾的其中一個領域是工作場所。人工智能技術將使機器人承擔更複雜的工作並替代更多的工人。例如,蘋果公司和三星集團的供貨商富士康科技集團已經宣佈,該公司打算用機器人替代6萬名工廠工人。還有福特汽車位於德國科隆的工廠,讓機器人和工人一起併肩工作。

Image copyright Getty Images
Image caption 在許多工廠,人類已經和機器人一起工作(圖片來源:Getty Images)

在許多工廠,人類已經在和機器人一起工作———有人認為,這種被取代的感覺可能給精神健康帶來衝擊。更重要的是,如果自動化程度的提高給就業造成重大影響,也可能給人類的精神健康帶來衝擊。生物倫理學家、美國前總統巴拉克·奧巴馬的前醫療顧問伊齊基爾·伊曼紐爾(Ezekiel Emanuel)稱:"如果要找出給人們的生活帶來意義的事情,你會發現有三樣:有意義的關係、強烈的興趣和有意義的工作。有意義的工作是構成個人身份的一個非常重要的元素。"他指出,在工廠倒閉導致就業崗位流失的地區,出現自殺、藥物濫用和抑鬱症的風險可能增大。

由此導致的結果是我們可能需要更多的倫理學家。麻省理工學院的法律和倫理學專家凱特·達林(Kate Darling)稱:"公司會追隨市場激勵的方向———這不是一件壞事,但正因為這一點,我們不能指望他們遵守道德標凖。如果有適當的監管,會起到幫助作用。在私底下或者每當我們擁有一項新技術的時候,我們已經發現了這個問題,而且想出了應對它的辦法。"

達林指出,包括谷歌在內的許多知名大公司已經設置了倫理委員會,用來監督他們人工智能技術的開發和部署。有觀點認為這種現象應該變得更普遍。她說:"我們不想扼殺創新,但可能已經到了大家都希望創建一些這類組織的時候。"

對於谷歌倫理委員會的成員以及該機構實際職能的詳細情況,我們還知之甚少。但是去年9月,Facebook、谷歌和亞馬遜聯合推出了一個名叫OpenAI的非營利組織,針對人工智能帶來的大量安全性和隱私性問題,研究解決方案。這是一個致力於研究和推動開放源人工智能為所有人謀福利的組織。谷歌的諾維格稱:"公開研究機器學習技術以及通過公開刊物和開放源代碼傳播這種技術是非常重要的一點,這樣我們都能共享研究成果。"

如果我們想要研究行業和道德標凖並完全搞清楚什麼是利害攸關的東西,那麼創建一個由倫理專家、技術專家和企業領導人組成的顧問團隊就是非常重要的一件事。我們要解決的問題是如何利用人工智能技術在我們已經做到最好的基礎上讓人類社會變得更美好。齊特林稱:"我們要做的是少擔心科幻小說中機器人接管地球的局面,多想想如何運用技術幫助人類思考和做決策,而不是完全取代人類的自主性。"

請訪問 BBC Future 閲讀 英文原文

更多有關此項報導的內容