臉書正在「不知不覺地」影響我們的選擇

Image copyright Getty

現在,我們越來越擔心思考的方式受到軟件的影響,一些習以為常的東西卻成為了新聞:一組精挑細選的不用承擔責任的人告訴我們什麼才是新聞。最近有報道揭露臉書網站使用人工挑選為用戶呈現什麼新聞內容,具有諷刺意味的是,對於那些習慣於感嘆機器取代人類的那些人,現在缺失的恰恰是一個計算機演算法。

最具爭議性的說法是,該網站的熱門話題有反保守主義偏見,很多偏保守的新聞和觀點則被刻意壓制了(臉書對這種說法進行了激烈的反駁)。科技網站Gizmodo3月份首先報道了臉書的做法,稱有兩個原因導致臉書無論持有任何政治偏見都會感到尷尬。第一,使用人工篩選新聞損害了「無偏見的新聞篩選過程」。其次,這些簽約的「新聞編輯」受到的待遇比軟件受到的待遇好一點:他們不受任何編輯文化和領導的制約,只依賴於「熱門新聞」的模糊概念,致力於滿足量而不是質的需要。

從某種意義上說,使用人工進行新聞篩選並不是問題關鍵,意識形態偏見也不是。重要的是這個世界上最強大的信息共享平台是通過神秘莫測的篩選方式進行新聞的呈現。像臉書這樣的平台是在通過包羅萬象的「熱門話題」或者「關聯性」這樣的標題來呈現篩選出來的新聞和信息,而我們對於篩選過程卻一無所知。

對於我們來說這點很重要,因為我們接收到的些微的信息變化都會改變我們的行為。

Image copyright Getty
Image caption 臉書的人類編輯能控制新聞推送的內容

全世界各國政府以及機構所廣泛採用的,由行為科學家們提供的真知灼見或許對理解其中原委有所幫助,那就是被稱為「推送的政策。「推送」通過採用人們不易察覺的手段促使人們作出某種特別的行動。一個有名的例子就是在器官捐贈方面實施退出機制而不是加入機制。在這個機制安排下,人們不要求登記自己作為器官捐獻者,而是假設任何人的器官都可以用於捐贈,除非他們已經表達了否定的意願。通過簡單的切換默認的假設,更多的人最終成為器官捐贈者。

推送理論有什麼弊端麼?其中一個就是批評者認為這侵犯了他們做出知情選擇的權利,他們為此感到不安。作者尼克·哈卡韋(Nick Harkaway)為藝術和思想研究所(Institute of Art and Ideas)撰寫的一篇文章中說到,「不是通過解釋問題使政策更加符合人民的意願,推送理論是利用人民的意願來符合政策的需要。選擇是一種技能,一種習慣,甚至是對大腦結構的一些小小的錘煉,而這樣的技巧是應該時時練習的」。

推送原理如何在數字世界中使用呢:當我們瀏覽上網時,我們不斷面臨著選擇——從買什麼到該相信什麼,設計師和工程師也可以巧妙地影響我們的決定。

畢竟,不僅是臉書網才進行信息選擇。越來越精明的推薦程序促使人工智能,可穿戴技術和物聯網等領域的繁榮發展;從谷歌到蘋果到亞馬遜,無縫的個性化的信息推送就是成敗的關鍵。然而,岌岌可危的不是人與機器之間的對決,而是知情選擇與推送原理的應用。

Image copyright Getty
Image caption 技術可以在我們毫不知情的情況下影響我們

我們所擁有越多的信息,就有可能做出更好的決策:這是信息技術作為一種積極的力量的一個基本原則。

技術哲學家,《第四次革命》(The Fourth Revolution)的作者盧西亞諾·弗洛裏迪(Luciano Floridi),使用「親倫理設計」來描述這個過程:通過平衡客觀的表達清晰的信息,使人們能夠主動的去解決,為重要的決策負責。弗洛裏迪認為信息系統應該通過抵制過度「推送」而拓展而不是縮小我們道德的介入。不要讓器官捐獻成為自動默認的狀態:應該使人們直面這個問題。不要默默地強加一個量身定制的關聯圖景:而是邀請用戶修改和提問和改進。

這裏存在著幾種基本的緊張關係:在方便和思考之間;在用戶想要什麼和什麼對他們來說是最好的之間,透明度與商業優勢之間。信息越不對稱(系統對你的了解與你自己對系統的了解),你所做的決策就越可能只是一系列對於無形的刺激的條件反射。而究竟發生了什麼與你所知道的信息之間的鴻溝就會日漸增大,導致最後的無知。

對這一點沒有簡單的解決方法,也沒有什麼大陰謀。事實上,軟件和人力管理的巧妙結合正迅速成為我們在這個世界上所能瀏覽的越來越多的數據的唯一途徑。不過,我們需要記住的是,設計這些技術的人員與我們有著不同的目標,而且無論進行信息篩選的是人還是一種計算機演算法,瀏覽這些信息意味不受人類偏見影響這樣的託詞再也不復存在了。

請訪問 BBC Future 閱讀 英文原文

更多有關此項報導的內容