【編者按】
從基于大數據的罪犯畫像到無人駕駛,從未來的性別認同到人類在虛擬世界中的互動關系,從基因編輯引發(fā)的倫理擔憂到人工子宮和人體冷凍法,《未來道德:來自新科技的挑戰(zhàn)》一書匯集了29位哲學家的文章,就現已出現以及即將面世的未來科技可能對人類社會帶來的倫理挑戰(zhàn)做出了深入的剖析與預測,從哲學的角度思考未來科技與人類的命運如何相互作用,本文為該書第20章、由杰斯·惠特斯通(Jess Whittlestone)撰寫的《可以完全依賴人工智能進行決策嗎》一文。
我們面臨現今最具挑戰(zhàn)性的全球問題時,人工智能技術的進步將會怎樣幫助我們應對它呢?
最近幾十年來,有關心理學的研究記錄下了人們容易產生的偏見和容易做出的不理智行為,描繪出了一幅有關人類決策的悲劇畫卷。這一事實似乎在一定程度上證明我們在面對不容忽視的全球性巨變時所做出的抗爭是必要的,例如:緩解因新興技術而產生的氣候變化和隱患,減少全球范圍內的不公平現象。我們發(fā)現自己很難被長期的、抽象的,或統(tǒng)計性的因素所驅動而做出某種改變。許多全球性問題過于復雜,我們無法完全理解。同樣,我們也不能以十足的把握預測在遙遠的未來發(fā)生的事。
與此同時,人工智能的發(fā)展正受到越來越多的關注,這就催生出了一個問題:我們能否通過利用這些技術,改善我們在未來的重要問題上做出的決策?如果可以,那我們該怎么做?
人類決策的優(yōu)勢和短板
如果要具體展開說的話,近幾十年來在人工智能領域的研究表明,人類的能力的確超群,只是這種強大并不是我們習以為常的那種。在人類認知領域,有許多我們司空見慣的事物被證明很難被機器復制。比如,我們能夠將形態(tài)各異的椅子或者狗歸類,還能識別具有不同光影、背景、視角的圖像。這些對我們來說輕而易舉的事,在人工智能系統(tǒng)的設計中卻很難被實現。相反,我們認為下國際象棋需要運用更多智慧,但事實是人工智能只需要簡單粗暴的學習就能輕松掌握。早在1997年,國際象棋的世界冠軍就已經被電腦擊敗了。
一般來說,和機器相比,人類的認知能力已經被證明是十分強大且靈活的。當我們細想每天要處理多少復雜和模棱兩可的信息,要做多少個決定時,像適應我們所處的環(huán)境和通過別人的表情了解他們的情緒這種“小事”就更加容易受到關注。
因為我們面臨的世界有著極大的復雜性和不確定性,我們不可能將每一個決策做到盡善盡美。所以,我們選擇經驗主義的捷徑:不假思索地走上以前一直走過的路。我們總是模仿周圍人的行為。我們總是過濾掉大量非急需的信息。要想同時理解人類思想的優(yōu)勢和短板,我們就一定要明白我們接收和處理信息的能力是有限的,所以我們需要“經驗法則”幫助我們理解這個極其復雜和充滿不確定性的世界。這些基于經驗的捷徑思維在大部分情況下十分奏效,但是它們也系統(tǒng)性地限制了我們的思想。
即便是在做類似于今晚吃什么,或給朋友買什么生日禮物等最簡單的決定時,我們也需要考慮要注意什么信息,忽略什么信息。世上有許多選項供我們選擇,即使你將選擇范圍縮小到一個方向,比如選擇一件針織套衫,也有數以千計的品牌和商鋪供你挑選。即便你的冰箱里只有十種食材,你也有數百種組合它們的方式。所有的這些意味著我們有可能更傾向于倚重那些在情感上令人信服的,或者是直接擺在我們面前的信息,而不是那些更加抽象且不確定,但又更加重要的信息。與其嘗試解決如何最大限度地改善我朋友的生活這一難題,不如直接給他們買我第一眼相中的那件針織套衫。我們也更容易被短期的甜頭所吸引,比如只想再多吃一勺冰激凌,而不太容易被長期的、更加可靠的好處所驅使,例如健康飲食的好處。
我們在決策中簡單粗暴地基于經驗捷徑行事也意味著保持一致性并非我們的強項。在不同的日子問我同一個問題,我可能會根據你對問題的表達和我當時的想法,給出不同的回答。事實上,因為我們必須走許多捷徑,所以在面對復雜且模棱兩可的信息時,我們容易習得“錯覺相關”。換句話說,就是讓我們相信并不存在的模式或聯系。有人認為,這種傾向為毫無真實性且有害的刻板印象的形成和持續(xù)存在打下了基礎:假設你認為女性不如男性,那么你就會開始關注所有適用于此觀點的男性個體和女性個體,而刻意忽略所有不適用于此觀點的案例。
這些局限性似乎會特別影響我們應對全球性挑戰(zhàn)的能力。這些挑戰(zhàn)需要我們提前做好準備,并在應對時采取集體行動。但正是這些挑戰(zhàn)的“全球性”讓我們很難對它們進行理解和預測:當面對哪些干預措施最能有效減輕氣候變化,核武器的威脅有多大,或者是新型傳染病的傳播速度有多快等復雜問題時,我們的直覺變得不再可靠。在回答這些問題時,我們很容易給出看似言之有理但是過于簡單的結論,并在這上面浪費大量的時間和資源。
我們在人類決策中見識到的偏見和錯誤,證明了我們大腦承載的信息量超出了我們能夠承受的范圍,即所謂的信息過載。在很多方面,這種信息過載的情況只增不減——我們在網絡上接觸到越來越多信息,我們比以往任何時候都有更多選擇。這讓我們處理信息的局限性愈發(fā)凸顯。
但是,我們有沒有辦法利用全球的互聯互通和隨時可利用的信息應對全球挑戰(zhàn)?
人工智能的預示
對于利用人工智能改善決策,我們有兩種截然不同的認知方式。
第一種是將人工智能系統(tǒng)視作人工決策的替代品:越來越多的決策被外包給能夠更快更高效地解決問題的自動化系統(tǒng)。舉一個簡單的例子,谷歌地圖在獲悉一個城市的所有路徑,以及計算從A點到B點的最優(yōu)路徑等事上勝過我的大腦,所以很多時候我都會將制定路線的決策外包給它,不加思考地按照它的導航走。
第二種是將人工智能系統(tǒng)視作人類能力的補充:它們能幫助我們以全新且重要的方式理解這個世界。我們不能簡單地認為這些方式優(yōu)于人類理解世界的方式,兩者應是互補的。在有些事上,我更了解我的城市,比如哪些路線在晚上最安全,哪些路線在白天的風景最好,這些信息都不容易被谷歌地圖的軟件收錄。谷歌地圖可以幫助我規(guī)劃耗時最短的路線,以節(jié)省我的體力和時間,但是在其他情況下,我會把谷歌地圖導航與我已知的其他知識相結合使用。
當前許多有關人工智能在社會中的運用的討論都含蓄地指向第一種觀點:也就是用更高效、更優(yōu)秀的人工智能決策程序取代人類決策。這一觀點似乎也加強了許多有關人工智能對社會和人類產生的潛在影響的擔心:工作中自動化的增長究竟對經濟、不平等以及人存在的意義意味著什么;那些被設定在決策算法中的偏見令人困擾;人工智能開始在越來越多的領域中取代人類,而它的安全性和可靠性究竟幾何。鑒于這些擔憂,我們的社會應該問一個重要的問題:我們是否真的希望,或者需要構建一套人工智能系統(tǒng)以取代人工服務?我的建議是,我們應該更明確地考慮將人類和機器各自的優(yōu)勢相結合,尤其是在我們的社會面臨最關鍵的問題時。
由于人類推理的局限性源于我們有限的認知能力,我們有充分的理由認為人工智能可以幫助我們克服這些具體的局限性,并與我們的思維優(yōu)勢互補。當處理諸如說服他人或與他人交流等多數日常問題時,人工智能系統(tǒng)往往不如人類靈活高效,但是它們可以幫助我們更加精確可靠地理解大量復雜信息。在聯合國最近的一份關于人工智能的報告中,聯合國糧食及農業(yè)組織表示:“人工智能最重要的作用……是預測意外事件、威脅和危機。通過早期發(fā)現、預防和緩解等手段,我們就可以在饑荒、氣候變化、移民等挑戰(zhàn)成為危機前將其解決?!?/p>
人工智能與人類能力優(yōu)勢互補的另一種顯著方式是為我們提供工具,更嚴格地設計決策過程,從而幫我們做出更一致、更系統(tǒng)的決策。
有證據顯示,在簡單的問題預判方面,即使是非常簡單的算法也勝過專家的判斷。例如,在預測假釋期中的囚犯是否會再次犯罪,或是潛在候選人在未來的工作中是否能夠表現良好時,算法已被證實比人類的預測更準確。在超過100個不同領域的研究中,半數案例顯示簡單的算法能比專家做出更好的、更有意義的預測,其余的案例(除了極少數)則顯示兩者之間不相上下。當問題涉及諸多因素且某種情況存在極大的不確定性時,簡單的算法可以通過關注最重要的因素和保持一致性勝出,而人類的判斷很容易被一些顯而易見但可能與最終事實毫不相關的因素動搖。更深入的證據也證明了類似觀點,即“重大事項清單”可以通過確保人們在超負荷工作時不遺漏重要步驟或事項,提升多個領域專家決策的質量。例如,在重癥監(jiān)護室治療患者需要每天進行上百個細微動作,一個小錯誤就有可能導致患者死亡。事實證明,在從預防活體感染到減少肺炎病例等一系列醫(yī)療活動中,利用清單(備忘錄)來確保不遺漏每個關鍵步驟是十分有效的。
除了非常簡單的算法,其他基于人工智能的工具也能在復雜的領域進行更好的因果推理和概率推理。人們天生就有能力建立這個世界的因果模型,以解釋事情發(fā)生的緣由,這是人工智能系統(tǒng)所不具備的能力。例如,一個醫(yī)生可以通過講解治療給患者身體帶來的變化,向患者解釋為什么這種治療有用,但是現代的機器學習系統(tǒng)只能回答:接受這種治療的患者基本上身體都有所好轉。但是,當因果關系變得足夠復雜時,比如評估政策干預對整個社會的影響,人類的推理仍然容易出現混亂和錯誤。在這種情況下,使用更加結構化的人工智能工具輔助人類進行推理會大有裨益。研究人員一直在探索使用貝葉斯(Bayesian)網絡。它是一種人工智能技術,可以用于描繪事物之間的因果關系和表示不同領域存在的不確定性的程度,從而為決策提供支持,比如更準確地評估風險。在歷史數據不足的情況下,這些技術對評估類似于恐怖襲擊或新的生態(tài)災難等新型或罕見的威脅十分有效。
這對我們應該建立的人工智能系統(tǒng)意味著什么
從人工智能在哪些方面能夠支持更好的決策的例子中,我們可能注意到兩件事。第一,在這些案例中不存在人工智能系統(tǒng)完全接管決策過程的情況,相反,它們被用來提取有用的信息并將這些信息結構化,以幫助我們規(guī)避人類推理的一些常見陷阱。第二,許多案例并不涉及遙不可及的精密機器學習方法,而是與分析數據和架構決策相關的簡單算法,根據主流定義,這些算法和工具都不會被歸為“人工智能”。
人類很難只靠自己收集和分析來預測病毒的傳播,提供繪制發(fā)展中國家人口密度圖所需要的數據。但是,那些以這些信息為依據做出的決策還是需要由人類做出,比如應該實施怎樣的衛(wèi)生干預措施,或是如何在國內分配稀缺資源等。這種決策最后可能深受價值觀影響,充滿政治性,需要在合理的不同意見中做出權衡。例如,在決定如何在醫(yī)院之間有效分配資源時,要在病情最嚴重的患者和最有可能康復的患者之間進行權衡。為了盡可能地確保這些決策公正透明,它們必須由了解全部情況并且能夠承擔相應責任的人做出。
實際上,最近在社會上,由人工智能的使用產生的諸多問題,都源于它們被用于自動執(zhí)行那些包含著主觀因素的決策:有關某人是否應該被假釋,是否應得到這份工作,以及是否應向其提供貸款等問題的決策。算法可以為我們推算來自某一特定群體的人再次犯罪、成功就業(yè)或償還貸款的概率提供統(tǒng)計信息。但是基于這些統(tǒng)計信息,誰應該得到怎樣的機會仍是一個沒有標準的問題。毫無疑問,遵循算法可能會最終加劇歷史上的不公:如果少數族裔在招聘中一向受到歧視,那么數據將會顯示他們在工作中成功的概率較低,從而導致他們在未來受到更多的歧視。
但是,如果我們將在這些背景中使用的算法視作一個范圍更廣的決策中的一項數據分析,那么我們更容易關注并減輕對于偏見的擔憂。我們不應該期望人工智能系統(tǒng)能夠理解人類價值觀的復雜性和細微差別。鑒于人類和人工智能各自的相對優(yōu)勢,這顯然不是它們目前最能幫助到我們的地方。
盡管如此,當涉及情況特殊,具有主觀性的決策時,算法有時可以幫助我們更清晰地梳理問題,減少我們在認知過程中下的功夫:提取關鍵信息,確保我們不會忽略重要因素,并幫助我們更清晰地思考復雜系統(tǒng)中的因果關系?;氐郊膊」芸氐陌咐斯ぶ悄芟到y(tǒng)無法告訴政府如何最大限度地拯救生命,但是不同的工具可以提供有關病毒蔓延及其后果的有效數據信息,確保政策制定者在決策時考慮到所有重要因素,并在他們預判備選政策的影響時提供決策支持。
如果我們把人工智能更多地視作對人類決策的支持與補充而不是后者的替代品,我們可能會發(fā)現我們最需要的絕不是如今被大肆宣傳和被研究人員高度關注的極其復雜的機器學習能力。對于許多重要的現實問題,最被我們需要的并不一定是最佳的計算機視覺和自然語言處理能力,因為我們的視覺和語言能力已經非常優(yōu)秀了。我們最需要的是較為簡單的大數據分析,以及架構推理和決策的實用性工具。
如果我們明確地將目標定為構建人工智能以幫助人類處理需要應對的重要事情,那么我們的重點研究領域將會與現在的大相徑庭。
《未來道德:來自新科技的挑戰(zhàn)》,[英]大衛(wèi)·埃德蒙茲編著,蔣蘭譯,中國科學技術出版社2023年1月。