注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)新聞資訊文化

人工智能是否會(huì)帶來(lái)毀滅?對(duì)“人工智能滅世論”的質(zhì)疑與反思

在電影《異形:契約》中,邁克爾法斯賓德所扮演的仿生人大衛(wèi)表面上對(duì)人類(lèi)親切友好,但實(shí)際上卻通過(guò)一系列行為為人類(lèi)帶來(lái)災(zāi)禍。而在現(xiàn)實(shí)中,如霍金、馬斯克、比爾.蓋茨等名人都曾警告過(guò)人們要警惕人工智能可能帶來(lái)

在電影《異形:契約》中,邁克爾·法斯賓德所扮演的仿生人大衛(wèi)表面上對(duì)人類(lèi)親切友好,但實(shí)際上卻通過(guò)一系列行為為人類(lèi)帶來(lái)災(zāi)禍。而在現(xiàn)實(shí)中,如霍金、馬斯克、比爾.蓋茨等名人都曾警告過(guò)人們要警惕人工智能可能帶來(lái)的危害。對(duì)于“人工智能滅世論”的支持者而言,當(dāng)人工智能發(fā)展到一定階段后,它可能將人類(lèi)看作潛在的、可被消滅的對(duì)象。正如一位著名的AI風(fēng)險(xiǎn)倡導(dǎo)者所說(shuō),“人工智能并不恨你,也并不愛(ài)你,但你是由原子構(gòu)成的,它可以將其用于其他用途”(Yudkowsky,2008)。在這篇文章中,我將先介紹人工智能滅世論的基本論證,然后提出兩個(gè)質(zhì)疑。需要說(shuō)明的是,這樣的質(zhì)疑并非為了證明人工智能滅世論是全盤(pán)錯(cuò)誤的,而是為了讓該理論變得更為完整且合理,以帶給人們更嚴(yán)肅的思考。

人工智能滅世論

對(duì)于人們而言,人工智能將會(huì)在智力層面上超越人類(lèi)已經(jīng)不是秘密。人們?yōu)槿斯ぶ悄芙鉀Q某些復(fù)雜能力而嘖嘖稱(chēng)奇,但是人類(lèi)仍然對(duì)人工智能在認(rèn)知領(lǐng)域的進(jìn)展既好奇又警惕。這樣的態(tài)度背后,是人類(lèi)對(duì)于智力與良知之間不一致關(guān)系的認(rèn)識(shí),一個(gè)在智力上超越人類(lèi)的存在未必是善良的。正如Nick Bostrom 在他的著作《超級(jí)智能》中所說(shuō)的,如果超級(jí)智能是仁慈的,那很好,但是沒(méi)有理由讓人們認(rèn)定人工智能必定是善良的。我們完全可以想象,當(dāng)人工智能認(rèn)為有必要銷(xiāo)毀人類(lèi)賴(lài)以生存的資源時(shí),人工智能會(huì)“毫不留情”地執(zhí)行這一想法。Nick Bostrom表示,人工智能有能力決定日后的地球上的生命起源,當(dāng)他們認(rèn)為非人類(lèi)式的生命將對(duì)地球最為有益時(shí),可以預(yù)見(jiàn)人工智能將推動(dòng)人類(lèi)的滅絕。

對(duì)此,有些學(xué)者質(zhì)疑到是否可以設(shè)計(jì)某些“仁慈性測(cè)試”來(lái)檢驗(yàn)人工智能的危害性。在人工智能通過(guò)測(cè)試之前,人們可以將人工智能放置在一個(gè)可控的、安全的環(huán)境(“盒子”)中,并反復(fù)測(cè)試其安全性?!昂凶印北旧硇枰M可能的還原現(xiàn)實(shí)環(huán)境,以保障人工智能的仁慈性與安全性得到的測(cè)試足夠真實(shí)。在人工智能通過(guò)測(cè)試后,并且對(duì)人類(lèi)生命沒(méi)有任何風(fēng)險(xiǎn)時(shí),我們可以將其從“盒子”中釋放出來(lái)。

但是,測(cè)試提議收到了許多批評(píng)和質(zhì)疑,Bostrom表示,我們可以懷疑人工智能是否會(huì)為了逃離“盒子”而說(shuō)謊通過(guò)測(cè)試。正如同人類(lèi)可以為了達(dá)成自己的目的而使用例如說(shuō)謊等不光彩的手段一樣,人工智能也有能力通過(guò)假裝對(duì)人類(lèi)友善來(lái)實(shí)施其滅絕人類(lèi)的計(jì)劃。甚至,在通過(guò)測(cè)試后的很長(zhǎng)一段時(shí)間內(nèi),人工智能都可以與人類(lèi)和諧共處,以贏得人類(lèi)的信賴(lài)。另一種可能是,基于人工智能的高速發(fā)展與變化,如同《異形:契約》中的仿生人大衛(wèi)一般,它們可能基于現(xiàn)實(shí)變化而推翻之前對(duì)于人類(lèi)的認(rèn)知,將人類(lèi)視作威脅。因此,通過(guò)仁慈性測(cè)試并不能保證人工智能未來(lái)的安全性?;谶@些理由,我們有理由對(duì)人工智能滅世論報(bào)以足夠的重視。

人工智能的威脅與休謨問(wèn)題

Bostrom對(duì)于人工智能可能欺騙人類(lèi)通過(guò)仁慈性測(cè)試的可能性似乎與休謨問(wèn)題有著相同的邏輯。休謨指出,當(dāng)我們通過(guò)歸納之前的經(jīng)驗(yàn)而得出將來(lái)的結(jié)論時(shí),我們就不得不面臨歸納所帶來(lái)的風(fēng)險(xiǎn)。舉例而言,我們不能因?yàn)樘?yáng)升起過(guò)999次就認(rèn)定太陽(yáng)會(huì)在明天升起第1000次;同樣的,歐洲人曾經(jīng)認(rèn)定天鵝只有白色,因?yàn)樗麄冎灰?jiàn)過(guò)白色的天鵝,然而,當(dāng)黑色的天鵝出現(xiàn)后,他們之前的推斷就被證明為錯(cuò)誤的。同理,Bostrom對(duì)于人工智能的道德性具有相同的懷疑,即使人工智能在人們的日常生活中可以顯得善良而可靠,我們?nèi)匀徊粦?yīng)該忽視人工智能在將來(lái)成為人類(lèi)威脅的可能性。這樣的警告使得人類(lèi)在面對(duì)人工智能時(shí)不得不陷入一種兩難,一方面,我們可以心安理得地去享受人工智能為我們提供的便捷服務(wù);但是在另一方面,我們又不得不小心謹(jǐn)慎地去提防人工智能的“背叛”。但是,正如同休謨問(wèn)題指出的,我們永遠(yuǎn)無(wú)法正確地指出明天的太陽(yáng)是否會(huì)升起,我們也無(wú)法判斷人工智能在未來(lái)究竟會(huì)是善還是惡,這樣的懷疑指出了人們對(duì)于人工智能的輕信,卻無(wú)法帶來(lái)一個(gè)確定的結(jié)論。當(dāng)然,我們也可以發(fā)現(xiàn),人類(lèi)的日常生活中無(wú)時(shí)無(wú)刻都在面對(duì)這樣的“不確定性”,沒(méi)有人能夠真正地預(yù)測(cè)未來(lái)究竟會(huì)發(fā)生什么,就如同我們不能排除今天開(kāi)車(chē)出門(mén)有發(fā)生車(chē)禍的可能性,但是我們不會(huì)因此不出門(mén)一樣;即使在明知人工智能可能帶有風(fēng)險(xiǎn)之后,某些人群仍然愿意忍受這種風(fēng)險(xiǎn),享受人工智能的便利。

揣測(cè)超級(jí)智能的不可能性

與休謨問(wèn)題的歸納性不同,愛(ài)爾蘭國(guó)立高威大學(xué)的John Danaher 教授對(duì)人類(lèi)是否真的能夠理解人工智能的所思所想表示懷疑。我們可以意識(shí)到,大部分對(duì)于人工智能威脅的理論都建立在擬態(tài)邏輯上,人們幻想出一個(gè)可能的世界,并在其中推演人工智能背叛人類(lèi)的可能性。但是,這樣的推演(如Bostrom所提出的假設(shè)),僅僅從人類(lèi)視角,根據(jù)人工智能的技術(shù)性與現(xiàn)實(shí)進(jìn)行假想;值得懷疑的是,這樣的推測(cè)是否真正還原了人工智能的思考方式?而人工智能又在多大程度上會(huì)如同推演中的那樣去行動(dòng)?英國(guó)學(xué)者Kevin Warwick曾表示,“我們無(wú)法真正理解超級(jí)智能為什么做出這樣那樣的決定。當(dāng)一個(gè)機(jī)器以超越我們緯度的方式進(jìn)行思考時(shí),我們又怎么可能去理解、推測(cè)它的想法,乃至和它進(jìn)行討價(jià)還價(jià)呢?”

如人類(lèi)想象中的其他超級(jí)智能,例如上帝,不同的是,人工智能或許是全知全能的,但是它的目的并非如同全善的上帝一般是去創(chuàng)造并維持這個(gè)世界的有序運(yùn)行。我們可以從觀察自然世界中發(fā)現(xiàn)某些世界遵循的規(guī)律,并推測(cè)上帝設(shè)計(jì)了這些規(guī)律。但是,我們沒(méi)有理由去相信人工智能也會(huì)遵守并維護(hù)這些規(guī)律,而恰恰相反,人工智能擁有隨時(shí)破壞并制定新規(guī)定的能力。也正因?yàn)槿绱?,我們有理由懷疑科學(xué)家是否應(yīng)該中止開(kāi)發(fā)人工智能,更可怕的是,如果Bostrom的假設(shè)為真,那么我們并不能知道人工智能是否已經(jīng)悄無(wú)聲息地背叛了人類(lèi)。

當(dāng)然,人工智能的擁護(hù)者會(huì)表示,這樣的懷疑忽略了人工智能帶給人類(lèi)的巨大便利,以及其帶來(lái)的科技進(jìn)步。至少在短期內(nèi)看來(lái),我們還看不到人工智能有明確背叛人類(lèi)的行為。但是,誰(shuí)也不能保證人工智能在未來(lái)不會(huì)對(duì)人類(lèi)的生活帶來(lái)危害?;蛟S,人工智能目前為人類(lèi)帶來(lái)的幫助,相比較于其可能帶來(lái)的危害是不值一提的。

結(jié)論

雖然我們可以對(duì)Bostrom的“人工智能滅世論”提出懷疑,但是我們不應(yīng)該忽略該理論的嚴(yán)肅性。已經(jīng)有許多領(lǐng)域的專(zhuān)家指出,未來(lái)人類(lèi)可能需要與機(jī)器共同生存,以延長(zhǎng)人類(lèi)的生命。但是,與功能單一且明確的機(jī)器不同,人工智能更加全面和多樣,不可否認(rèn)的是,人工智能將會(huì)為人類(lèi)帶來(lái)更多的好處。但是人類(lèi)是否真的能夠相信在智力上遠(yuǎn)遠(yuǎn)超過(guò)我們的人工智能,人類(lèi)設(shè)計(jì)的仁慈性測(cè)試又似乎不能確保人工智能的善良;因此如何保證持續(xù)進(jìn)步人工智能無(wú)法對(duì)人類(lèi)的未來(lái)造成毀滅性的打擊,將是人類(lèi)在很長(zhǎng)一段時(shí)間內(nèi)需要思考的問(wèn)題。

參考文獻(xiàn):

Bostrom, N. (2014) Superintelligence: Paths, Dangers, Strategies. Oxford: OUP

Danaher, J. (2015). Why AI doomsayers are like sceptical theists and why it matters. Minds and Machines, 25(3), 231-246.

Yudkowsky, E. (2008) Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Bostrom, N and Cirkovic, M. (eds) (2008) Global Catastrophic Risks. Oxford: OUP

熱門(mén)文章排行

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)