問(wèn)題3. “為什么沒(méi)有一個(gè)甜蜜和輕松的前景呢?”
很多人認(rèn)為,當(dāng)我預(yù)言人工智能問(wèn)題將爆發(fā)一場(chǎng)戰(zhàn)爭(zhēng)的時(shí)候,我可能太極端了。他們認(rèn)為人工智能機(jī)器和人類(lèi)應(yīng)該能夠以一種“甜蜜和輕松”的方式和諧共處。舉個(gè)例子,下面是兩個(gè)這樣的觀點(diǎn)。
來(lái)信
親愛(ài)的德·加里斯教授:
我讀過(guò)您的一些關(guān)于人工智能的文章,并且我或多或少地同意您的觀點(diǎn),那就是本世紀(jì)最重要的辯論之一,將是關(guān)于“人類(lèi)”這個(gè)詞匯的定義問(wèn)題。
然而,在您的文章中,還有一篇cnn.com上的名為“瑞士科學(xué)家關(guān)于機(jī)器人的《圣經(jīng)》哈米吉多頓(世界末日善惡決戰(zhàn)的戰(zhàn)場(chǎng))之戰(zhàn)的警告”的報(bào)道中,我認(rèn)為您夸大了這個(gè)可能性,那就是肉身人類(lèi)和非肉身人類(lèi)的不同會(huì)導(dǎo)致戰(zhàn)爭(zhēng)。這種下意識(shí)的反人工智能情感出現(xiàn)在一些科幻小說(shuō)中,例如電影《終結(jié)者》,并且不值得作為嚴(yán)肅討論的主題。
我們(超人的/外星人的/宇宙主義的個(gè)體和科學(xué)家)應(yīng)該做的是去強(qiáng)調(diào)這點(diǎn),那就是人工智能機(jī)器一旦開(kāi)發(fā)出來(lái),應(yīng)該被當(dāng)作奴隸一樣去對(duì)待,而不應(yīng)該以我們對(duì)待人類(lèi)一樣的尊敬態(tài)度來(lái)看待它們的存在。
只是由于人類(lèi)是由猿猴進(jìn)化出來(lái)這一點(diǎn)并不能說(shuō)明我們應(yīng)該滅絕猿猴。只是由于另一個(gè)個(gè)體擁有和你同樣的渴望,那就是通過(guò)獲取和處理資源而生活和制造財(cái)富,并不意味著它們對(duì)你來(lái)說(shuō)是一個(gè)威脅,并且應(yīng)該死亡。
回答
這種“慷慨的”空洞的觀點(diǎn)我認(rèn)為是很幼稚的,因?yàn)樗墙⒃谛湃位A(chǔ)上的,也就是說(shuō),人類(lèi)相信,人工智能機(jī)器將一直對(duì)我們很友好。我認(rèn)為它忽視了一個(gè)重要的概念—— 風(fēng)險(xiǎn)。如果人類(lèi)可以100%確定人工智能機(jī)器,特別是高級(jí)人工智能機(jī)器,將一直以我們期待的方式對(duì)待我們,那當(dāng)然是非常理想的。但是,我們不能肯定。我認(rèn)為,人工智能機(jī)器將不得不需要通過(guò)進(jìn)化工程技術(shù)來(lái)制造,正如我在本書(shū)(第5章)中提到的一樣,并且因此,我們永遠(yuǎn)不可能肯定它們的電路對(duì)于人類(lèi)來(lái)說(shuō)是“道德的”。人工智能機(jī)器們可能會(huì)冷酷地認(rèn)為人類(lèi)只是害蟲(chóng),或者人類(lèi)對(duì)于它們來(lái)說(shuō)是如此的低等,以至消滅我們從它們的角度來(lái)看也毫無(wú)關(guān)系。對(duì)于它們來(lái)說(shuō),殺死人類(lèi)就像我們殺死蚊子或者踩死螞蟻一樣。
由于這個(gè)賭注關(guān)系到整個(gè)人類(lèi)的生存,我認(rèn)為地球主義者不會(huì)容忍這個(gè)危險(xiǎn)。他們可能期待最好的,但是,他們的領(lǐng)導(dǎo)們卻有著最壞的打算,最極端來(lái)說(shuō),如果宇宙主義者真的要制造高級(jí)人工智能機(jī)器的話,他們將計(jì)劃發(fā)動(dòng)一場(chǎng)針對(duì)宇宙主義者的戰(zhàn)爭(zhēng)。
我不認(rèn)為人類(lèi)將把人工智能機(jī)器看作奴隸。當(dāng)然,一開(kāi)始,當(dāng)它們還只是愚鈍的機(jī)器人的時(shí)候,可能會(huì)被這樣對(duì)待。真正讓我擔(dān)心的是相反的情形??纯慈祟?lèi)是怎樣對(duì)待牛、豬、鴨子等動(dòng)物的。和它們相比,我們覺(jué)得自己是如此的高等,它們對(duì)于我們來(lái)說(shuō)是美味佳肴,屠宰它們我們一點(diǎn)不介意,除非你是一個(gè)素食主義者。在轉(zhuǎn)化階段,當(dāng)人工智能機(jī)器還基本上是人類(lèi)智慧水平的時(shí)候,有可能平等對(duì)待它們,但是在某種意義上,它們不是我們的同類(lèi),因?yàn)樗鼈儞碛醒杆俪讲⑶沂谴笠?guī)模超越我們的能力。
人類(lèi)相對(duì)于人工智能機(jī)器來(lái)說(shuō)非常局限,我們的大腦體積是固定的,我們思考和學(xué)習(xí)都很緩慢。一個(gè)在某個(gè)時(shí)刻具有人類(lèi)智能的人工智能機(jī)器可以在一個(gè)小時(shí)之后變成天才。記住,它的思維速度比我們至少快100萬(wàn)倍。如果它準(zhǔn)備增加其內(nèi)存大小等,那么,它的能力可以增長(zhǎng)得更快。
我認(rèn)為,這個(gè)評(píng)論給予人工智能機(jī)器太多的人性。它們將和我們非常不同,并且潛在的能力將極大地優(yōu)越于我們。而且,我覺(jué)得這個(gè)評(píng)論嚴(yán)重低估了人類(lèi)對(duì)與高級(jí)人工智能機(jī)器共存這個(gè)事實(shí)的恐懼—— 地球主義的恐懼。我們將不得不去信任它們不會(huì)殺死我們。大多數(shù)地球主義者不愿意面對(duì)這個(gè)風(fēng)險(xiǎn)。他們寧愿去面對(duì)他們所知的惡魔,即宇宙主義者,他們至少還是人類(lèi),戰(zhàn)勝他們至少還有一半的機(jī)會(huì)。如果人工智能機(jī)器存在并且決定必須消滅人類(lèi)的話,那么人類(lèi)獲勝的幾率將是零。來(lái)信人的評(píng)論不夠政治性,他沒(méi)有面對(duì)殘酷的現(xiàn)實(shí),他不適合作為一個(gè)將軍或是一名政治領(lǐng)導(dǎo)者。