問題3. “為什么沒有一個(gè)甜蜜和輕松的前景呢?”
很多人認(rèn)為,當(dāng)我預(yù)言人工智能問題將爆發(fā)一場(chǎng)戰(zhàn)爭(zhēng)的時(shí)候,我可能太極端了。他們認(rèn)為人工智能機(jī)器和人類應(yīng)該能夠以一種“甜蜜和輕松”的方式和諧共處。舉個(gè)例子,下面是兩個(gè)這樣的觀點(diǎn)。
來信
親愛的德·加里斯教授:
我讀過您的一些關(guān)于人工智能的文章,并且我或多或少地同意您的觀點(diǎn),那就是本世紀(jì)最重要的辯論之一,將是關(guān)于“人類”這個(gè)詞匯的定義問題。
然而,在您的文章中,還有一篇上的名為“瑞士科學(xué)家關(guān)于機(jī)器人的《圣經(jīng)》哈米吉多頓(世界末日善惡決戰(zhàn)的戰(zhàn)場(chǎng))之戰(zhàn)的警告”的報(bào)道中,我認(rèn)為您夸大了這個(gè)可能性,那就是肉身人類和非肉身人類的不同會(huì)導(dǎo)致戰(zhàn)爭(zhēng)。這種下意識(shí)的反人工智能情感出現(xiàn)在一些科幻小說中,例如電影《終結(jié)者》,并且不值得作為嚴(yán)肅討論的主題。
我們(超人的/外星人的/宇宙主義的個(gè)體和科學(xué)家)應(yīng)該做的是去強(qiáng)調(diào)這點(diǎn),那就是人工智能機(jī)器一旦開發(fā)出來,應(yīng)該被當(dāng)作奴隸一樣去對(duì)待,而不應(yīng)該以我們對(duì)待人類一樣的尊敬態(tài)度來看待它們的存在。
只是由于人類是由猿猴進(jìn)化出來這一點(diǎn)并不能說明我們應(yīng)該滅絕猿猴。只是由于另一個(gè)個(gè)體擁有和你同樣的渴望,那就是通過獲取和處理資源而生活和制造財(cái)富,并不意味著它們對(duì)你來說是一個(gè)威脅,并且應(yīng)該死亡。
回答
這種“慷慨的”空洞的觀點(diǎn)我認(rèn)為是很幼稚的,因?yàn)樗墙⒃谛湃位A(chǔ)上的,也就是說,人類相信,人工智能機(jī)器將一直對(duì)我們很友好。我認(rèn)為它忽視了一個(gè)重要的概念—— 風(fēng)險(xiǎn)。如果人類可以100%確定人工智能機(jī)器,特別是高級(jí)人工智能機(jī)器,將一直以我們期待的方式對(duì)待我們,那當(dāng)然是非常理想的。但是,我們不能肯定。我認(rèn)為,人工智能機(jī)器將不得不需要通過進(jìn)化工程技術(shù)來制造,正如我在本書(第5章)中提到的一樣,并且因此,我們永遠(yuǎn)不可能肯定它們的電路對(duì)于人類來說是“道德的”。人工智能機(jī)器們可能會(huì)冷酷地認(rèn)為人類只是害蟲,或者人類對(duì)于它們來說是如此的低等,以至消滅我們從它們的角度來看也毫無關(guān)系。對(duì)于它們來說,殺死人類就像我們殺死蚊子或者踩死螞蟻一樣。
由于這個(gè)賭注關(guān)系到整個(gè)人類的生存,我認(rèn)為地球主義者不會(huì)容忍這個(gè)危險(xiǎn)。他們可能期待最好的,但是,他們的領(lǐng)導(dǎo)們卻有著最壞的打算,最極端來說,如果宇宙主義者真的要制造高級(jí)人工智能機(jī)器的話,他們將計(jì)劃發(fā)動(dòng)一場(chǎng)針對(duì)宇宙主義者的戰(zhàn)爭(zhēng)。
我不認(rèn)為人類將把人工智能機(jī)器看作奴隸。當(dāng)然,一開始,當(dāng)它們還只是愚鈍的機(jī)器人的時(shí)候,可能會(huì)被這樣對(duì)待。真正讓我擔(dān)心的是相反的情形??纯慈祟愂窃鯓訉?duì)待牛、豬、鴨子等動(dòng)物的。和它們相比,我們覺得自己是如此的高等,它們對(duì)于我們來說是美味佳肴,屠宰它們我們一點(diǎn)不介意,除非你是一個(gè)素食主義者。在轉(zhuǎn)化階段,當(dāng)人工智能機(jī)器還基本上是人類智慧水平的時(shí)候,有可能平等對(duì)待它們,但是在某種意義上,它們不是我們的同類,因?yàn)樗鼈儞碛醒杆俪讲⑶沂谴笠?guī)模超越我們的能力。
人類相對(duì)于人工智能機(jī)器來說非常局限,我們的大腦體積是固定的,我們思考和學(xué)習(xí)都很緩慢。一個(gè)在某個(gè)時(shí)刻具有人類智能的人工智能機(jī)器可以在一個(gè)小時(shí)之后變成天才。記住,它的思維速度比我們至少快100萬倍。如果它準(zhǔn)備增加其內(nèi)存大小等,那么,它的能力可以增長(zhǎng)得更快。
我認(rèn)為,這個(gè)評(píng)論給予人工智能機(jī)器太多的人性。它們將和我們非常不同,并且潛在的能力將極大地優(yōu)越于我們。而且,我覺得這個(gè)評(píng)論嚴(yán)重低估了人類對(duì)與高級(jí)人工智能機(jī)器共存這個(gè)事實(shí)的恐懼—— 地球主義的恐懼。我們將不得不去信任它們不會(huì)殺死我們。大多數(shù)地球主義者不愿意面對(duì)這個(gè)風(fēng)險(xiǎn)。他們寧愿去面對(duì)他們所知的惡魔,即宇宙主義者,他們至少還是人類,戰(zhàn)勝他們至少還有一半的機(jī)會(huì)。如果人工智能機(jī)器存在并且決定必須消滅人類的話,那么人類獲勝的幾率將是零。來信人的評(píng)論不夠政治性,他沒有面對(duì)殘酷的現(xiàn)實(shí),他不適合作為一個(gè)將軍或是一名政治領(lǐng)導(dǎo)者。