問題3. “為什么沒有一個甜蜜和輕松的前景呢?”
很多人認(rèn)為,當(dāng)我預(yù)言人工智能問題將爆發(fā)一場戰(zhàn)爭的時候,我可能太極端了。他們認(rèn)為人工智能機(jī)器和人類應(yīng)該能夠以一種“甜蜜和輕松”的方式和諧共處。舉個例子,下面是兩個這樣的觀點。
來信
親愛的德·加里斯教授:
我讀過您的一些關(guān)于人工智能的文章,并且我或多或少地同意您的觀點,那就是本世紀(jì)最重要的辯論之一,將是關(guān)于“人類”這個詞匯的定義問題。
然而,在您的文章中,還有一篇上的名為“瑞士科學(xué)家關(guān)于機(jī)器人的《圣經(jīng)》哈米吉多頓(世界末日善惡決戰(zhàn)的戰(zhàn)場)之戰(zhàn)的警告”的報道中,我認(rèn)為您夸大了這個可能性,那就是肉身人類和非肉身人類的不同會導(dǎo)致戰(zhàn)爭。這種下意識的反人工智能情感出現(xiàn)在一些科幻小說中,例如電影《終結(jié)者》,并且不值得作為嚴(yán)肅討論的主題。
我們(超人的/外星人的/宇宙主義的個體和科學(xué)家)應(yīng)該做的是去強(qiáng)調(diào)這點,那就是人工智能機(jī)器一旦開發(fā)出來,應(yīng)該被當(dāng)作奴隸一樣去對待,而不應(yīng)該以我們對待人類一樣的尊敬態(tài)度來看待它們的存在。
只是由于人類是由猿猴進(jìn)化出來這一點并不能說明我們應(yīng)該滅絕猿猴。只是由于另一個個體擁有和你同樣的渴望,那就是通過獲取和處理資源而生活和制造財富,并不意味著它們對你來說是一個威脅,并且應(yīng)該死亡。
回答
這種“慷慨的”空洞的觀點我認(rèn)為是很幼稚的,因為它是建立在信任基礎(chǔ)上的,也就是說,人類相信,人工智能機(jī)器將一直對我們很友好。我認(rèn)為它忽視了一個重要的概念—— 風(fēng)險。如果人類可以100%確定人工智能機(jī)器,特別是高級人工智能機(jī)器,將一直以我們期待的方式對待我們,那當(dāng)然是非常理想的。但是,我們不能肯定。我認(rèn)為,人工智能機(jī)器將不得不需要通過進(jìn)化工程技術(shù)來制造,正如我在本書(第5章)中提到的一樣,并且因此,我們永遠(yuǎn)不可能肯定它們的電路對于人類來說是“道德的”。人工智能機(jī)器們可能會冷酷地認(rèn)為人類只是害蟲,或者人類對于它們來說是如此的低等,以至消滅我們從它們的角度來看也毫無關(guān)系。對于它們來說,殺死人類就像我們殺死蚊子或者踩死螞蟻一樣。
由于這個賭注關(guān)系到整個人類的生存,我認(rèn)為地球主義者不會容忍這個危險。他們可能期待最好的,但是,他們的領(lǐng)導(dǎo)們卻有著最壞的打算,最極端來說,如果宇宙主義者真的要制造高級人工智能機(jī)器的話,他們將計劃發(fā)動一場針對宇宙主義者的戰(zhàn)爭。
我不認(rèn)為人類將把人工智能機(jī)器看作奴隸。當(dāng)然,一開始,當(dāng)它們還只是愚鈍的機(jī)器人的時候,可能會被這樣對待。真正讓我擔(dān)心的是相反的情形??纯慈祟愂窃鯓訉Υ?、豬、鴨子等動物的。和它們相比,我們覺得自己是如此的高等,它們對于我們來說是美味佳肴,屠宰它們我們一點不介意,除非你是一個素食主義者。在轉(zhuǎn)化階段,當(dāng)人工智能機(jī)器還基本上是人類智慧水平的時候,有可能平等對待它們,但是在某種意義上,它們不是我們的同類,因為它們擁有迅速超越并且是大規(guī)模超越我們的能力。
人類相對于人工智能機(jī)器來說非常局限,我們的大腦體積是固定的,我們思考和學(xué)習(xí)都很緩慢。一個在某個時刻具有人類智能的人工智能機(jī)器可以在一個小時之后變成天才。記住,它的思維速度比我們至少快100萬倍。如果它準(zhǔn)備增加其內(nèi)存大小等,那么,它的能力可以增長得更快。
我認(rèn)為,這個評論給予人工智能機(jī)器太多的人性。它們將和我們非常不同,并且潛在的能力將極大地優(yōu)越于我們。而且,我覺得這個評論嚴(yán)重低估了人類對與高級人工智能機(jī)器共存這個事實的恐懼—— 地球主義的恐懼。我們將不得不去信任它們不會殺死我們。大多數(shù)地球主義者不愿意面對這個風(fēng)險。他們寧愿去面對他們所知的惡魔,即宇宙主義者,他們至少還是人類,戰(zhàn)勝他們至少還有一半的機(jī)會。如果人工智能機(jī)器存在并且決定必須消滅人類的話,那么人類獲勝的幾率將是零。來信人的評論不夠政治性,他沒有面對殘酷的現(xiàn)實,他不適合作為一個將軍或是一名政治領(lǐng)導(dǎo)者。