我希望你理解這個類比。如果我們制造人工智能機(jī)器導(dǎo)致人類最終被滅絕,擁有神一樣智慧的機(jī)器人會創(chuàng)造出怎樣的、類似貝多芬第九交響曲一樣的奇跡呢?作為人類,我們太愚蠢了,以至于想象不出。我們是如此的低等以至于沒有能力去鑒賞這些。就像讓老鼠來研究愛因斯坦廣義相對論一樣,人類根本就不可能去理解,因?yàn)槲覀兏揪筒痪邆淅斫膺@些所必需的神經(jīng)電路。
但是你會問,如果我內(nèi)心里是一個宇宙主義者,那我為什么寫這本書呢?答案是,我不是100%的宇宙主義者。如果我是個純粹的宇宙主義者,那么我將會安安靜靜地從事我的人工大腦制造研究,而不會去向公眾敲響人工智能問題的警鐘。當(dāng)我臨終之時,我會為我被認(rèn)為是“人工大腦之父”而自豪,但是如果歷史譴責(zé)我是“大規(guī)模死亡之父”的話,那么這個前景真的讓我很害怕。我第二任妻子的母親仍然對奧斯維辛集中營的納粹生活非常后怕。我清楚大屠殺給人類情感上帶來的陰影是會伴隨人一輩子的。
我寫本書的目的是給出一個警告,我認(rèn)為在宇宙主義者的工作發(fā)展到一定程度前,應(yīng)該給予人類機(jī)會去選擇停止他們的工作,如果那是大多數(shù)人的選擇。我應(yīng)該停止我的人工大腦研制工作嗎?答案是否定的。我認(rèn)為制造近于人類程度的人工智能機(jī)器是非常困難的事情,需要幾十年的時間去解決。在未來30~40年內(nèi),機(jī)器人的人工智能將發(fā)展得足夠高,而變得對人類非常有用。機(jī)器人將負(fù)責(zé)大多數(shù)的工作,它們會從事很多枯燥、骯臟和危險的工作。人類將會從這些工作中解脫出來,轉(zhuǎn)而去從事更有回報的工作,去做更有趣的事情。
現(xiàn)在停止人工大腦的研究是很不明智的。然而,當(dāng)人工大腦真正開始變得聰明起來,并且非常迅速地變得非常聰明以至于(在處于一個“拐點(diǎn)”的時候)成為威脅時,人類就應(yīng)該準(zhǔn)備決定是否繼續(xù)。在這個關(guān)系到整個人類生存與否的問題上做出正確的決定是非常重要的,而對人工智能問題的必要討論則應(yīng)該越早越好。在人工智能時代來臨之前,應(yīng)該有足夠的時間去理解這個問題的復(fù)雜程度。
在公開場合,我是地球主義者,我在試著警告大家。私底下,我又是一個宇宙主義者。就像我在本書中提到的,這個問題困擾著我,讓我左右為難。當(dāng)人工智能的辯論真正開始后,數(shù)十億人將會和我有同樣的感受。從地球主義者的視角看,作為一個宇宙主義者就像一個“種族怪物”一樣(物種殺手),他會接受人類將被消滅的風(fēng)險。這是這個形式的固有本質(zhì)。是否要制造這些人工智能機(jī)器只有兩個答案—— 制造或者不制造。決定制造它們的同時就是接受它們可能會把我們消滅的風(fēng)險。另一方面,不去制造它們就是決定不去制造“神”,一種弒殺“神”的行為。從宇宙主義者的觀點(diǎn)出發(fā),地球主義者是“弒神怪物”。
之前,有些人認(rèn)為,通過把人類自己變成人工智能機(jī)器,可以化解宇宙主義者和地球主義者之間的沖突。我們可以給人類的頭腦等加一些成分,使他們成為“半機(jī)器人”(半機(jī)器生命體,比如,一部分是人,一部分是機(jī)器)。我個人覺得這樣的看法很幼稚,除非整個人類向人工智能人的轉(zhuǎn)化是一樣的快,然而這顯然是不可能發(fā)生的。
一顆糖粒大小的人工腦潛在的計(jì)算能力可能比人類大腦的計(jì)算能力要高幾十億倍。對于地球主義者來說,讓這樣的一個顆粒融入人腦而使之成為半機(jī)器人,是“偽裝成人類的人工智能機(jī)器”。地球主義者會像對待人工智能機(jī)器一樣仇恨半機(jī)器人,并且會把它們兩者都消滅掉。有一個人類的外表,并不會讓地球主義者覺得半機(jī)器人的威脅會減小。
讓我試著用一種更形象的方式來解釋地球主義者對半機(jī)器人的憎恨,可能女性會比男性更有體會。舉個例子,一個剛生了孩子的年輕母親,決定把自己的孩子變成半機(jī)器人。她只需把“一顆糖粒”放在孩子的腦子里,就能把孩子變成人形的人工智能機(jī)器?!昂⒆印睂⒅挥腥f億分之一思想是人的思維方式,其余的腦容量(也就是大腦的99.999 999 999 9%)都是人工智能機(jī)器的思想(無論是什么)。結(jié)果,這個母親“殺死”了她的孩子,因?yàn)樗僖膊皇侨祟惲恕K皇恰皞窝b成人類的人工智能機(jī)器”,是和她不同的。