問題11. “悲劇可以避免嗎?”
下面的一些問題,來自我和我的一些朋友。本來我想單獨寫一章節(jié),但是最后還是決定在這里討論它。
來信
親愛的德·加里斯教授:
您的工作是如此的悲觀,它給予人們的印象是大規(guī)模死亡的戰(zhàn)爭將不可避免。難道沒有更加正面的前景嗎?
回答
是的,有正面的,我將在下面列舉和討論一些,因為這個問題是非常基本的。然而我個人的觀點是,下面的每一個場景的可能性都不大。我花費很多時間希望能夠找到避免我在本書描述的凄涼景象的替代前景,但是,我每次描述的新場景好像永遠(yuǎn)都不會成為現(xiàn)實。我請讀者自己來做出判斷。我希望下面所提供的替代場景容易理解。每一個場景都緊跟著我的評論,來解釋為什么我認(rèn)為這個場景是經(jīng)不住認(rèn)真推敲的。我給了8個場景來說明很多替代場景是可能的。
作為讀者,你們可能會想象出其他的場景。如果你經(jīng)過思考真的覺得你的場景是可能的,并且這個場景里沒有人類的災(zāi)難,那么請和我聯(lián)系,因為如果我贊同你的觀點,興許我可以在晚上睡得踏實點。其他關(guān)心本書所提問題的人也會更高興聽到您的觀點,并且我可能在之后改編此書時提到這點。
場景1 地球主義者會以人類微小的代價勝出
這里的觀點是,地球主義者組成了地球公民的主體,他們是無情的并且可以迅速撲滅宇宙主義思想和宇宙主義者。他們殺死宇宙主義者,只是殺死幾百萬,防止宇宙主義者真正有機(jī)會結(jié)為大型組織。
評論
我不覺得這會發(fā)生。事實上,人們更期待新事物的產(chǎn)生,也就是說,本世紀(jì)人工智能的崛起將屬于像我這樣非常明白大腦制造前景的宇宙主義者。我預(yù)言,遲些時候,一旦大眾的了解成為普遍的事實,越來越意識到人工智能問題的宇宙主義者和地球主義者的數(shù)目將達(dá)到相當(dāng)。雙方將有時間在政治上、思想上和軍事上進(jìn)行準(zhǔn)備。
當(dāng)我讓人們在我的演講結(jié)束后投票表決人類是否應(yīng)該制造人工智能機(jī)器時,表決結(jié)果的比例是50︰50,所以說地球主義者將不可能是主體。當(dāng)事情真的來臨的時候,并且當(dāng)真正開始制造人工智能機(jī)器的時候,這個比例是否會變還是一個待解之謎。
場景2 人類適應(yīng)了地球上的人工智能機(jī)器,人工智能機(jī)器們不理睬我們并且離開這個星球
這里的觀點是,人工智能機(jī)器的崛起是如此的緩慢,以至于人類適應(yīng)了它們,即使它們變得比我們更加聰明。可能事實上沒有什么真正壞的事情發(fā)生。人工智能機(jī)器大規(guī)模在智慧上超越我們,并且離開這個星球去做其他的事情。
評論
我認(rèn)為這絕對是一個可能的場景,但是它充滿風(fēng)險。我們永遠(yuǎn)都不能確定人工智能機(jī)器一直會對我們友好。它們對我們來說是如此的深不可測,并且難以預(yù)料。人類的命運將在它們的手中。它們可以在任何時候以我們可能永遠(yuǎn)無法了解的原因反對我們。我不認(rèn)為有責(zé)任心的、具有全局思維的、關(guān)心人類命運的地球主義領(lǐng)導(dǎo)者會接受這樣的風(fēng)險。他們一定不會容忍人類冒這樣的風(fēng)險。
場景3 宇宙主義者變得普遍不受歡迎以至于他們消失了
也許早期制造人工智能的實驗結(jié)果是如此的消極,即使宇宙主義者也開始害怕而轉(zhuǎn)變?yōu)榈厍蛑髁x者,并且達(dá)到了沒有一個宇宙主義者的程度。
評論
我覺得這是非常不可能的。總會有宇宙主義者,并且有不同虔誠和狂熱程度的宇宙主義者。那些認(rèn)為“一個人工智能機(jī)器頂?shù)蒙先f億萬億人類”的宇宙主義狂熱分子,將不允許任何阻止他們的逆流。他們將堅持干下去。只要有數(shù)百位進(jìn)行秘密研究的宇宙主義者就完全可以制造出人工智能機(jī)器。通過自我說服讓所有的宇宙主義者從這個地球上消失幾乎是不可能的。
場景4 半機(jī)器人的選擇變得非常有吸引力以至于沒有人愿意成為地球主義者