問題6. “為什么給它們刀片呢?”
不要給小孩刀片是一個常識,因為他們只會傷害到自己。小孩們?nèi)狈ΤWR,不知道刀刃是很危險的,也不具有小心處理刀片的能力。很多國家關(guān)于禁止公民私自擁有槍支也持有類似的考慮。給予這樣的允許只會大規(guī)模增加槍殺率,因為大多數(shù)這樣的持槍殺人事件發(fā)生在家庭成員的短暫暴怒中,并且緊接著的就是無盡的懺悔。(根據(jù)統(tǒng)計數(shù)據(jù),在美國,由于槍支的易購性,每年有30 000起槍殺事件,而在禁止藏槍的日本,每年僅有100起。)我的某些批評者可能會認為,同樣的邏輯應該適用于人工智能機器。如果想讓它們對人類無害,就不應該讓它們擁有武器。
來信
親愛的德·加里斯教授:
我認為沒有任何理由去懼怕這樣的機器。如果你不想讓這樣的機器做某些事情,那么就別給它們這樣的能力。機器不可能發(fā)射核彈頭,除非你賦予它們相應的能力。同樣,機器人不會反對并且殺死它們的制造者,除非你讓它們擁有這樣的能力。我看待這個問題的方式是,制造可以自己獨立思考的機器,然后把它們放置在一個控制室內(nèi),給予它們發(fā)射導彈的能力,將是非常愚蠢的行為。如果你可以避免做出類似愚蠢事情的話,就根本不需要懼怕這些機器。要知道哪些事情可為,哪些不可為。看看電影《戰(zhàn)爭游戲》(War Games),或者,既然你曾經(jīng)在日本呆過,試試看看電影《攻殼機動隊》(Ghost in the Shell)。我編寫人工智能軟件已經(jīng)有些年頭,所以我覺得我的觀點至少有些分量。
回答
這個論述一個明顯的缺點就是,它不準備給予人工智能機器足夠的智慧。一個至少達到接近人類智慧水平和感知能力的人工智能機器,例如視覺、聽覺,等等。如果它們真想的話,將可以以自己的方式來行賄人類,讓其可以控制武器。舉個例子,一個非常聰明,可以接觸到世界上的所有數(shù)據(jù)庫,至少比人類思考快百萬倍的人工智能機器,可能有能力發(fā)現(xiàn)一些對人類來說有巨大價值的事物。例如,它可能會發(fā)現(xiàn)如何經(jīng)營全球經(jīng)濟而不需要長期的商業(yè)周期的方法,或者如何去治療癌癥,或者是如何在物理學上得出“萬事理論”(Theory of Everything,TOE),等等。然后,它可以把這些知識當作手中的王牌來和其人類“主人”談判,獲取想要的工具。
當然,人們可以給予人工智能機器非常少的對外感知能力,但是,如果它沒有什么用,我們又為什么去制造它呢?一個聰明的人工智能機器可以通過其最初有限的對外接觸來發(fā)現(xiàn)知識,然后通過其智慧來控制人類滿足它們的愿望。一個高級人工智能機器可能是一個超級福爾摩斯偵探,很快就可以推導出世界是什么樣子的。它明白它可以控制武器來反對人類,如果它真的想這樣做的話。人工智能機器可以通過賄賂、威脅、引誘,等等任何必要的方法,去說服人類為其提供接觸武器的機會。