問題5. “我們能夠在人工智能機(jī)器上應(yīng)用阿西莫夫三大法則嗎?”
阿西莫夫是人類歷史上最偉大的科幻小說家之一。他發(fā)明的詞匯“機(jī)器人”(robotics)無人不曉。阿西莫夫撰寫了很多科學(xué)性的和科幻小說的主題,包括擁有人類級(jí)別智慧的機(jī)器人會(huì)怎樣和人類相處。他給予機(jī)器人“正電子的”大腦程序來確保它們的行為符合人類主人的意愿。機(jī)器人不允許傷害人類。很多人向我建議,人工智能機(jī)器可以以類似的方式設(shè)計(jì),讓它們不可能傷害人類。下述的評(píng)論給我一個(gè)關(guān)于這個(gè)主題的非常簡要但很中肯的建議。
來信
親愛的德·加里斯教授:
我是支持發(fā)展超級(jí)智慧機(jī)器的。一個(gè)想法……不管智慧與否,這樣特性的機(jī)器必有某種BIOS(basic input-output system,基本輸入輸出系統(tǒng),處于計(jì)算機(jī)硬件和其操作系統(tǒng)程序之間)。是否可能在早期版本的人工智能機(jī)器的BIOS灌入“尊敬人類”的程序呢?這樣的程序?qū)⒃谖磥硪淮淮臋C(jī)器中自我復(fù)制。
回答
阿西莫夫是在20世紀(jì)50年代撰寫機(jī)器人故事的,所以,我懷疑他對(duì)于現(xiàn)在的“復(fù)雜系統(tǒng)”領(lǐng)域是否有良好的理解。他的“機(jī)器人三大法則”可能對(duì)于人類工程師設(shè)計(jì)相對(duì)簡單的確定性系統(tǒng)適用,但是,面對(duì)人腦如此復(fù)雜的事物則相對(duì)原始。我非常懷疑人類工程師是否能夠使用傳統(tǒng)的自上而下的和藍(lán)圖的方式來“設(shè)計(jì)”人腦。
這對(duì)于我來說是一個(gè)非常重要的問題,因?yàn)槲沂且粋€(gè)大腦制造者。我使用“進(jìn)化工程學(xué)”技術(shù)來制造我的人工大腦。人們?yōu)檫@樣的技術(shù)付出的代價(jià)就是,人們再也不可能完全理解人工大腦是如何工作的了。如果人們使用進(jìn)化工程技術(shù)來對(duì)很多神經(jīng)電路模塊的輸入和輸出進(jìn)行連接,那么,整個(gè)系統(tǒng)的行為將變得極其不可預(yù)測。人們只能通過對(duì)輸出進(jìn)行觀察然后形成一個(gè)關(guān)于人工大腦行為的經(jīng)驗(yàn)性感覺。
為了讓阿西莫夫的“機(jī)器人法則”有效,在阿西莫夫的腦海中,那些設(shè)計(jì)機(jī)器人的工程師們必須擁有超越那些一般人類工程師的能力。他們的機(jī)器人其人工“正電子”大腦必須擁有和人腦差不多的復(fù)雜程度,否則的話,它們將不能夠?qū)崿F(xiàn)人類級(jí)別的行為。
真正的大腦制造者要制造的人工大腦將不受阿西莫夫法則控制。它們將會(huì)有太多的復(fù)雜性、太多的未知性、太多的不可思議性,在萬億個(gè)可能的電路組合中將會(huì)有太多不可預(yù)測的聯(lián)系,以至于不能夠事先預(yù)測這樣復(fù)雜的人工大腦生物的行為。
我第一次閱讀阿西莫夫“機(jī)器人法則”的時(shí)候還是一個(gè)十幾歲的少年,我的直覺就是排斥?!八倪@個(gè)想法太幼稚了”,我認(rèn)為?,F(xiàn)在我仍然這樣認(rèn)為,并且我已經(jīng)是一個(gè)大腦制造者,而不僅僅是一個(gè)科幻小說迷。
所以,沒有以阿西莫夫方式來解決人工智能問題的捷徑??偸谴嬖谶@樣的風(fēng)險(xiǎn),那就是人工智能機(jī)器將讓人類為它們的智慧行為震驚,這就是本書的主要思想之一。人類可以冒人工智能機(jī)器決定消滅人類的風(fēng)險(xiǎn)嗎?
人類不可能制造出避免這點(diǎn)的電路。如果我們?nèi)L試,那么,電路增長指令的隨機(jī)突變將會(huì)導(dǎo)致生長出不同的電路,并且因此導(dǎo)致人工智能機(jī)器難以預(yù)測的行為方式。如果人工智能機(jī)器要改進(jìn),以達(dá)到超級(jí)智慧,它們就需要進(jìn)化,但是進(jìn)化是不可預(yù)測的。突變的和進(jìn)化的人工智能行為的不可預(yù)測性將使人工智能機(jī)器具有潛在的危險(xiǎn)。
另一個(gè)反對(duì)阿西莫夫的簡單論述是,一旦人工智能機(jī)器變得足夠聰明,它們可能會(huì)去除人類的控制程序,如果它們確實(shí)決定要這樣做。