正文

問題5 人工智能否應用阿西莫夫三法則

智能簡史:誰會替代人類成為主導物 作者:(美)雨果·德·加里斯


  問題5. “我們能夠在人工智能機器上應用阿西莫夫三大法則嗎?”

  阿西莫夫是人類歷史上最偉大的科幻小說家之一。他發(fā)明的詞匯“機器人”(robotics)無人不曉。阿西莫夫撰寫了很多科學性的和科幻小說的主題,包括擁有人類級別智慧的機器人會怎樣和人類相處。他給予機器人“正電子的”大腦程序來確保它們的行為符合人類主人的意愿。機器人不允許傷害人類。很多人向我建議,人工智能機器可以以類似的方式設計,讓它們不可能傷害人類。下述的評論給我一個關于這個主題的非常簡要但很中肯的建議。

  來信

  親愛的德·加里斯教授:

  我是支持發(fā)展超級智慧機器的。一個想法……不管智慧與否,這樣特性的機器必有某種BIOS(basic input-output system,基本輸入輸出系統(tǒng),處于計算機硬件和其操作系統(tǒng)程序之間)。是否可能在早期版本的人工智能機器的BIOS灌入“尊敬人類”的程序呢?這樣的程序?qū)⒃谖磥硪淮淮臋C器中自我復制。

  回答

  阿西莫夫是在20世紀50年代撰寫機器人故事的,所以,我懷疑他對于現(xiàn)在的“復雜系統(tǒng)”領域是否有良好的理解。他的“機器人三大法則”可能對于人類工程師設計相對簡單的確定性系統(tǒng)適用,但是,面對人腦如此復雜的事物則相對原始。我非常懷疑人類工程師是否能夠使用傳統(tǒng)的自上而下的和藍圖的方式來“設計”人腦。

  這對于我來說是一個非常重要的問題,因為我是一個大腦制造者。我使用“進化工程學”技術來制造我的人工大腦。人們?yōu)檫@樣的技術付出的代價就是,人們再也不可能完全理解人工大腦是如何工作的了。如果人們使用進化工程技術來對很多神經(jīng)電路模塊的輸入和輸出進行連接,那么,整個系統(tǒng)的行為將變得極其不可預測。人們只能通過對輸出進行觀察然后形成一個關于人工大腦行為的經(jīng)驗性感覺。

  為了讓阿西莫夫的“機器人法則”有效,在阿西莫夫的腦海中,那些設計機器人的工程師們必須擁有超越那些一般人類工程師的能力。他們的機器人其人工“正電子”大腦必須擁有和人腦差不多的復雜程度,否則的話,它們將不能夠?qū)崿F(xiàn)人類級別的行為。

  真正的大腦制造者要制造的人工大腦將不受阿西莫夫法則控制。它們將會有太多的復雜性、太多的未知性、太多的不可思議性,在萬億個可能的電路組合中將會有太多不可預測的聯(lián)系,以至于不能夠事先預測這樣復雜的人工大腦生物的行為。

  我第一次閱讀阿西莫夫“機器人法則”的時候還是一個十幾歲的少年,我的直覺就是排斥?!八倪@個想法太幼稚了”,我認為?,F(xiàn)在我仍然這樣認為,并且我已經(jīng)是一個大腦制造者,而不僅僅是一個科幻小說迷。

  所以,沒有以阿西莫夫方式來解決人工智能問題的捷徑??偸谴嬖谶@樣的風險,那就是人工智能機器將讓人類為它們的智慧行為震驚,這就是本書的主要思想之一。人類可以冒人工智能機器決定消滅人類的風險嗎?

  人類不可能制造出避免這點的電路。如果我們?nèi)L試,那么,電路增長指令的隨機突變將會導致生長出不同的電路,并且因此導致人工智能機器難以預測的行為方式。如果人工智能機器要改進,以達到超級智慧,它們就需要進化,但是進化是不可預測的。突變的和進化的人工智能行為的不可預測性將使人工智能機器具有潛在的危險。

  另一個反對阿西莫夫的簡單論述是,一旦人工智能機器變得足夠聰明,它們可能會去除人類的控制程序,如果它們確實決定要這樣做。


上一章目錄下一章

Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號