問題7. “為什么過度強調(diào)負(fù)面部分?”
一位讀者給了我一些常識性的建議,如果他是對的,那我在將來應(yīng)該更加注意。他的重點是,我不應(yīng)該“煽動”這樣的反對,這將導(dǎo)致我的工作受阻。
來信
親愛的德·加里斯教授:
對于我們在過去的交流,我非常感激。在CNN在線,我讀了您的一篇文章,您在這篇文章中再一次談?wù)摿艘粓霭l(fā)生在那些想要制造自動機器人的人們和那些反對制造的人們之間的潛在沖突。雖然我知道您的評論可能被某些人看作對未來的警告,但是我知道您在人工智能研究領(lǐng)域上進展迅速。您是否認(rèn)為您的“警告”將對您的研究產(chǎn)生負(fù)面影響呢?
一些國家最近已經(jīng)明令禁止克隆研究。是否有可能,太多關(guān)于機器人的恐怖故事會促使一些人去尋求對于人工智能和自動機器人研究的禁令?那樣會對您的人工大腦項目帶來怎樣的影響呢?把哲學(xué)放在一邊不說,單單從公共關(guān)系角度來說,我們是否應(yīng)該至少在公共場合強調(diào)人工智能和機器人以及機器人學(xué)的正面效應(yīng)呢?我希望,機器人可以變成我孩子們的玩具而不希望讓他們做機器人的噩夢。
同時,我也確實意識到,在未來可能潛伏著一些真正可怕的危險。我個人關(guān)于人工智能、人工智能機器等所有問題的看法還沒有完全形成。我相信科學(xué)和進步。我同時也有這樣的認(rèn)識,人類渴望制造一個更加完美版本的自身。我們應(yīng)該停止研究嗎?不!我們是否應(yīng)該繼續(xù)不受控制?我不知道以上問題的答案,但是記者的經(jīng)歷使我知道,一個像您這樣具有爭議性的人物,會被無禮地拿來作為引用材料。他們這樣做是為了擁有好的報導(dǎo)素材。
我知道,您想要敘說您的故事,并且有很多人想要聆聽您的敘述。人類克隆技術(shù)可能比人工智能技術(shù)離人們更近,但是,大眾可以并且經(jīng)??梢越Y(jié)合成一個憤怒的整體。如果您允許自己成為弗蘭肯斯泰因博士(被自己的創(chuàng)造物毀滅的人,作法自斃的人)的話,那么,可能有人會對您所說和所做的非常不滿。我只是希望您不要對恐怖故事的宣傳做得太過火。
回答
我是比較實際的。就像蘆葦一樣我會隨風(fēng)而彎不至于折斷,以便我的工作可以繼續(xù)。我會認(rèn)真考慮你的意見,因為這是好的建議。我猜想這是一個程度的問題。我強烈地覺得應(yīng)該去警示大眾。我們會在20年內(nèi)擁有“一原子一比特”的計算機內(nèi)存,并且可能也會擁有納米技術(shù)。第一臺人工大腦的產(chǎn)生只是一個時間問題,并且不會要很多年的時間。人工智能問題將在本世紀(jì)變得非常現(xiàn)實。
作為最早的一批在政治意義上認(rèn)真思考這些問題的科學(xué)家之一,并且作為一名真正的人工大腦制造者,我非常焦慮。由于時間還夠,我覺得我有一種道德上的責(zé)任去警示大眾。(如果要討論這件事情上面明顯的偽善性,比如說,我在進行大腦制造的同時卻對此持焦慮態(tài)度,請閱讀下面的另一個評論。)
我認(rèn)為,技術(shù)上的指數(shù)級增長會帶來知識上的指數(shù)級增長,這將確保我在本書中提出的問題在十幾年內(nèi)變得眾所周知。我認(rèn)為我必須去宣傳這條信息,在事情突然到來之前給予人類時間來思考這個問題。請閱讀第一個關(guān)于“時間問題”的討論。但是如果我走向極端,那么你可能是對的。
我將靜觀其變,來看看大眾的意見。如果大眾的意見變得過于負(fù)面,也許我將軟化一些。我自己也不能肯定我該做些什么。人工智能問題仍然很陌生,并且即使是在我的腦海中我還一直試圖融合所有的枝節(jié)—— 技術(shù)的、科學(xué)的、道德的、哲學(xué)的、政治的、宗教的、宇宙的,等等。