注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊文化

尤瓦爾·赫拉利:人工智能對我們的操控,可能比你想的更嚴(yán)重

2022年底,一款功能強大的AI語言模型ChatGPT橫空出世,成為全球熱議話題。人工智能技術(shù)的最新進展讓人們驚嘆的同時,也讓“機器取代人腦”“人工智能的威脅與監(jiān)管”等問題再度成為焦點。

2022年底,一款功能強大的AI語言模型ChatGPT橫空出世,成為全球熱議話題。人工智能技術(shù)的最新進展讓人們驚嘆的同時,也讓“機器取代人腦”“人工智能的威脅與監(jiān)管”等問題再度成為焦點。

2023年4月29日,在Frontiers論壇上,《人類簡史》《未來簡史》《今日簡史》的作者尤瓦爾·赫拉利也發(fā)表了關(guān)于人工智能與人類的未來主題演講,提出了他的看法。他認(rèn)為,人工智能正在以超過人類平均水平的能力掌握語言。而通過掌握語言,人工智能正在掌握入侵人類文明系統(tǒng)的鑰匙。

人工智能對我們的威脅,可能比想象的更嚴(yán)重。

本文為尤瓦爾·赫拉利此次演講的全文,經(jīng)尤瓦爾·赫拉利團隊的授權(quán),首發(fā)于微信公號“中信出版”(微信號:citicpub)。

是的,今天我想和大家談的是人工智能和人類的未來。

我知道這次會議的重點是人類正面臨的生態(tài)危機,而人工智能無論好壞都是這場危機的一部分。人工智能可以在很多方面幫助我們解決生態(tài)危機,但也可以加劇危機。

事實上,人工智能可能會改變生態(tài)系統(tǒng)的意義。因為,40億年以來地球的生態(tài)系統(tǒng)只包含有機生命形式,而現(xiàn)在或不久的將來我們可能會看到第一批無機生命形式的出現(xiàn),或至少是無機媒介的出現(xiàn)。

自二十世紀(jì)中葉計算機時代開始,人們始終對人工智能懷有恐懼,這種恐懼激發(fā)了許多經(jīng)典科幻作品的誕生,如《終結(jié)者》《黑客帝國》等。

雖然這類科幻場景已經(jīng)成為文化符號,但它們通常不會在學(xué)術(shù)、科學(xué)和政治辯論中被嚴(yán)肅對待。這也是可以理解的,因為科幻作品一般會作這樣的假設(shè):人工智能構(gòu)成對人類的重大威脅之前,它必須躍過兩個重要的里程碑——

首先,人工智能必須變得有知覺,發(fā)展出意識、感覺和情感,否則它為什么想要接管世界;其次,人工智能必須適應(yīng)在物理世界中給自己定位,機器人必須能夠像人一樣高效地在房屋、城市、山脈和森林中移動和運轉(zhuǎn),如果他們無法在物理世界中移動,那怎么可能接管這個世界?

在2023年4月之前,人工智能似乎還遠(yuǎn)遠(yuǎn)沒有到達(dá)這兩個里程碑,盡管人們圍繞ChatGPT和其他新的人工智能工具進行了大肆宣傳,但沒有證據(jù)表明這些工具有一絲意識、感覺或情感。至于在物理世界中活動,雖然自動駕駛技術(shù)一直算熱門話題,但汽車主宰人類道路的時間仍一直在推遲。

然而,壞消息是人工智能要威脅人類文明的生存,并不真正需要意識,也不需要在物理世界中移動的能力。在過去的幾年里,新的人工智能工具被運用到公共領(lǐng)域,可能會從一個非常意想不到的方向威脅到人類文明的生存。我們甚至很難理解這些新型人工智能工具的能力,以及它們持續(xù)發(fā)展的速度。

事實上,因為人工智能能夠自我學(xué)習(xí)并自我改進,即使是這些工具的開發(fā)者也不知道他們所創(chuàng)造的東西的全部功能,他們自己也經(jīng)常對這些工具的新能力和高品質(zhì)感到驚訝。

我想在座的每個人都已經(jīng)了解新型人工智能工具一些最基本的能力,像寫作、繪畫、作曲和編寫代碼等能力。但還有許多其他功能正在涌現(xiàn),比如深度偽造人們的聲音和圖像,起草法案,找出計算機代碼、合同和法律文書中的漏洞。但也許最重要的是,新的人工智能工具有能夠與人類建立深厚而親密的關(guān)系的能力。

這些能力中的每一項都值得充分討論,我們很難理解它們的全部含義,所以把這個問題簡單化。如果把所有這些能力當(dāng)作一個整體,就可以總結(jié)為一個非常非常大的東西——操縱和生成語言的能力,無論是用文字、圖像還是聲音。

當(dāng)前人工智能革命最重要的方面是,人工智能正在以超過人類平均水平的能力掌握語言。通過掌握語言,人工智能正在掌握打開從銀行到寺廟等所有機構(gòu)大門的萬能鑰匙。因為語言是我們用來向銀行發(fā)出指令的工具,也是我們頭腦中做出重大決定的工具。

從另一個角度來看這個問題,那就是人工智能剛剛?cè)肭至巳祟愇拿鞯牟僮飨到y(tǒng)。歷史上每一種人類文化的操作系統(tǒng)都是語言,在這個文明世界的開端,我們用語言創(chuàng)造神話和法律,創(chuàng)造神和金錢,創(chuàng)造藝術(shù)和科學(xué),創(chuàng)造友誼和國家。

例如,人權(quán)不是生物學(xué)上的客觀事實,它沒有刻在我們的DNA中,人權(quán)是我們用語言通過講故事和制定法律創(chuàng)造出來的東西;神也不是生物的或物理上的現(xiàn)實,而是我們?nèi)祟愑谜Z言再通過傳說和經(jīng)文創(chuàng)造出來的;金錢當(dāng)然也不是物理存在,鈔票只不過是一張張毫無價值的紙,而目前世界上90%以上的錢甚至都不是鈔票,它只是電腦中傳輸?shù)碾娮有畔ⅲ苜x予金錢各種價值的只有故事。不少銀行家、財政部長和加密貨幣大佬他們并沒有創(chuàng)造多少真正有價值的東西,但他們都是極有能力的故事講述者。

今天,在像國際象棋這樣的游戲中,沒有人能打敗計算機。如果同樣的事情發(fā)生在我們的政治、經(jīng)濟甚至宗教領(lǐng)域呢?

當(dāng)人們想到ChatGPT和其他新的人工智能工具時,經(jīng)常會被這類例子吸引,比如孩子們使用ChatGPT寫論文。一旦孩子們用ChatGPT寫論文,學(xué)校系統(tǒng)將會發(fā)生什么?太可怕了。

但這類問題忽略了大局,姑且放下學(xué)校的論文吧,比如說,我們應(yīng)該談?wù)?024年的下一屆美國總統(tǒng)大選,嘗試著想象新的人工智能工具可以帶來的影響,這些工具可以為某種新的邪教利用,大規(guī)模制造政治宣言、假新聞故事和這一教派自己的圣經(jīng)。未來,我們可能會看到歷史上第一個由非人類智能創(chuàng)作圣經(jīng)的宗教。

當(dāng)然,歷史上的宗教都聲稱他們的圣經(jīng)是由非人類智慧創(chuàng)作的,這在此之前是不可能的,但很快就會成為現(xiàn)實,并影響深遠(yuǎn)。

現(xiàn)在,在一個更平淡的層面上,我們可能很快就會發(fā)現(xiàn)和自己在網(wǎng)上長時間討論墮胎、氣候變化或俄烏沖突的人——你以為是人類同胞,實際上是人工智能機器人。

問題是,我們浪費時間試圖說服人工智能機器人改變其政治觀點是毫無意義的,但我們與它交談的時間越長,它就越了解我們,了解如何磨練它的信息,以改變我們的政治觀點、經(jīng)濟觀點或其他任何東西。

通過對語言的掌握,人工智能也可以與人建立親密關(guān)系,并利用親密的力量來影響我們的觀點。

正如我所說,沒有跡象表明人工智能有任何意識或自己的感情,但為了與人類建立虛假的親密關(guān)系,人工智能不需要自己的感情,它只需要能夠激發(fā)我們的感情,讓我們對它產(chǎn)生依戀。

2022年6月,谷歌工程師布萊克·萊莫因(Blake Lemoine)公開聲稱,他正在研究的人工智能聊天機器人LaMDA已經(jīng)有了感知能力。這件事最有趣的不是萊莫因的說法,他的說法很可能是錯的,他最終也失去了工作。真正有趣的是,他愿意冒著失去高薪工作的風(fēng)險去保護這個人工智能聊天機器人。

尤瓦爾·赫拉利


如果人工智能可以影響人們?nèi)ッ笆スぷ鞯娘L(fēng)險,它還能誘使我們做什么呢?

在每一場心靈和思想的政治斗爭中,親密關(guān)系是最有效的武器。人工智能剛剛獲得了與數(shù)億人大規(guī)模產(chǎn)生親密關(guān)系的能力。

你們可能都知道,在過去的十年里,社交媒體已經(jīng)成為控制人類注意力的戰(zhàn)場。現(xiàn)在,隨著新一代人工智能的出現(xiàn),戰(zhàn)場正從注意力轉(zhuǎn)向親密關(guān)系,這是一個非常壞的消息。

當(dāng)人工智能為了與我們建立親密關(guān)系而戰(zhàn)斗時,人類社會和人類心理會發(fā)生什么變化?這些關(guān)系也可以用來說服我們購買特定的產(chǎn)品或投票給特定的政治人物。

即使沒有制造虛假的親密關(guān)系,新的人工智能工具將對人類的觀點和世界觀產(chǎn)生劇烈的影響,并且成為人類需要的所有信息的來源。

當(dāng)可以讓人工智能告訴我任何想要的東西時,為什么還要自己搜索?當(dāng)可以讓人工智能告訴我有什么新聞時,為什么還要讀報紙?當(dāng)我可以讓人工智能告訴我該買什么的時候,廣告的意義和目的又是什么呢?

很有可能在很短的時間內(nèi),整個新聞廣告行業(yè)將崩潰,而人工智能或控制人工智能的人和公司將變得非常非常強大。

我們可能談?wù)摰氖侨祟悮v史的終結(jié),但這并不是歷史的終結(jié)而只是人類統(tǒng)治時代的終結(jié)。

當(dāng)人工智能接管文化時,歷史進程會發(fā)生什么?幾年之內(nèi),人工智能可以消化掉整個人類文化,消化掉那些我們幾千年來創(chuàng)造出來的所有東西,并開始產(chǎn)出大量新的文化創(chuàng)作、新的文化產(chǎn)物。

記住,我們?nèi)祟悘膩頉]有真正直接接觸過現(xiàn)實。我們總是被文化所束縛,我們總是通過文化的牢籠來體驗現(xiàn)實。我們的政治觀點受到記者的報道和朋友的故事的影響,我們的性取向受到電影和童話的影響,甚至我們走路和呼吸的方式也受到文化傳統(tǒng)的影響。

在此之前,這個文化繭房總是由其他人編織而成。以前的工具,如印刷機、收音機或電視,它們有助于傳播人類的文化思想和創(chuàng)造,但它們永遠(yuǎn)無法自己創(chuàng)造出新的東西。印刷機不能出一本新書,這是由人來完成的。

人工智能從根本上不同于印刷工藝,不同于無線電,不同于歷史上的任何一項發(fā)明,因為它可以創(chuàng)造全新的想法,可以創(chuàng)造一種新的文化。

在最初的幾年里,人工智能可能會在很大程度上模仿初期“哺育”它的人類原型,但隨著時間的推移,人工智能文化將大膽地走向人類從未涉足的領(lǐng)域。

幾千年來,我們?nèi)祟惢旧仙钤谒说膲粝牒突孟胫?。我們崇拜神靈,我們追求美的理想,我們把自己的生命奉獻(xiàn)給源于某些人類詩人、先知或政治家想象的事業(yè)。很快,我們可能會發(fā)現(xiàn)自己生活在人工智能的夢想和幻想中。

如何處理這種潛在的危險與科幻作品的想象非常不同。此前,人們主要擔(dān)心的是智能機器帶來的人身威脅,所以在《終結(jié)者》中機器人在街上奔跑,射殺人類;《黑客帝國》則假設(shè)要想完全控制人類社會,人工智能首先需要控制人類的大腦,并將大腦直接連接到計算機網(wǎng)絡(luò),但這是錯誤的。

只要掌握了人類語言,人工智能就能在一個像矩陣一樣的幻想世界中生存。真的不需要為了控制和操縱人類而在他們的大腦中植入芯片,幾千年來,先知、詩人和政治家們一直使用語言和講故事來控制、操縱人類,重塑社會,現(xiàn)在人工智能很可能就能做到這一點。

它不需要讓殺人機器人來射殺我們,如果真的需要,它完全可以讓人類自己來扣動扳機。

現(xiàn)今這種對人工智能的恐懼只困擾著最近數(shù)代人類,從20世紀(jì)中葉倒回到弗蘭肯斯坦這一形象出現(xiàn)的時代,差不多有200年的時間。但幾千年來,人類一直被一種更深層次的恐懼所困擾。人類一直很重視故事、圖像和語言的力量,它們可以操縱人類的思想,創(chuàng)造幻覺。因此,自古以來,人類就害怕被困在幻想的世界里。17世紀(jì),笛卡爾害怕惡魔把他困在各種各樣的幻覺中,制造了他所看到和聽到的一切;在古希臘,柏拉圖講過一個著名的“洞穴寓言”,一群人被鎖在一個洞穴里,面對著一堵空白的墻,他們看到投射在墻面上的各種陰影,并把這些陰影誤認(rèn)為是現(xiàn)實;在古印度,佛教和印度教認(rèn)為,人類生活在他們稱之為“瑪雅”的地方——瑪雅是一個充滿幻想的世界。

佛陀說,我們通常認(rèn)為是現(xiàn)實的東西,往往只是我們自己心中的虛構(gòu)。

人們可能會發(fā)動全面戰(zhàn)爭,殺死別人,甚至愿意殺死自己,因為他們相信這些虛構(gòu)的東西,所以人工智能革命讓我們與紙牌惡魔、柏拉圖的洞穴還有瑪雅面對面,如果不小心,幻覺的帷幕可能會籠罩整個人類,我們將永遠(yuǎn)無法撕開那塊帷幕,甚至無法意識到它的存在,因為我們認(rèn)為這就是現(xiàn)實。

如果這聽起來有些牽強,那看看過去幾年的社交媒體。社交媒體讓我們對未來的事物有了一點了解,在社交媒體中,原始的人工智能工具,并不是用來創(chuàng)造內(nèi)容的。內(nèi)容創(chuàng)作是由人類創(chuàng)造故事和視頻等,而人工智能選擇哪些故事和視頻會進入我們的視線——那些最受關(guān)注的、最具病毒性傳播的內(nèi)容。

雖然這些人工智能工具非常原始,但它們已經(jīng)足以制造出了一層幻覺的帷幕,加劇了社會兩極分化,損害了我們的心理健康,破壞了民主的穩(wěn)定。成千上萬的人把這些幻覺誤認(rèn)為是現(xiàn)實。

美國擁有強大的信息技術(shù),但美國公民卻無法就誰贏得了上次選舉、氣候變化是否真的發(fā)生、疫苗是否能預(yù)防疾病達(dá)成一致。新的人工智能工具比這些社交媒體算法強大得多,可能造成更大的破壞。

演講現(xiàn)場


當(dāng)然,人工智能有巨大的積極潛力。我不談?wù)撍驗殚_發(fā)人工智能的人自然會談?wù)撍?,我需要補充下,像我這樣的歷史學(xué)家和哲學(xué)家的工作經(jīng)常是指出危險。

當(dāng)然,人工智能可以在無數(shù)方面幫助我們,從尋找治療癌癥的新方法到發(fā)現(xiàn)我們所面臨的生態(tài)危機的解決方案。

為了確保新的人工智能工具被用來做好事,而非做壞事,首先需要了解它真正的能力,需要非常仔細(xì)地監(jiān)管它們。

自1945年以來,我們知道核技術(shù)可以物理破壞人類文明,也可以通過生產(chǎn)廉價而豐富的能源使人類受益。因此,我們重塑了整個國際秩序,以保護自己,并確保核技術(shù)主要用于正義。

我們現(xiàn)在必須與一種新的大規(guī)模殺傷性武器作斗爭,這種武器可以消滅我們的精神和社會世界。核武器和人工智能最大的區(qū)別是,核武器不能制造更強大的核武器。但人工智能可以產(chǎn)生更強大的人工智能,所以我們需要在人工智能失去控制之前迅速采取行動。

同樣,政府必須立即禁止在確認(rèn)其安全之前將任何更具革命性的人工智能工具發(fā)布到公共領(lǐng)域。

我再次強調(diào),我不是在談?wù)撏V谷斯ぶ悄艿难芯俊5谝徊绞峭V瓜蚬姲l(fā)布,你可以研究病毒而不向公眾發(fā)布,你可以研究人工智能,但不要過快地向公眾發(fā)布。如果不放慢人工智能競賽的速度,我們甚至沒有時間去了解正在發(fā)生的事情,更不用說有效地監(jiān)管這項令人難以置信的強大技術(shù)了。

你可能會問,放慢人工智能的公共部署,難道不會導(dǎo)致民主落后于更無情的專制政權(quán)嗎?絕對不是,且正好相反。不受管制的人工智能部署將導(dǎo)致民主國家輸給獨裁政權(quán),因為如果我們釋放混亂,威權(quán)政權(quán)比開放社會更容易遏制混亂。

民主本質(zhì)上是一種公開的對話,對話依賴于語言,當(dāng)人工智能擁有語言時,這意味著它可能摧毀我們進行有意義的公共對話的能力,從而摧毀民主。

如果我們坐等混亂發(fā)生,那么用民主的方式來管理它就太晚了。如果沒有及時監(jiān)管人工智能,我們將無法再進行有意義的公開對話。

綜上所述,我們基本上是在地球上遇到了外星智能,而不是在外太空。我們對它們所知甚少,只知道可能摧毀我們的文明。

因此,應(yīng)該正視這種不負(fù)責(zé)任地將它們部署到我們的社會中的舉措,并在人工智能控制我們之前對其進行監(jiān)管。

我們可以提出許多管理措施,但是我的首要建議是強制人工智能披露自己是人工智能,如果我和某人交談,我不知道這是一個人還是一個人工智能,這就是民主的終結(jié),因為這意味著有意義的公共對話的終結(jié)。

大家對剛才聽到的演講有什么看法?我想你們中的一些人可能會有所警覺,一些人可能會對開發(fā)這些技術(shù)的公司或未能監(jiān)管這些技術(shù)的政府感到憤怒。還有些人可能會生我的氣,認(rèn)為我是在夸大威脅或誤導(dǎo)公眾。

但不管你怎么想,我敢打賭我的話對你產(chǎn)生了一些情感上的影響而不僅僅是智力上的影響。我剛剛給你講了一個故事,這個故事可能會改變你對事物的看法,甚至可能導(dǎo)致你采取某些行動。

你剛剛聽到的演講故事是誰創(chuàng)造的呢?我向大家保證,盡管使用的圖像是在人工智能的幫助下創(chuàng)建的,但這個演講的文本是我在幾個人的幫助下自己完成的,至少你聽到的這些話是人類思想的文化產(chǎn)物,是幾個人類思想的產(chǎn)物,但你能絕對肯定嗎?

一年前,在公共領(lǐng)域,除了人類的思想,地球上沒有任何東西可以創(chuàng)造這樣一個復(fù)雜而有力的文本。但現(xiàn)在情況不同了,你聽到的文本可能是由非人類的智能產(chǎn)生的。

所以花一點時間或者更多的時間來思考這個問題吧,謝謝!

(本文配圖為尤瓦爾·赫拉利演講視頻截取,視頻由尤瓦爾·赫拉利團隊官方提供,感謝陳光宇女士的大力支持。)

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號