注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁新聞資訊文化

對ChatGPT的焦慮,可能是人類存在主義的憂傷

ChatGPT是OpenAI研發(fā)的聊天機器人程序,通過大量語料學習后,可以像人類一樣進行聊天交流,甚至能完成撰寫代碼、論文和視頻腳本等任務。ChatGPT一經(jīng)問世,便引發(fā)廣泛討論,似乎是一次科技史的利

ChatGPT是OpenAI研發(fā)的聊天機器人程序,通過大量語料學習后,可以像人類一樣進行聊天交流,甚至能完成撰寫代碼、論文和視頻腳本等任務。ChatGPT一經(jīng)問世,便引發(fā)廣泛討論,似乎是一次科技史的利維坦事件。對ChatGPT的討論各有視角,其中一種潛在的廣泛焦慮在于大模型驅動下的人工智能是否真的有朝一日可以具備自主意識,成為人類智能。

ChatGPT能否演化出自主意識可能暫時沒有答案,也不必要追求唯一的答案,但是眼下至少有三個基本疑問縈繞心頭。

缸中之腦與AI大模型

“缸中之腦”是知識論中的一個思想實驗,由哲學家希拉里·普特南在《理性、真理和歷史》(Reason, Truth, and History)一書中提出。

實驗的基礎是人所體驗到的一切最終都要在大腦中轉化為神經(jīng)信號。假設一個瘋子科學家、機器或其他任何意識將一個大腦從人體取出,放入一個裝有營養(yǎng)液的缸里維持著它的生理活性,超級計算機通過神經(jīng)末梢向大腦傳遞和原來一樣的各種神經(jīng)電信號,并對于大腦發(fā)出的信號給予和平時一樣的信號反饋,這個大腦所體驗到的世界其實是計算機制造的一種模擬現(xiàn)實,此大腦能否意識到自己生活在虛擬現(xiàn)實之中?

因為缸中之腦和頭顱中的大腦接收一模一樣的信號,而且這是它唯一和環(huán)境交流的方式,從大腦的角度來說,它完全無法確定自己是顱中之腦還是缸中之腦。如果是前者,那它的想法是正確的,它確實走在大街上或者在劃船。如果是后者,那它就是錯誤的,它并沒有在走路或劃船,只是接收到了相同的電信號而已。一個大腦無法知道自己是在顱中還是缸中,因此這世間的一切可能都是虛假的、虛妄的。那么什么是真實?

如果我們把缸中之腦的悖論稍加改造,或許有助于我們對ChatGPT的討論。缸中之腦的核心關鍵,在于全意識的信號轉化,也就是如果我們能把所有人類知識的集合轉化為生物或電化學信號,我們就有可能復制和創(chuàng)造另一個等同的大腦。這件事情看似荒謬,實際上卻恰恰是AI大模型的基礎。

AI大語言模型也被統(tǒng)一命名為Foundation Models,可以翻譯為基礎模型或者是基石模型,其特點之一便在于模型參數(shù)的大規(guī)模。2017年Transformer結構的提出,使得深度學習模型參數(shù)突破了1億。從一開始的lenet、Alexnet、ResNet開始,模型參數(shù)一個比一個大,到了BERT網(wǎng)絡模型的提出,使得參數(shù)量首次超過3億規(guī)模,GPT-3模型超過百億,鵬程盤古實現(xiàn)千億稠密的規(guī)模、Switch Transformer的問世還一舉突破萬億規(guī)模。ChatGPT的底層模型GPT-3參數(shù)規(guī)模首次突破百億,數(shù)據(jù)集上將語料規(guī)模擴大到570GB的CC數(shù)據(jù)集(4千億詞)、WebText2(190億詞)、BookCorpus(670億詞)和維基百科(30億詞)。

我們完全有理由設想一種情況:如果有一天,AI大模型規(guī)模足夠大,大到得以覆蓋一個普通人一生所能經(jīng)歷的所有信息(語言)規(guī)模,我們是不是擁有了缸中之腦?

如果我們認為缸中之腦的假設成立,我們也完全有理由相信ChatGPT有一天可以成為人類。

但缸中之腦的關鍵問題在于,人類的意識是否能夠轉化為可輸出信號?如果可以,人的意識是否等同于電信號的集合,也就是我們能否完全復制信號處理過程?如果可以,缸中之腦是如同電影一般的過往復制還是可以產(chǎn)生創(chuàng)造性的不可知關聯(lián)結果?

如果是前者,那我們完全有理由相信ChatGPT永遠不可能超越人類意識之外,當前科學發(fā)展或許已經(jīng)能夠理解生物信號和電信號之間的相互轉換,但是我們依然無法真正理解大腦,更遑論復制大腦,就連活動機理相對簡單、人類理解相對深入的肌肉組織,我們目前都還沒有辦法完全復制。因此,意識發(fā)育的關鍵不在于信號的完整性,而在于信號處理的無限可能性。

不僅如此,小到細胞的分裂,大到個體的繁殖,生物的復制及在此過程中不可避免的變異本身就是進化過程的一部分。進化源自變異,變異造就多樣性,以變異為起點的進化是生命所固有的特性,意識同樣如此。因此,意識的顛覆性突破無法誕生在對信息的完全復制之中,換言之人類不可能創(chuàng)造比自己更聰明的結果,除非AI產(chǎn)生變異。

但是如果我們持有后者的立場,那就是認定ChatGPT一定可以產(chǎn)生現(xiàn)有未知的認知變異結果。變異的基礎在于出錯,因此,我們真正要擔心的或許不是AI發(fā)展過程中的系統(tǒng)性誤差,而是AI發(fā)展過程中的偶然性誤差,這些錯誤可能是產(chǎn)生認知變異的重要觸發(fā)機制,并且不具有可預測性甚至可知性。

AI發(fā)展普遍肯定了Foundation Models對智能體基本認知能力的推動作用,同時也指出大模型呈現(xiàn)出“涌現(xiàn)”與“同質化”的特性。所謂“涌現(xiàn)”代表一個系統(tǒng)的行為是隱性推動的,而不是顯式構建的,“同質化”是指基礎模型的能力是智能的中心與核心,大模型的任何一點改進會迅速覆蓋整個社區(qū),但其缺陷也會被所有下游模型所繼承。

因此,從這個意義上講,AI如果真的能產(chǎn)生意識,一定是以系統(tǒng)性、規(guī)模性的方式出現(xiàn),而且出現(xiàn)單一個體的變異,但也正因如此,同質性也可能限制了AI進化的極限。

語言的邊界與認知的邊界

ChatGPT為代表的AI大模型高度依賴于現(xiàn)有信息的輸入與訓練,信息的邊界決定了認知的邊界,這其中便涉及到一個關鍵命題:我們對這個世界認知的邊界何在?

古典時代的哲學追求的邊界是本體論,也就是這個世界到底是什么的本體性,也就是 “我從哪來”的問題。在希臘化和經(jīng)院哲學時代、康德時代,我們從本體論轉向了認知論,康德認為物自體不可知,我們沒辦法認識世界的本源是什么,我們只能認識能夠被人類認識的東西,世界是圍繞人的認知能力存在的,我思故我在,本質上回到了“我是誰”的問題。而進入維特根斯坦時代,哲學似乎進入了緩慢的發(fā)展,這恰恰反映了我們對世界認知邊界的一種反思和轉向。維特根斯坦對于世界和自我的認知回歸到了語言的認知,語言的邊界決定了認知的邊界,語言的習得與應用是認知發(fā)展的重要基礎,“我說故我在”,這決定了世界是一個不斷發(fā)展的過程,語言的向前構成了認知的向前,終究試圖回答人類自身“我要到哪”的問題。

AI的發(fā)展歷程顯然是維特根斯坦式的路徑。語言的邊界決定認知的邊界,約束了對更宏大世界本源的討論,但同時也擴展了人類認知的開放性,我們是在語言的發(fā)展中形成自身、構成世界,正所謂有限但無界。在語言構成認知的意義上,AI大語言模型已經(jīng)觸及到了認知的本源性問題。

AI語言的邊界決定了AI認知的邊界,那么AI的邊界又在何處?就像香農(nóng)曾經(jīng)將信息的傳遞邊界與帶寬相勾連一樣,?AI大模型發(fā)展到今天,AI的邊界在哪里?AI訓練和認知的邊界在哪里?是什么要素決定了AI信息發(fā)育的邊界?這一系列問題構成AI是否能演化出如人類般自主意識的關鍵。

但悖論在于,邊界自身是否有能力脫離邊界本身,換言之,AI訓練語言如果是有限的、已知且存在的,但是人類語言認知的發(fā)展是無界的、開放的,用已知的、存在的是否能夠超越或者產(chǎn)生未知的、而非現(xiàn)存的結果?

與此同時,語言是不是所有認知的現(xiàn)象性呈現(xiàn)這一問題是對于語言認知的核心挑戰(zhàn)。有沒有一種心靈和情感的存在是超越語言的?語言是否具備認知上的同一性?

這兩個問題的回答或許決定了AI大模型能否構成自我的認知,并超越人類賦予的訓練語言邊界,生發(fā)出特定的存在。

如果我們認同語言的邊界構成認知的邊界,那么AI大模型實際上已經(jīng)具備了某種程度上的認知基礎,但這樣的認知基礎是不是有能力超越已知基礎上訓練出來的邊界,則是有待討論的悖論性存在。

理性牢籠與計算理性

韋伯認為,現(xiàn)代性的發(fā)展本質上是理性化發(fā)展的表現(xiàn)。隨著資本主義的發(fā)展,理性化將滲透到社會生活的各個領域,使整個社會走上理性的軌道。

在韋伯看來,理性化在促成社會進步的同時,也使得人被簡化為統(tǒng)計圖表上的一個數(shù)值,被異化為巨大機器中的齒輪,甚至將冰冷的算計引入到了最親密的人際關系之中。不僅如此,理性化改變了社會中的行政體系,不斷強化各類組織中的官僚制(也稱“科層制”)結構。 隨著理性化的肆意擴張,整個社會將無可避免地要生活在由資本主義和科層制的鐵律交織而成的鐵籠之中。

在韋伯看來,理性化的基礎是由工具理性和價值理性所構成,工具理性強調局部目標是否達成,強調效果的最大化。而價值理性強調過程是否符合價值和信念,強調動機的純正和選擇正確的手段達到自己的目的,而不管結果如何。

AI模型的發(fā)展是工具理性演化的過程。從弱人工智能Artificial Narrow Intelligence(ANI)到超人工智能Artificial Superintelligence (ASI)的發(fā)展始終圍繞著一個特定的問題解決展開構成工具理性。弱人工智能,比如有能戰(zhàn)勝象棋世界冠軍的人工智能,但是它只會下象棋,你要問它怎樣更好地在硬盤上儲存數(shù)據(jù),它就不知道怎么回答你了。廣義上下棋成為了人工智能解答的第一個問題,這個問題在于差異邊界的有限性,對于這類問題,AI已經(jīng)交出了完美答卷。強人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。Linda Gottfredson教授把智能定義為“一種寬泛的心理能力,能夠進行思考、計劃、解決問題、抽象思維、理解復雜理念、快速學習和從經(jīng)驗中學習等操作?!睆娙斯ぶ悄茉谶M行這些操作時應該和人類一樣得心應手。ChatGPT的出現(xiàn)或許是弱人工智能向強人工智能過渡的一種標志。

縱觀AI的發(fā)展歷史,從“深藍”、ImageNet到AlphaGo、ChatGPT,都是通過對特定時代命題的攻克,帶動了AI的巨大進步。從IBM的“深藍”打敗國際象棋大師卡斯帕羅夫,到谷歌的AlphaGo打敗人類圍棋冠軍, AI所面臨的第一個重要命題之一就是“下棋”和搭積木。這個命題中更多是有限算法下的優(yōu)化計算,考驗的是算力和控制。

而當ImageNet的出現(xiàn),則將AI帶進了一個新的命題領域——圖像識別。從計算優(yōu)化到識別,這是重要的跨越。在這一階段,人臉識別,以及DeepMind的AI工具AlphaFold對蛋白質結構的識別與預測,都是標志性成果。

ChatGPT面向的則是AI作為聊天機器人的命題,這背后實際上是自然語言命題的延續(xù)。圖靈(Alan Turing)于1950年提出了圖靈測試(“機器能思考嗎?”),聊天機器人的想法正是在那個時候得到普及。第一個已知的聊天機器人是1966年開發(fā)的Eliza,其目的是充當心理治療師,以問題形式返回用戶的話語。聊天機器人隨后進入了快速發(fā)展的命題階段,從基于人工智能標記語言(AIML)的底層智能的簡單模式匹配算法的ALICE(1955)到SmarterChild(2001)、蘋果Siri、微軟Cortana、亞馬遜Alexa、谷歌助手和IBM沃森等。ChatGPT的火熱勝在語言模型訓練規(guī)模的突破。

從有限解的優(yōu)化到語言,再到圖像,AI在解題的路上狂奔,追求極致的工具理性。但回到韋伯的討論,工具越發(fā)展,計算越精確、高效,束縛在我們身上的牢籠越強化,經(jīng)驗即限制,理性即約束,這便是韋伯理性化的牢籠的本質含義。無法沖破理性化的牢籠,制約了人類社會的進一步整合,從而反過來崩解了理性的存在。

只要AI還需要在解讀重大命題中乘風破浪,懸在AI頭上的緊箍咒或許就不可能消失,在這個意義上,AI距離出現(xiàn)價值理性和工具理性的整合還有待時日。

但是AI解放人類生產(chǎn)力工具性要素的發(fā)展,與工業(yè)革命蒸汽機解放生產(chǎn)力不同,AI的工具性嵌入在對于人類自身認知的深刻理解之上,換言之,AI產(chǎn)生之初不是為了生產(chǎn)外在于人、依賴于人的工具,而是試圖生產(chǎn)人類自身的復制,是內生化的工具理性,因此討論還需要回歸到海德格爾、馬爾庫塞、馬克思、薩特等對人、工具、機器的本質性討論,人是創(chuàng)造工具還是工具本身?人對工具的使用是否異化了人的存在?

人與工具的悖論離不開價值理性的存在,即人何以為人在某種意義上離不開價值理性的存在。通過有意識地對一個特定的行為——倫理的、美學的、宗教的或作任何其他闡釋的、無條件的固有價值的純粹信仰,不管是否取得成就的追求,即是價值理性的光輝。價值理性的存在根本上對立于工具理性的計算。價值理性的基礎何在?

如果我們秉持達爾文主義的立場,將價值理性視為生物基礎的工具性進化,那么AI進入價值理性命題指日可待。但如果我們認為長期以往人類的道德、價值發(fā)育于廣泛的社會化過程,那么AI價值理性的發(fā)育或許還有很長的路要走,或者這本身就是一個偽命題。

洞穴之喻與人的存在

2400多年前柏拉圖在他的巨著《理想國》的第七卷里寫到了洞穴理論:

有一群囚徒被囚禁在一個洞穴里,他們從出生就生長在這里,從小到大都被鎖鏈鎖住雙手,也不可以回頭,只能看著自己的前方,地穴的洞壁上映著的影子。

在這群被困的人的身后,則有一條通道,這條通道是可以貫通整個洞穴的。在這條通道的旁邊有一堵墻,這堵墻并不高,大概跟木偶戲的屏風那么高。外面的人背著各種各樣的工具和器械走過這個通道,火的光亮把這些影子照射到被困的人眼前的墻壁上。

因此,這些被困的人就以為這些影子是這個世界上唯一真實的事物。

因為他們從小到大也沒見過別的,只見過這些影子。如果突然有一天,有一個被困的人被釋放了,他回過頭來,看到了身后的火,以及通道上走過的人們。一開始的時候,他會覺得很疑惑,甚至不相信這些是真實存在的事情。后來有個人進到他被關的地方,把他帶出去,帶到一個正常的世界去,他會覺得頭暈目眩,因為他從來都沒有見到過這個世界,眼前的一切都是陌生而令人懷疑的。

他甚至從水里尋找倒影,來找到自己在洞中的感覺,后來慢慢的,他開始接受這個正常的世界,于是他開始同情他之前的那些被關著的伙伴們。

這時他回去洞穴里,去解救那些伙伴,他的伙伴們卻覺得外面的世界燒壞他的眼睛,覺得他瘋了,他無法說服他的伙伴跟他一起離開,他們可能也并不覺得他在解救自己。

人類發(fā)展的歷史是一段馴化工具的歷史,或許今天我們看待AIGC就像洞中之人當初看世界之火一樣,充滿了恐懼、疑惑和焦慮。每一段工具利用的歷史都是一場對于人類自身存在主義價值的憂傷與疑慮的探索,我們擔心的到底是工具還是使用工具的人本身?在科技以前所未有的速度改變人類社會存在的時代,我們又到底是那個深悉洞外之火的超驗者,還是沉迷幻想的洞中人,或許沒有答案,或許也不重要。

如加繆所言,憂傷者有兩種憂傷的理由,要么他們無知識,要么他們抱希望。對人工智能及其一切科技的無條件擁抱和懷疑,都是理性價值崩解與重塑時代,人類存在主義的憂傷。我們絲毫無需去懷疑科技對于進步帶來的巨大力量,也一定可以預見在不久的將來,AI抑或其他科技將深刻重塑我們的組織結構、行業(yè)形態(tài)甚至日常生活,但回歸到個體,捫心自問,我們的獨特價值何在?在面對工具繁茂的今天,人是不是有足夠的智慧去超越人類自身存在主義的憂傷,學會擁抱工具、擁抱自身,或許這是更重要的命題。

人非工具,我看到的,一棵是棗樹,另外一棵也是棗樹,而我會寫茴的四種寫法。

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號