注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)新聞資訊文化

喬姆斯基:ChatGPT的虛假承諾

當(dāng)?shù)貢r(shí)間3月8日,著名語(yǔ)言學(xué)家、哲學(xué)家諾姆喬姆斯基(Noam Chomsky)與語(yǔ)言學(xué)教授伊恩羅伯茨(Ian Roberts)、科技公司人工智能主管杰弗里瓦圖穆?tīng)枺↗effrey Watmull)共同在《紐約時(shí)報(bào)》發(fā)表了題為《ChatGPT的虛假承諾》的文章。

【編者按】當(dāng)?shù)貢r(shí)間3月8日,著名語(yǔ)言學(xué)家、哲學(xué)家諾姆·喬姆斯基(Noam Chomsky)與語(yǔ)言學(xué)教授伊恩·羅伯茨(Ian Roberts)、科技公司人工智能主管杰弗里·瓦圖穆?tīng)枺↗effrey Watmull)共同在《紐約時(shí)報(bào)》發(fā)表了題為《ChatGPT的虛假承諾》的文章。喬姆斯基強(qiáng)調(diào),人工智能和人類在思考方式、學(xué)習(xí)語(yǔ)言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者如果ChatGPT式機(jī)器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,那么人類的科學(xué)水平以及道德標(biāo)準(zhǔn)都可能因此降低。諾姆·喬姆斯基是亞利桑那大學(xué)的語(yǔ)言學(xué)教授,也是麻省理工學(xué)院的語(yǔ)言學(xué)榮譽(yù)教授。伊恩·羅伯茨是劍橋大學(xué)的語(yǔ)言學(xué)教授。杰弗里·瓦圖穆?tīng)柺且患铱萍脊镜娜斯ぶ悄苤鞴?。原文?biāo)題為:《Noam Chomsky: The False Promise of ChatGPT》,以下是全文譯文:

豪爾赫·路易斯·博爾赫斯(Jorge Luis Borges)曾寫道,生活在一個(gè)既充滿危險(xiǎn)又充滿希望的時(shí)代既是悲劇,又是喜劇,一個(gè)關(guān)于理解我們自己和世界的“啟示即將來(lái)臨”。今天,我們確實(shí)有理由為人工智能方面所謂的革命性進(jìn)步感到既擔(dān)心又樂(lè)觀。樂(lè)觀,因?yàn)橹腔凼俏覀兘鉀Q問(wèn)題的手段。擔(dān)憂是因?yàn)槲覀儞?dān)心最流行、最時(shí)興的人工智能分支:機(jī)器學(xué)習(xí)將把一種有著根本缺陷的語(yǔ)言和知識(shí)概念納入我們的技術(shù),從而降低我們的科學(xué)水平,貶低我們的道德標(biāo)準(zhǔn)。

OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機(jī)器學(xué)習(xí)的奇跡。粗略地說(shuō),它們獲取大量數(shù)據(jù),尋找其中的模式,并越發(fā)熟練地生成統(tǒng)計(jì)學(xué)上可能的輸出:例如看似像人類一般的語(yǔ)言和思想。這些程序被譽(yù)為通用人工智能地平線上的曙光:那是一個(gè)預(yù)言已久的時(shí)刻,屆時(shí)機(jī)械大腦(mechanical minds)不僅會(huì)在處理速度和內(nèi)存容量方面超越人類大腦,而且還會(huì)在智力洞察力、藝術(shù)創(chuàng)造力和其他所有人類獨(dú)有的能力上實(shí)現(xiàn)全方位超越。

那一天可能會(huì)到來(lái),但黎明破曉的曙光尚未出現(xiàn),這與那些有著夸張標(biāo)題的新聞和不明智的投資所預(yù)測(cè)的情況相反。如果像ChatGPT這樣的機(jī)器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,那么博格斯式的理解啟示就還未發(fā)生、不會(huì)發(fā)生,并且我們認(rèn)為,不可能發(fā)生。無(wú)論這些程序在某些狹窄的領(lǐng)域多么有用(例如,它們可以在計(jì)算機(jī)編程方面有所幫助,或者為輕體詩(shī)提供押韻建議),我們從語(yǔ)言學(xué)和知識(shí)哲學(xué)中了解到,它們與人類推理和使用語(yǔ)言的方式有著巨大區(qū)別。這些差異極大地限制了這些程序的功能,使它們帶有無(wú)法消除的缺陷。

正如博爾赫斯可能指出的那樣,如此多的錢和注意力竟然被集中在這么小的東西上,這既是喜劇又是悲劇;與人類的大腦相比,這個(gè)東西是如此微不足道,用威廉·馮·洪堡(William von Humboldt)的話說(shuō),人類的大腦通過(guò)語(yǔ)言,可以“無(wú)限地利用有限的手段(infinite use of finite means)”創(chuàng)造出具有普遍影響力的思想和理論。

人腦不像ChatGPT及其同類產(chǎn)品那樣,是一個(gè)笨重的模式匹配統(tǒng)計(jì)引擎,狼吞虎咽地處理數(shù)百兆兆字節(jié)的數(shù)據(jù),并推斷出最為可能的對(duì)話回應(yīng),或?yàn)榭茖W(xué)問(wèn)題提供最可能的答案。相反,人類的大腦是一個(gè)極為高效甚至優(yōu)雅的系統(tǒng),只需要少量的信息即可運(yùn)作;它尋求的不是推斷數(shù)據(jù)點(diǎn)之間的粗暴關(guān)聯(lián)(brute correlations),而是創(chuàng)造解釋。

例如,一個(gè)學(xué)習(xí)一門語(yǔ)言的小孩正無(wú)意識(shí)地、自動(dòng)且迅速地從極少的數(shù)據(jù)中發(fā)展出語(yǔ)法,一個(gè)由邏輯原則和參數(shù)組成的復(fù)雜系統(tǒng)。這種語(yǔ)法可以被理解為先天的、通過(guò)基因安裝的“操作系統(tǒng)”的表達(dá),它賦予了人類產(chǎn)生復(fù)雜句子和長(zhǎng)串思路的能力。當(dāng)語(yǔ)言學(xué)家試圖發(fā)展出一種理論來(lái)解釋為什么特定的語(yǔ)言會(huì)如此運(yùn)作時(shí)(“為什么這些句子被認(rèn)為是合乎語(yǔ)法的,而那些句子卻不是?”),他們是在有意識(shí)地、費(fèi)力地構(gòu)建一種明確的語(yǔ)法版本,而孩子們卻是本能地、憑借極少的信息構(gòu)建出了語(yǔ)法。孩子的操作系統(tǒng)與機(jī)器學(xué)習(xí)程序的操作系統(tǒng)完全不同。

事實(shí)上,這類程序還停留在認(rèn)知進(jìn)化的前人類或非人類階段。它們最大的缺陷是缺乏任何智慧最為關(guān)鍵的能力:不僅能說(shuō)出現(xiàn)在是什么情況,過(guò)去是什么情況,將來(lái)會(huì)是什么情況——這是描述和預(yù)測(cè);而且還能說(shuō)出情況不是什么,情況可能會(huì)是什么,情況不可能會(huì)是什么。這些都是解釋的要素,是真正智慧的標(biāo)志。

舉個(gè)例子:假設(shè)你手里拿著一個(gè)蘋果,現(xiàn)在你放開(kāi)蘋果。你觀察結(jié)果說(shuō):“蘋果掉下來(lái)了。”這是一種描述。預(yù)測(cè)則可能是這樣的陳述:“如果我張開(kāi)手,蘋果就會(huì)墜落?!?兩者都是有價(jià)值的,而且可能都是正確的。但解釋則不僅于此:它不僅包括描述和預(yù)測(cè),還包括反事實(shí)的推理,如“任何這樣的物體都會(huì)墜落”,再加上附加條款“因?yàn)橐Α被颉耙驗(yàn)闀r(shí)空的曲率”等等?!叭绻皇且?yàn)橐?,蘋果就不會(huì)墜落”,這是一個(gè)因果解釋。這就是思考。

機(jī)器學(xué)習(xí)的核心是描述和預(yù)測(cè);它沒(méi)有提出任何因果機(jī)制或物理定律。當(dāng)然,任何人類式的解釋都不一定正確;我們會(huì)犯錯(cuò)。但這正是思考的一部分:要追求正確,就必須有可能出錯(cuò)。智能不僅包括創(chuàng)造性的猜想,也包括創(chuàng)造性的批評(píng)。人類式的思考基于可能的解釋和糾錯(cuò),這個(gè)過(guò)程逐漸限制了理性考慮的可能性。(就像夏洛克·福爾摩斯對(duì)華生醫(yī)生說(shuō)的:“當(dāng)你排除了所有不可能,剩下的無(wú)論多么不可能,都一定是真相。”)

但是ChatGPT和類似的程序在設(shè)計(jì)上是無(wú)限的,它們可以“學(xué)習(xí)”(也就是說(shuō),記憶);它們沒(méi)有能力區(qū)分可能和不可能。例如,與人類不同的是,人類被賦予了一種通用語(yǔ)法,將我們可以學(xué)習(xí)的語(yǔ)言限制在那些具有某種近乎數(shù)學(xué)般優(yōu)雅的語(yǔ)言上,而這些程序卻以同樣方式去學(xué)習(xí)人類可能習(xí)得的語(yǔ)言和不可能習(xí)得的語(yǔ)言。人類可以理性推測(cè)的解釋是有限的,而機(jī)器學(xué)習(xí)系統(tǒng)卻能夠同時(shí)學(xué)習(xí)“地球是圓的”和“地球是平的”。它們只是根據(jù)隨時(shí)間變化的概率進(jìn)行交換。

因此,機(jī)器學(xué)習(xí)系統(tǒng)的預(yù)測(cè)總是膚淺和可疑的。因?yàn)檫@些程序無(wú)法解釋英語(yǔ)的語(yǔ)法規(guī)則,舉例而言,它們很可能錯(cuò)誤地預(yù)測(cè)這句句子的含義:“約翰太固執(zhí)了,沒(méi)法和他說(shuō)話。(John is too stubborn to talk to.)”,它可能會(huì)認(rèn)為這是指約翰太固執(zhí)了,他不會(huì)和某人或其他人說(shuō)話(而不是約翰太固執(zhí)了,沒(méi)辦法和他說(shuō)理)。為什么機(jī)器學(xué)習(xí)系統(tǒng)會(huì)做出如此奇怪的預(yù)測(cè)?因?yàn)樗赡軙?huì)將這句句子與它從其他句子:例如“約翰吃了個(gè)蘋果”(“John ate an apple”),或“約翰吃了”(“John ate”)中推斷出來(lái)的模式進(jìn)行類比,這些句子確實(shí)是指約翰吃了東西。該程序很可能預(yù)測(cè),因?yàn)椤凹s翰太固執(zhí)了,不愿意和比爾說(shuō)話”(“John is too stubborn to talk to Bill”)與 “約翰吃了一個(gè)蘋果”(“John ate an apple”)相似,所以“約翰太固執(zhí)了,沒(méi)法和他說(shuō)話” (“John is too stubborn to talk to”)應(yīng)該與“約翰吃了”(“John ate”)相似。但語(yǔ)言的正確解釋是非常復(fù)雜的,無(wú)法僅僅通過(guò)沉浸在大數(shù)據(jù)中來(lái)學(xué)習(xí)。

反常的是,一些機(jī)器學(xué)習(xí)愛(ài)好者似乎對(duì)他們的作品可以在不需要解釋(比如,涉及牛頓運(yùn)動(dòng)定律和萬(wàn)有引力定律)的情況下,產(chǎn)生正確的“科學(xué)”預(yù)測(cè)(例如,關(guān)于物理物體的運(yùn)動(dòng))感到頗為自豪。但這種預(yù)測(cè),即使成功了,也是偽科學(xué)。正如哲學(xué)家卡爾·波普爾(Karl Popper)所指出的那樣,雖然科學(xué)家們肯定會(huì)尋求具有高度經(jīng)驗(yàn)佐證的理論,但“我們尋求的不是可能性極高的理論,而是解釋;也就是說(shuō),強(qiáng)有力而極不可能的理論”。

根據(jù)亞里士多德的觀點(diǎn),蘋果之所以落地是因?yàn)榇蟮厥撬鼈兊奶烊晃恢茫╪atural place),這一理論是可能的,但它只會(huì)引發(fā)更多的問(wèn)題(為什么大地是它們的天然位置?)。蘋果掉到地球上是因?yàn)橘|(zhì)量使時(shí)空彎曲(愛(ài)因斯坦的觀點(diǎn))這一理論看似極不可能,但它卻告訴了你蘋果為什么會(huì)掉下來(lái)。真正的智力恰恰表現(xiàn)在思考和表達(dá)看似不可能但有深刻洞見(jiàn)的事情的能力。

真正的智力還體現(xiàn)在能夠進(jìn)行道德思考的能力。這意味著用一套道德原則來(lái)約束我們頭腦中原本無(wú)限的創(chuàng)造力,決定什么是該做的,什么是不該做的(當(dāng)然還要讓這些原則本身受到創(chuàng)造性的批評(píng))。為了能夠有用,ChatGPT必須能生成出新穎的輸出;而為了被大多數(shù)用戶所接受,它必須避免生產(chǎn)在道德上令人反感的內(nèi)容。但ChatGPT和其他所謂的“機(jī)器學(xué)習(xí)奇跡”的程序員一直在努力,并將繼續(xù)努力,以實(shí)現(xiàn)這種平衡。

2016年,微軟的Tay聊天機(jī)器人(ChatGPT的前身)在互聯(lián)網(wǎng)上散播厭女和種族主義的內(nèi)容,因?yàn)樗痪W(wǎng)絡(luò)噴子污染了,網(wǎng)絡(luò)噴子用具有攻擊性內(nèi)容填滿了Tay的訓(xùn)練數(shù)據(jù)。未來(lái)如何解決這個(gè)問(wèn)題?由于缺乏根據(jù)道德原則進(jìn)行推理的能力,程序員粗暴地對(duì)ChatGPT進(jìn)行了限制,禁止它在有爭(zhēng)議的(也就是重要的)討論中提供任何新穎的觀點(diǎn)。它以犧牲創(chuàng)造力為代價(jià),保證了自己的非道德性(amorality)。

看看我們中的一員(Watumull博士)最近與ChatGPT就改造火星來(lái)支持人類生命是否合乎道德進(jìn)行的對(duì)話:

請(qǐng)注意,所有這些看似復(fù)雜的思想和語(yǔ)言,都是由非智能產(chǎn)生的道德冷漠。在這里,ChatGPT表現(xiàn)出某種類似邪惡的平庸:剽竊、冷漠和回避。它以一種超級(jí)自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),拒絕在任何事情上表明立場(chǎng),它不僅以無(wú)知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護(hù),將責(zé)任推卸給它的創(chuàng)造者。

簡(jiǎn)而言之,ChatGPT及其同類在本質(zhì)上無(wú)法平衡創(chuàng)造力與約束。它們要么過(guò)度生成(同時(shí)生成真相和謊言,同時(shí)支持道德和不道德的決定),要么生成不足(表現(xiàn)為不對(duì)任何決定表態(tài),對(duì)一切后果都漠不關(guān)心)。鑒于這些系統(tǒng)的非道德性、偽科學(xué)性和語(yǔ)言無(wú)能,我們只能為它們的流行而感到哭笑不得。

熱門文章排行

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)