注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊文化

ChatGPT的生成特性及其意義

隨著聊天程序ChatGPT成為時(shí)下關(guān)注的焦點(diǎn),人們意識(shí)到人工智能正在影響著各個(gè)領(lǐng)域與學(xué)科,正在成為推動(dòng)人類文明進(jìn)入一段新旅程的力量。

【編者按】隨著聊天程序ChatGPT成為時(shí)下關(guān)注的焦點(diǎn),人們意識(shí)到人工智能正在影響著各個(gè)領(lǐng)域與學(xué)科,正在成為推動(dòng)人類文明進(jìn)入一段新旅程的力量。復(fù)旦大學(xué)通識(shí)教育中心組織“人工智能”系列,邀請校內(nèi)外不同領(lǐng)域的學(xué)者,從多學(xué)科視角入手、以平實(shí)的語言,嘗試與讀者一起了解有關(guān)人工智能的方方面面。以下是中國科協(xié)-復(fù)旦大學(xué)科技倫理與人類未來研究院楊慶峰教授的文章《ChatGPT的生成特性及其意義》。


ChatGPT是一種內(nèi)容生成式的嵌入性工具,本文將重點(diǎn)討論生成特性,對于嵌入不加討論。生成主要是過程生成和內(nèi)容生成。前者是算法的生成機(jī)制,后者是指借助算法進(jìn)行話語、文本生成,如可以寫電子郵件、書籍大綱和修改文章??梢哉f這項(xiàng)技術(shù)把我們正帶入一個(gè)智能生成的時(shí)代,不斷產(chǎn)生新物的過程。但是這個(gè)新物并不是存在之新,而是注意之新。換句話說,新是從舊的東西中發(fā)現(xiàn)未曾見過的過程,本質(zhì)上仍是舊的東西,是重新注意的過程。最近喬姆斯基認(rèn)為ChatGPT本質(zhì)上是高科技剽竊,這引起了我們的關(guān)注,希望對此進(jìn)行分析和反思。

一、ChatGPT能做什么?

我曾經(jīng)詢問過兩個(gè)問題:第一個(gè)是“吃了嗎”,第二個(gè)是數(shù)據(jù)倫理學(xué)的大綱。第一個(gè)問題多少是有些無聊和刁難,因?yàn)檫@是一個(gè)日常問題,對于ChatGPT來說,怎么回答都是有問題的。ChatGPT回答“吃了”,雖說回應(yīng)了問題,卻又給我們留下疑惑:ChatGPT不需要吃東西,當(dāng)它回答吃了,是否意味著一種不誠實(shí)的表達(dá)呢?如果說它的回應(yīng)只是回應(yīng)一個(gè)問題,但是“吃了嗎”很顯然不是一個(gè)一般問題。大多數(shù)人都知道這只是打招呼用的,顯示了人們在生活世界層面的交往。我們?nèi)粘R娒?,“吃了嗎”幾乎是一句帶疑問的問候,回答“吃了”也只是無實(shí)際內(nèi)容的回應(yīng),更重要的是回應(yīng)對方的問候。通過這種方式實(shí)現(xiàn)了人類之間的交流。我最擔(dān)心它的回答是“吃了吃了”,帶重復(fù)的兩個(gè)回應(yīng)那簡直是人類一樣的回應(yīng),而且這種回應(yīng)最為精準(zhǔn)地表達(dá)了一種問候的回應(yīng)。很可惜,ChatGPT的“吃了”的回應(yīng)是以一種常見方式回答了問題,而不是實(shí)現(xiàn)人與人之間的問候。另一個(gè)問題是讓它生成一份數(shù)據(jù)倫理的教材大綱。很快,它給我們一份帶有導(dǎo)論的大綱。說實(shí)話,當(dāng)我看到生成的結(jié)果時(shí)有點(diǎn)震驚了,這個(gè)大綱像模像樣。大綱包括導(dǎo)論和章節(jié)內(nèi)容。導(dǎo)論說“當(dāng)我們繼續(xù)倚重技術(shù)和它生產(chǎn)的數(shù)據(jù)時(shí),這種趨勢的倫理意義逐漸變得重要。數(shù)據(jù)倫理是一個(gè)檢驗(yàn)在搜集、存儲(chǔ)、分析和使用數(shù)據(jù)過程中的研究領(lǐng)域。本大綱目的是提供數(shù)據(jù)倫理中關(guān)鍵問題和理念的面貌性概覽,并對哲學(xué)的、社會(huì)的和技術(shù)方面做出勾勒?!笨梢钥闯鰧?dǎo)論簡潔而清楚;章節(jié)包括七章,包括數(shù)據(jù)倫理介紹、數(shù)據(jù)搜集中的倫理問題、數(shù)據(jù)分析中的倫理問題、數(shù)據(jù)使用中的倫理問題、數(shù)據(jù)倫理方法、數(shù)據(jù)倫理中的新興問題以及結(jié)論。這個(gè)大綱從專業(yè)角度看,確實(shí)有些窄了,緊扣數(shù)據(jù)處理的倫理問題進(jìn)行生成而且不全。通過這兩個(gè)問題可以確定ChatGPT作為一種智能生成工具,能夠生成各式文本,能夠借助生成的文本進(jìn)行互動(dòng)交流。

然而,喬姆斯基卻不看好,他認(rèn)為ChatGPT是從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,然后依據(jù)規(guī)則將數(shù)據(jù)進(jìn)行連接,形成類似人寫的內(nèi)容,在此基礎(chǔ)上他指出ChatGPT是剽竊工具。這個(gè)看法有些不準(zhǔn)確。對于新的認(rèn)識(shí)存在一種情況:新是從舊的東西中發(fā)現(xiàn)未曾見過的過程,換句話說,本質(zhì)上仍是舊的東西,但卻是重新注意的過程。AIGC使用了交叉注意力的機(jī)制,這種注意力機(jī)制可以執(zhí)行自注意力提取和執(zhí)行交叉注意力提取,從而確保了新的內(nèi)容的出現(xiàn)。谷歌是從一篇《注意力就是你全部需要的》(Attention is all you need)提出了transformer。從Midjourney等看,這種生成也并非完全是一種剽竊,它可以生成圖像,如2022年9月,杰森·艾倫(Jason Allen)使用AI工具M(jìn)idjourney生成的繪畫作品《太空歌劇院》在美國科羅納州博覽會(huì)上獲得藝術(shù)比賽一等獎(jiǎng),它所生成的作品令人驚異。另外,從對話生成來說,它依靠算法的推理,所產(chǎn)生的結(jié)果并非是剽竊所能概括的。比如楊立昆(Yann LeCun)的增強(qiáng)語言模型(augmented language Models)在很大程度上依靠將一個(gè)潛在復(fù)雜任務(wù)分解成更簡單子任務(wù)的推理。

二、ChatGPT是否是顛覆性技術(shù)?

在描述第四次工業(yè)革命的時(shí)候,有一個(gè)概念是值得關(guān)注的,這就是數(shù)智時(shí)代。對這個(gè)概念我們給出兩種解釋,其一數(shù)智時(shí)代是數(shù)據(jù)和智能的并列,這是從國家戰(zhàn)略的角度來說的,如今大數(shù)據(jù)與人工智能分別是國家重大科技戰(zhàn)略,因此在地位上有種等同性。然而這種描述只是外在描述,而且沒有把握住數(shù)據(jù)和智能的內(nèi)在關(guān)聯(lián)。從二者的內(nèi)在關(guān)聯(lián)就構(gòu)成了第二種解釋,即相關(guān)關(guān)系,對于智能體而言,智能的生成離不開數(shù)據(jù)。盡管有很多學(xué)者如斯圖爾特·羅素(Stuart Russell)已經(jīng)指出,更多的數(shù)據(jù)和更多的算力不能帶來真正的智能。但是從經(jīng)驗(yàn)生成角度來說,智能的生成離不開記憶,而這一點(diǎn)與過去的數(shù)據(jù)無法分開。而如今AIGC就成為典型代表,而其中文本生成就是GPT系列,其中包括今天最為火爆的ChatGPT。

智能生成是從兩個(gè)意義上來說的。其一是從內(nèi)容生產(chǎn)的方面來講,ChatGPT的意義就是進(jìn)行內(nèi)容生成。它有兩個(gè)特征,一是具有自主學(xué)習(xí)特征,它是在對海量數(shù)據(jù)進(jìn)行分析、組合而進(jìn)行的生成;二是智能生成的特征,ChatGPT在生成中進(jìn)化,從而獲得“心智”。美國學(xué)者米切·康辛斯基(Michal Konsinski)認(rèn)為ChatGPT擁有9歲左右兒童心智。這讓我們想到LaMDA,布萊克·勒蒙(Blake Lemoine)認(rèn)為它具有靈魂。其二是從與機(jī)械復(fù)制時(shí)代相對的角度來講。德國學(xué)者本雅明曾經(jīng)提出機(jī)械復(fù)制時(shí)代的觀念,并用這一觀念來描述工業(yè)社會(huì)中藝術(shù)生產(chǎn)的特性,藝術(shù)作品可以實(shí)現(xiàn)無限復(fù)制。我們用智能生成來描述的恰恰是智能社會(huì)的產(chǎn)品生產(chǎn)特征。此時(shí)范圍更為寬廣,不僅包括藝術(shù)作品,還有日常生活的對話文本以及包括醫(yī)學(xué)在內(nèi)的治療文本。此時(shí),對于這個(gè)范疇的闡述有利于我們重新認(rèn)識(shí)文本的概念。我們曾提到數(shù)字文本,但是時(shí)代發(fā)展使得超越了這個(gè)范疇,而需要新的范疇來理解我們所面對的對象。

我們已經(jīng)確立了ChatGPT具有的特性,然后再來看這項(xiàng)技術(shù)本身。我們問題是:ChatGPT是否是顛覆性技術(shù)(disruptive technology)?美國學(xué)者羅素·芬克(Russell Funk)曾經(jīng)提到鞏固性技術(shù)(Consolidating technology)和顛覆性技術(shù)等兩類技術(shù)的分類,并稱之為CD模式。他指出,目前科學(xué)技術(shù)發(fā)展的特征不再是創(chuàng)新、顛覆,而更多是一種鞏固。換句話說,科學(xué)技術(shù)發(fā)展呈現(xiàn)出的圖景是科學(xué)技術(shù)的突破性都在隨時(shí)間流逝而下降。從這個(gè)觀點(diǎn)來看,ChatGPT是否是對以往技術(shù)的顛覆和突破就成為一個(gè)問題。從其發(fā)展歷史來看,ChatGPT具有延續(xù)性,是OpenAI公司的GPT系列。2018年發(fā)布GPT-1,包括1.17億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量達(dá)到5GB;2019年發(fā)布GPT-2,包括15億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量達(dá)到40G;2020年發(fā)布GPT-3包括1750億個(gè)參數(shù),預(yù)訓(xùn)練數(shù)據(jù)量45TB;隨后推出了GPT-3.5。從算法來看,ChatGPT是Transformer的應(yīng)用,可以做到通過重新注意舊數(shù)據(jù)從而產(chǎn)生新東西。所以ChatGPT作為一種技術(shù)類型,也并不是全新的,而是屬于鞏固性技術(shù)范疇。楊立昆也認(rèn)為這項(xiàng)底層技術(shù)并不是革命性的。目前對它的應(yīng)用的期望和技術(shù)的過度想象造成了當(dāng)前的迷思局面。

三、ChatGPT在什么意義上是可信的?

2023年2月13日,英國哲學(xué)家薩夫拉斯庫(Julian Savulescu)發(fā)表了《比得洛夫悖論:GhatGPT時(shí)代的道德責(zé)任》(The Petrov dilemma: Moral responsibility in the age of ChatGPT)。在這篇文章中他把ChatGPT看作是從人類對話中搜集信息和做出快速反應(yīng)的機(jī)器智能。他從ChatGPT思考人類面對AI應(yīng)該做三件事情:先思考、承擔(dān)責(zé)任和合乎倫理的行動(dòng)。先思考是涉及機(jī)器信任,生成的答案、文本是否值得相信;承擔(dān)責(zé)任涉及某人負(fù)責(zé)任的程度依靠他們確保福利或者避免傷害的努力和承諾;合乎倫理的行動(dòng)涉及行動(dòng)要合乎倫理,而這一點(diǎn)的前提是需要意識(shí)到技術(shù)的價(jià)值,然而要確保風(fēng)險(xiǎn)是合理的。他這篇文章非常應(yīng)景,尤其是他提到的信任問題是最為重要的問題之一。而這一點(diǎn)取決于ChatGPT給出的回答是否正確的。然而,他忽略了ChatGPT的透明性問題,這也是信任的另一個(gè)基礎(chǔ)。

回答正確是ChatGPT可信的根據(jù)之一,因?yàn)镃hatGPT可以做到事實(shí)正確,所以我們可以信賴它。從提問-回答本身來說,目前在很多使用者那里提出的問題希望ChatGPT回答正確而不出錯(cuò),也只有在這個(gè)基礎(chǔ)上,人類才能夠信任并且接受它。這在搜索領(lǐng)域是如此,我們希望獲得正確而有效的答案。當(dāng)然,事實(shí)正確并無法保證道德正確。從倫理要求角度來說,我們希望它們的回答是友好的、無偏見的。無偏見是人類對于人工智能的基本倫理要求,希望在執(zhí)行任務(wù)時(shí)表現(xiàn)得公正。友好的是一種基于人類自身的要求,我們總希望對話者表達(dá)友好,而不至于懟我們,以至于讓我們情感上難以接受。然而,目前在使用ChatGPT過程中已經(jīng)出現(xiàn)不友好的表現(xiàn),比如不會(huì)回應(yīng)、無視問題等等。這可以看作是無法做到道德正確的表現(xiàn)。事實(shí)正確與道德正確的完全是一個(gè)外在于ChatGPT的要求,這是人工智能倫理的要求,換句話說,是人類把自己的道德期望作為一種必然的要求給予它。可以看出,這種要求不是必然的。

透明性問題也是會(huì)影響ChatGPT的可信的。這一點(diǎn)為薩夫拉斯庫忽略了。ChatGPT學(xué)習(xí)的數(shù)據(jù)來自人類歷史數(shù)據(jù),充滿了各式各樣的偏見。此外,ChatGPT的黑箱問題尤其明顯,羅素非常明確地指出,我們不清楚ChatGPT的工作原理和機(jī)制,他也不認(rèn)為語言大模型讓我們距離真正的智能更近。面對比如Stable Diffusion、LaMDA和ChatGPT等生成式AI的迅速發(fā)展,歐盟即將出臺(tái)新的人工智能法規(guī),強(qiáng)迫AI公司闡明其人工智能模型的內(nèi)部運(yùn)作原理,違反者將面臨高達(dá)其全年收入6%的罰款。但是,事實(shí)上,那些試圖讓ChatGPT變得更加透明的想法有可能是一種奢望。

四、ChatGPT是否是可錯(cuò)的?

一般說來,ChatGPT是可錯(cuò)的(fallible),它的回答可以模糊、錯(cuò)誤、帶有偏見。上面的分析指出,ChatGPT無法做到道德正確,它的回答明顯充滿了偏見。還有一種情況是ChatGPT的幻覺,即會(huì)產(chǎn)生不準(zhǔn)確的、誤導(dǎo)或錯(cuò)誤的信息。OpenAI的首席執(zhí)行官山姆·阿爾特曼(Sam Altma)承認(rèn)ChatGPT給人一種誤導(dǎo)性印象。在科學(xué)家的眼里,這一缺陷是可以通過技術(shù)方式來解決和彌補(bǔ)的。面對這種缺陷和有限,他們通過對改進(jìn)現(xiàn)有架構(gòu)或者AI方法論變更來解決這一問題。

可以看出,技術(shù)的可錯(cuò)性有其自身特性,能夠通過技術(shù)方式加以解決。這與人類的可錯(cuò)性存在極大區(qū)別。人類的有限性是人自身的先天特性,斯蒂格勒將這種有限性稱之為先天的缺陷;此外,人類的有限性是無法徹底克服,換句話說,人類無法做到完美,通過各種技術(shù)手段無法實(shí)現(xiàn)完美;最后,人類的有限性是主體意志的必然結(jié)果。在保羅·利科的哲學(xué)中,“可錯(cuò)的人”是一個(gè)專有的概念用來描述人的特征,人的可錯(cuò)與人的意志相關(guān)。

ChatGPT的出錯(cuò)與意志沒有任何關(guān)系,是參數(shù)和數(shù)據(jù)導(dǎo)致的偏差,甚至是神秘的黑箱導(dǎo)致的無法避免的結(jié)果。在這個(gè)分析中,我們把ChatGPT的可錯(cuò)性分析與意志的關(guān)系完全剝離出來。畢竟它只是一個(gè)智能體,而不是主體。我們需要做的是把ChatGPT可錯(cuò)程度控制到一定范圍內(nèi),完全不犯錯(cuò)誤是不可能的。

國家社科基金重大項(xiàng)目“當(dāng)代新興增強(qiáng)技術(shù)前沿的人文主義哲學(xué)研究”(20ZD&045)階段性成果。

本專欄內(nèi)容由復(fù)旦大學(xué)通識(shí)教育中心組稿。

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號