【編者按】隨著聊天程序ChatGPT成為時(shí)下關(guān)注的焦點(diǎn),人們意識(shí)到人工智能正在影響著各個(gè)領(lǐng)域與學(xué)科,正在成為推動(dòng)人類文明進(jìn)入一段新旅程的力量。復(fù)旦大學(xué)通識(shí)教育中心組織“人工智能”系列,邀請(qǐng)校內(nèi)外不同領(lǐng)域的學(xué)者,從多學(xué)科視角入手、以平實(shí)的語(yǔ)言,嘗試與讀者一起了解有關(guān)人工智能的方方面面。以下是段偉文教授的文章《如何理解和應(yīng)對(duì)ChatGPT與生成式人工智能的開放性倫理挑戰(zhàn)》。
自圖靈等人工智能先驅(qū)提出計(jì)算機(jī)可以像人一樣思考和行動(dòng)以來(lái),人工智能會(huì)不會(huì)構(gòu)建出類似人類的智能甚至超越后者,一直是一個(gè)在探索之中和爭(zhēng)論不休的問題。在近年來(lái)新一波數(shù)據(jù)驅(qū)動(dòng)的人工智能熱潮中,這一問題的焦點(diǎn)逐漸從理論上的可能性之爭(zhēng)轉(zhuǎn)換為如何應(yīng)對(duì)技術(shù)上可能出現(xiàn)的顛覆性創(chuàng)新。從基于深度學(xué)習(xí)的人工智能戰(zhàn)勝人類圍棋棋手到最近以ChatGPT為代表的生成式人工智能取得令人驚嘆的成功,特別是ChatGPT為自然語(yǔ)言問題和提示所作出的表述清晰、語(yǔ)法正確的回答,像巨型魔術(shù)表演一樣牽動(dòng)了人們對(duì)科技未來(lái)的想象。面對(duì)這一步步緊逼的“創(chuàng)造性破壞”所帶來(lái)的海嘯般的沖擊,人們不僅看到了突然演化出通用人工智能乃至超級(jí)智能的潛在風(fēng)險(xiǎn),而且越來(lái)越強(qiáng)烈地認(rèn)識(shí)到,必須嚴(yán)肅思考和認(rèn)真對(duì)待由此可能引發(fā)的開放性社會(huì)風(fēng)險(xiǎn)與價(jià)值倫理挑戰(zhàn)。
人工智能的工程創(chuàng)新與智能理論間的認(rèn)知落差
從技術(shù)上講,ChatGPT是在模仿人類語(yǔ)言的大型預(yù)訓(xùn)練語(yǔ)言模型(LLM)基礎(chǔ)上產(chǎn)生的一種生成式的人工智能語(yǔ)言模型。其成功的關(guān)鍵在于通過基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)對(duì)模型加以微調(diào),從而不僅使其獲得了流暢的對(duì)話功能——可以針對(duì)任意話題與用戶進(jìn)行高質(zhì)量的對(duì)話,而且在工程上基本實(shí)現(xiàn)了“人機(jī)對(duì)齊”——讓機(jī)器的目標(biāo)和意圖符合人的要求。由此,它可以較為準(zhǔn)確地按照用戶意圖實(shí)現(xiàn)問答、分類、摘要和創(chuàng)作等自然語(yǔ)言理解與生成任務(wù),自動(dòng)而迅速地輸出邏輯較為自洽的回答,甚至可以生成類似人類作者寫出的文章和報(bào)告。
雖然作為演示樣本的ChatGPT尚存在諸多的不完善之處,但其所涌現(xiàn)出的流暢的類似人類的對(duì)話功能表明,它在理論層面突破了人們對(duì)智能和人工智能的既有認(rèn)知框架。其一,盡管它并不具備自主性和自我意識(shí),沒有真正意義上的理解能力,但鑒于它可根據(jù)人們的提示和提供新的信息而改進(jìn)回答,它至少看起來(lái)在一定程度上具備了“理解”自然語(yǔ)言并不斷優(yōu)化推理和表達(dá)的能力。其二,作為ChatGPT基礎(chǔ)的大型預(yù)訓(xùn)練模型具有強(qiáng)大的泛化能力,即能夠處理與不同于先前遇到的情況不或任務(wù)的能力,而這實(shí)際上打破專用人工智能與通用人工智能的傳統(tǒng)二分法。其三,根據(jù)所謂“人工智能效應(yīng)”悖論,在人工智能發(fā)展過程中,各種專用人工智能(如下棋等)一旦實(shí)現(xiàn),往往會(huì)被視為對(duì)部分人類智能或技能的自動(dòng)化并不再被當(dāng)作是具有智能的;而ChatGPT的特殊性在于它不僅是一種可以實(shí)現(xiàn)類人類語(yǔ)言的自動(dòng)化專用人工智能,而且因其作為語(yǔ)言而具有的指令功能,它可以與圖像、音視頻等其它模態(tài)的人工智能生成內(nèi)容形成無(wú)限的組合。
同時(shí),它的出現(xiàn)也突破了人工智能懷疑者的認(rèn)知框架。幾年前,面對(duì)深度學(xué)習(xí)的突破性成就引發(fā)的達(dá)到或超越人類智能的奇點(diǎn)臨近的熱議,人工智能的懷疑者、科學(xué)社會(huì)學(xué)家柯林斯(Harry Collins)依然向人工智能走向通用人工智能的潛力了提出質(zhì)疑。在《人工虛構(gòu)智能:反對(duì)人性向計(jì)算機(jī)繳械》(2018)一書中,他從“嵌入認(rèn)知”理論出發(fā),祭出了“連環(huán)掌”:(1)除非完全嵌入正常的人類社會(huì),否則任何計(jì)算機(jī)都不會(huì)流利地使用自然語(yǔ)言、通過嚴(yán)格的圖靈測(cè)試并具有完全類人類的智能;(2)盡管與任何其他人工智能方法相比,深度學(xué)習(xí)更易于將計(jì)算機(jī)嵌入人類社會(huì),但因其當(dāng)前技術(shù)基于漸進(jìn)式發(fā)展,任何計(jì)算機(jī)都不能完全融入人類社會(huì)。但顯然,ChatGPT在工程上所呈現(xiàn)出超強(qiáng)的人機(jī)自然語(yǔ)言對(duì)話能力不僅在相當(dāng)?shù)某潭壬洗蚱屏丝铝炙沟缺^主義者的設(shè)限,而且超出了大部分技術(shù)樂觀主義者的預(yù)期。
而這再次表明,不論是對(duì)什么是智能、什么是人工智能的理論構(gòu)想,還是從德雷福斯到柯林斯等對(duì)人工智能不能做什么的理論反思,往往與技術(shù)和工程上交付的人工智能實(shí)現(xiàn)方式之間存在著不小的認(rèn)知落差。而造成這種落差的原因,則在于在人工智能發(fā)展過程中理論思維和工程思維之間的張力。如果用能夠處理無(wú)限任務(wù)、自主和具有價(jià)值系統(tǒng)之類的“關(guān)鍵要求”作為通用人工智能的標(biāo)準(zhǔn),ChatGPT顯然不夠格,但問題是這些“關(guān)鍵要求”本身在工程上如何測(cè)試。
回顧人工智能的發(fā)展歷程,有關(guān)智能和認(rèn)知的哲學(xué)研究往往會(huì)對(duì)人工智能技術(shù)和工程上的“理論缺陷”展開批評(píng),旨在推動(dòng)人工智能的范式轉(zhuǎn)換。如近年來(lái)試圖超越笛卡爾式認(rèn)知主義的具身認(rèn)知、嵌入認(rèn)知、生成認(rèn)知、延展認(rèn)知和情境認(rèn)知等“4E+S”認(rèn)知得到了深入的討論,從哲學(xué)上不難指出缺失這些維度的認(rèn)知很難成為真正的認(rèn)知,也可據(jù)此順手批評(píng)技術(shù)和工程上實(shí)現(xiàn)的人工智能之不足。類似地,在人工智能的討論中,人工智能體是否具有“意識(shí)”既是人們公認(rèn)的人工智能可能出現(xiàn)的最高風(fēng)險(xiǎn),也被人工智能懷疑者視為真正意義上的智能的金標(biāo)準(zhǔn),但問題是認(rèn)知科學(xué)和哲學(xué)對(duì)這個(gè)難問題的認(rèn)識(shí)還非常有限,人們目前所能做的只能是工程技術(shù)層面的防范。
就像柯林斯的“連環(huán)掌”一樣,諸多有關(guān)智能的理論認(rèn)知框架往往缺乏必要的謙遜,未能將其立場(chǎng)當(dāng)作探究的視角之一,容易陷入固守“先驗(yàn)”標(biāo)準(zhǔn)的封閉式否定思維之中。而工程思維則主要體現(xiàn)為工程實(shí)踐中的累積創(chuàng)新和涌現(xiàn)創(chuàng)新,是一種基于技術(shù)產(chǎn)業(yè)演進(jìn)的“后驗(yàn)”迭代的開放性的肯定思維,常常是對(duì)某些技術(shù)路徑的偏執(zhí)性選擇,且能在技術(shù)演進(jìn)中賦予這些選擇以新的內(nèi)涵。
受到兩者之間的這種認(rèn)知落差的影響,理論研究者和批評(píng)者無(wú)法預(yù)見人工智能工程實(shí)踐可能涌現(xiàn)出的重大突破,工程實(shí)踐者和喝彩者則難以前瞻技術(shù)上的突破在社會(huì)價(jià)值倫理層面所引發(fā)的革命性影響,由此形成的總體認(rèn)知狀態(tài)顯然無(wú)法應(yīng)對(duì)包括超級(jí)智能在內(nèi)的開放性倫理風(fēng)險(xiǎn)。
基于人機(jī)交互智能的生成式人工智能與人機(jī)對(duì)齊
為何會(huì)出現(xiàn)這一認(rèn)知落差呢?這其中固然有人工智能前沿創(chuàng)新高度不確定的原因,但不容忽視的原因是人們思考相關(guān)問題時(shí)所采用的實(shí)體論預(yù)設(shè)。耐人尋味的是,不論是理論反思者還是從事工程實(shí)踐的人,在相關(guān)的探討中大多將人工智能與人類智能預(yù)設(shè)為相互分立的智能體,大多聚焦二者的高下之分和此消彼長(zhǎng),而較少以兩者之間的交互作為思考的出發(fā)點(diǎn),從技術(shù)社會(huì)系統(tǒng)和智能生態(tài)系統(tǒng)的維度理解人工智能體的實(shí)質(zhì)。
但實(shí)際上,從基于大數(shù)據(jù)的深度學(xué)習(xí)到基于大模型的生成式人工智能,其創(chuàng)新應(yīng)用都發(fā)生于數(shù)據(jù)、算法、算力等所構(gòu)建的巨型技術(shù)社會(huì)系統(tǒng)之中,是在高度社會(huì)化的人機(jī)交互智能生態(tài)系統(tǒng)中形成的。它們之所以可實(shí)現(xiàn)功能上的突破,固然源于數(shù)據(jù)量和模型參數(shù)大到一定規(guī)模后的功能涌現(xiàn),更重要的是要充分認(rèn)識(shí)到人類反饋微調(diào)和使用中的人機(jī)智能交互對(duì)其性能改進(jìn)的作用。
目前業(yè)界和學(xué)界對(duì)生成式人工智能倫理風(fēng)險(xiǎn)的認(rèn)知大多滯留于網(wǎng)絡(luò)媒體和數(shù)字平臺(tái)涉及的相關(guān)問題,聚焦于偏見、歧視、數(shù)據(jù)濫用、信息誤導(dǎo)、用戶操縱、虛假內(nèi)容和惡意使用等方面。這些問題其實(shí)是現(xiàn)實(shí)世界中存在的問題在大數(shù)據(jù)、人工智能等數(shù)字技術(shù)應(yīng)用中的折射與放大,并且在生成式人工智能中進(jìn)一步延伸和加劇,故對(duì)它們的關(guān)注的確具有緊迫性。
而實(shí)際上,在ChatGPT的研發(fā)過程中,Open AI的技術(shù)路線就是在高度社會(huì)化的人機(jī)交互智能系統(tǒng)中展開的。ChatGPT所采用的人工智能新范式基于對(duì)自然語(yǔ)言內(nèi)在的同質(zhì)化形式和結(jié)構(gòu)的學(xué)習(xí),其中既有海量的文本數(shù)據(jù)集,也包括運(yùn)行中大量的人機(jī)對(duì)話數(shù)據(jù),其內(nèi)容生成思路是學(xué)習(xí)與預(yù)訓(xùn)練的結(jié)合——首先是自動(dòng)提取相關(guān)內(nèi)容并加以聚合,然后通過人機(jī)對(duì)齊工程對(duì)其目標(biāo)和價(jià)值加以必要的修正。
依照Open AI的說(shuō)法,之所以實(shí)施人機(jī)對(duì)齊工程的背景是,Open AI對(duì)其所開發(fā)的GPT系列大模型以及ChatGPT的技術(shù)定位是探索通用人工智能。為了防范由此可能帶來(lái)的顛覆性社會(huì)倫理影響,開發(fā)者通過人類標(biāo)注、反饋、審核等工程方法對(duì)生成的類自然語(yǔ)言中的價(jià)值沖突和倫理爭(zhēng)議進(jìn)行了校準(zhǔn),對(duì)生成內(nèi)容與語(yǔ)言表達(dá)策略進(jìn)行了持續(xù)監(jiān)督和不斷優(yōu)化。這使ChatGPT的輸出對(duì)價(jià)值敏感問題相對(duì)謹(jǐn)慎、持平,主動(dòng)回避有爭(zhēng)議的問題、甚至拒絕回答。
人機(jī)對(duì)齊工程的實(shí)施表明,由于存在著包括超級(jí)人工智能可能引發(fā)的人類生存風(fēng)險(xiǎn)在內(nèi)的巨大社會(huì)倫理風(fēng)險(xiǎn),生成式人工智能的技術(shù)開發(fā)與價(jià)值倫理調(diào)節(jié)從一開始就是同步進(jìn)行的。由此,可以得到二個(gè)重要的啟示。一方面,人機(jī)對(duì)齊工程的實(shí)施表明,對(duì)生成式人工智能進(jìn)行價(jià)值倫理矯正并防范惡性后果在工程上是可行的,這為其創(chuàng)新應(yīng)用中恪守價(jià)值底線和紅線提供了可借鑒的經(jīng)驗(yàn)。當(dāng)然,必須明確指出的是,作為語(yǔ)言模型的ChatGPT本身并不真正理解各種價(jià)值觀的內(nèi)涵。另一方面,人機(jī)對(duì)齊工程是在人機(jī)交互的基礎(chǔ)上的實(shí)施的,不論是在訓(xùn)練數(shù)據(jù)之中還是在人工標(biāo)注等人類反饋環(huán)節(jié),都負(fù)載著利益相關(guān)者的利益和好惡,會(huì)受到各種價(jià)值預(yù)設(shè)和文化選擇的影響,必然存在一定的偏向性。
超越知識(shí)生成自動(dòng)化的知識(shí)權(quán)威幻象與圖靈陷阱
人機(jī)對(duì)齊工程所進(jìn)行的價(jià)值倫理矯正固然有助于對(duì)人工智能生成內(nèi)容的法律規(guī)制和倫理治理,但更重要的是,要看到以ChatGPT為里程碑的生成式人工智能是機(jī)器智能與人類智能全新的交互組合方式,我們正在開啟借助人工智能自動(dòng)生成知識(shí)并全面重塑生活的前所未有時(shí)代。從知識(shí)生產(chǎn)方式的范式轉(zhuǎn)換來(lái)看,如果說(shuō)大數(shù)據(jù)分析帶來(lái)的是堪比微積分的新分析,那么ChatGPT所開啟的大模型加人類反饋的自動(dòng)化知識(shí)生成方式則是面向智能化未來(lái)的新綜合。而對(duì)這一新綜合的擁抱將迫使我們面對(duì)一系列全新倫理挑戰(zhàn),除了熱議的違背學(xué)習(xí)和研究誠(chéng)信、侵犯知識(shí)產(chǎn)權(quán)等問題之外,尤其值得關(guān)注的是以下兩個(gè)具有開放性的社會(huì)倫理挑戰(zhàn)。
一是將自動(dòng)生成的知識(shí)視為神諭的知識(shí)權(quán)威幻象。擁抱知識(shí)生成自動(dòng)化必然面對(duì)的一個(gè)悖論是,生成式人工智能系統(tǒng)固然能帶來(lái)知識(shí)生成效率的提升,但它并非知識(shí)大全和全能的知識(shí)的領(lǐng)會(huì)者。這種從海量訓(xùn)練數(shù)據(jù)中拼湊出答案的語(yǔ)言形式生成系統(tǒng)如同自動(dòng)的隨機(jī)鸚鵡,其自身既不真正理解輸入輸出數(shù)據(jù)的意義,也沒有自己的目標(biāo),更不知道什么是研究和學(xué)習(xí)以及為什么要研究和學(xué)習(xí)。但人們往往會(huì)產(chǎn)生一種將它們視為自動(dòng)化的知識(shí)生產(chǎn)者的幻象,而沒有注意到,雖然它們能夠產(chǎn)生連貫的文本,但其意義和連貫性是在人類與機(jī)器的互動(dòng)中形成的,而它們并沒有試圖表達(dá)什么。如果認(rèn)識(shí)不到這種幻象,就容易產(chǎn)生將生成式人工智能視為知識(shí)權(quán)威和道德權(quán)威的風(fēng)險(xiǎn)。隨著ChatGPT的進(jìn)一步發(fā)展,有望演變?yōu)槠胀ㄈ巳粘I钪械娜斯ぶ悄苤?,成為解答知識(shí)、辨別是非乃至區(qū)分善惡的重要工具。鑒于ChatGPT并不真正理解其所生成的知識(shí)內(nèi)容以及對(duì)是非善惡的判斷,而且有時(shí)會(huì)產(chǎn)生荒謬的錯(cuò)誤或隨意堆砌和編造的內(nèi)容,在缺乏批判性思考的情況下,將ChatGPT簡(jiǎn)單地視為教育、醫(yī)療、心理、精神方面的解惑者或指導(dǎo)者,難免放大由知識(shí)生成錯(cuò)誤和不準(zhǔn)確造成的危害。
二是由盲目的智能化和自動(dòng)化導(dǎo)致的圖靈陷阱。如果不能認(rèn)識(shí)到生成式人工智能建立在人機(jī)交互的智能生態(tài)系統(tǒng)乃至遍布地球的智能科技社會(huì)系統(tǒng)之上,就看不到知識(shí)生成自動(dòng)化的基礎(chǔ)和前提是對(duì)人類智能的提取,其運(yùn)作過程既是對(duì)知識(shí)和智能的重新定義,也是對(duì)地球生態(tài)環(huán)境、人類社會(huì)和個(gè)人的重構(gòu)。如果缺乏對(duì)這一過程的反思,就可能陷入各種圖靈陷阱:在教育和研究中無(wú)條件采用自動(dòng)化生成知識(shí),在工作中無(wú)限度地用自動(dòng)化取代人類智能,完全不顧及能源消耗的自動(dòng)化知識(shí)生成還會(huì)使地球生態(tài)環(huán)境不堪重負(fù)。之所以會(huì)出現(xiàn)圖靈陷阱,是因?yàn)橹悄芎妥詣?dòng)化系統(tǒng)沒有做到以人為本,在人工智能的部署中往往迫使人被動(dòng)地適應(yīng)智能化和自動(dòng)化——在很多情況下,“自動(dòng)建議”“自動(dòng)更正”等智能系統(tǒng)的運(yùn)作預(yù)設(shè)不是使機(jī)器人性化,而是讓人越來(lái)越機(jī)器化,使人的自主性在不經(jīng)意間被自動(dòng)剝奪。
為了克服人工智能的知識(shí)權(quán)威幻象,超越圖靈陷阱,無(wú)疑需要全社會(huì)展開進(jìn)一步的討論,以構(gòu)建我們對(duì)可接受的深度智能化未來(lái)的合理想象。而從觀念上講,必須直面的問題是:人類在知識(shí)和智能上能否保有主創(chuàng)者和主導(dǎo)者地位?人的主體性能否經(jīng)受住來(lái)自人工智能的挑戰(zhàn)?如果未來(lái)不會(huì)出現(xiàn)人工智能超越人類智能的奇點(diǎn),我們似乎可以堅(jiān)持:一方面,人應(yīng)該成為最終的知識(shí)權(quán)威;另一方面,人工智能應(yīng)該更多地作為人的智能助手,而不是一味地用智能化和自動(dòng)化取代人的工作和替代人的技能。
最后,從長(zhǎng)期風(fēng)險(xiǎn)來(lái)看,ChatGPT強(qiáng)大功能的涌現(xiàn)表明,對(duì)于大模型的研發(fā)必須真正開始警惕出現(xiàn)有意識(shí)的通用人工智能的可能性,將人工智能可能威脅人類生存的安全風(fēng)險(xiǎn)的及時(shí)防范作為其發(fā)展的前提。OpenAI的首席執(zhí)行官山姆.奧特曼在最近的一篇博文中再次宣示了其發(fā)展通用人工智能的初衷,并強(qiáng)調(diào)要確保造福人類。這種站在道德制高點(diǎn)上的高調(diào)宣示其實(shí)表明,他已經(jīng)認(rèn)識(shí)到通用人工智能的巨大風(fēng)險(xiǎn),但人類的未來(lái)能能否避免由此帶來(lái)的生存風(fēng)險(xiǎn),顯然不能僅僅寄希望于其作出的審慎發(fā)展的承諾。
(本文經(jīng)刪節(jié)編輯后發(fā)表于《中國(guó)社會(huì)科學(xué)報(bào)》2023年3月7日第7版。)
本專欄內(nèi)容由復(fù)旦大學(xué)通識(shí)教育中心組稿。