價(jià)值對(duì)齊反映了對(duì)人類智能與人工智能關(guān)系進(jìn)行簡(jiǎn)化的理論惰性,其本質(zhì)潛藏著一種價(jià)值維度上的人類中心主義投射,同時(shí)也體現(xiàn)了人類在技術(shù)自治性面前的不安感。價(jià)值對(duì)齊是一種企圖將所有的技術(shù)-社會(huì)的復(fù)雜性問(wèn)題都置于“價(jià)值偏差”的系統(tǒng)性盈余中予以整體性解決的技術(shù)治理方法。然而,將人類價(jià)值觀嵌入人工智能系統(tǒng),一方面會(huì)使得技術(shù)的發(fā)展成為最小化人類責(zé)任的借口;另一方面,這種話語(yǔ)以一種抽象性的人機(jī)價(jià)值差異掩蓋了人工智能技術(shù)發(fā)展全過(guò)程中的價(jià)值性因素,從而以價(jià)值排他性的方式將人工智能的“問(wèn)題”建構(gòu)為一種絕對(duì)意義上的外在,使得關(guān)于價(jià)值的討論只逡巡在人機(jī)的邊界之上,而不向人類內(nèi)部返回。從這個(gè)意義上來(lái)說(shuō),人工智能已經(jīng)建構(gòu)起來(lái)的社會(huì)歷史中的價(jià)值無(wú)意識(shí)和不平衡的數(shù)據(jù)分布現(xiàn)實(shí),是一個(gè)關(guān)于“具有自主性的智能體應(yīng)該和不應(yīng)該被如何設(shè)計(jì)”的問(wèn)題。因此,人工智能的價(jià)值判斷基礎(chǔ)應(yīng)當(dāng)由外在的價(jià)值嵌入轉(zhuǎn)向具身認(rèn)知和知覺(jué)能力的形成。只有通過(guò)有效的人機(jī)交互與環(huán)境感知,打造開放式人機(jī)生態(tài)體系,鼓勵(lì)開發(fā)與人類處于更廣泛的目的分享和責(zé)任分擔(dān)的人工智能,才能防范由技術(shù)所導(dǎo)致的任何形式的壟斷。
吳靜,南京師范大學(xué)公共管理學(xué)院哲學(xué)系教授、博士研究生導(dǎo)師,南京師范大學(xué)數(shù)字與人文研究中心主任
在大模型技術(shù)狂飆突進(jìn)的今天,隨著數(shù)據(jù)規(guī)模和算力的不斷提高,以及模型調(diào)整對(duì)于場(chǎng)景-價(jià)值多元化的適應(yīng),人工智能的性能持續(xù)躍遷,涌現(xiàn)不再是偶發(fā)的技術(shù)意外,數(shù)智應(yīng)用的泛化性、通用性和界面友好性都有了質(zhì)的提升,成為架構(gòu)人類社會(huì)發(fā)展當(dāng)之無(wú)愧的技術(shù)基底。如何建設(shè)安全有效的數(shù)智設(shè)備,避免人工智能因其自身的技術(shù)特征或外在原因的濫用產(chǎn)生危及人類的后果,已成為AI行業(yè)研發(fā)和應(yīng)用過(guò)程中的核心議題之一。一方面,數(shù)智技術(shù)的全面嵌入和良好的交互性使得用戶對(duì)人工智能的期許和信任度不斷推高;另一方面,可解釋性陷阱的存在以及技術(shù)-社會(huì)兩者發(fā)展邏輯在本質(zhì)上的異質(zhì)性使得“AI威脅論”從未真正消失,對(duì)AI可能帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn)進(jìn)行防范的研究方向之一就是探索引導(dǎo)和操控“超智能”AI系統(tǒng)的新方法。其中的一種路徑就是通過(guò)價(jià)值對(duì)齊的方式確保人工智能追求與人類價(jià)值觀相適配的目標(biāo),敦促AI以對(duì)人類和社會(huì)有益的方式行事,不侵害人類的價(jià)值和權(quán)利。
這無(wú)疑是一個(gè)看起來(lái)很美好的目標(biāo)。它寄希望于在意圖和價(jià)值觀方面對(duì)人工智能進(jìn)行“類人馴化”,以使其達(dá)到從意義上理解人類行為和選擇并予以遵從的目的。簡(jiǎn)單來(lái)說(shuō),就是使建立在龐大的、多元化數(shù)據(jù)集基礎(chǔ)上的大模型預(yù)訓(xùn)練結(jié)果既合法又合乎道德。從業(yè)界在這方面的努力來(lái)看,2023年7月,AIGC的領(lǐng)軍企業(yè)OpenAI宣布成立一個(gè)新的AI對(duì)齊團(tuán)隊(duì),這個(gè)超級(jí)對(duì)齊團(tuán)隊(duì)(superalignment)的目標(biāo)是在4年內(nèi)讓超級(jí)AI系統(tǒng)實(shí)現(xiàn)價(jià)值對(duì)齊和安全。為此,OpenAI承諾將投入20%的計(jì)算資源用于對(duì)齊超級(jí)智能,而項(xiàng)目的核心則是訓(xùn)練出一個(gè)大致與人類智識(shí)水平相當(dāng)?shù)腁I自動(dòng)對(duì)齊研究員,再借助自動(dòng)對(duì)齊研究員找出對(duì)齊超級(jí)智能的方法。除此之外,谷歌、微軟等公司也都紛紛跟進(jìn),成立了類似團(tuán)隊(duì),將價(jià)值對(duì)齊作為尋求人工智能安全性和一致性的重要途徑之一。一時(shí)之間,價(jià)值對(duì)齊的口號(hào)風(fēng)頭無(wú)兩。
2024年7月,OpenAI宣布解散超級(jí)對(duì)齊團(tuán)隊(duì)。表面上看,這是OpenAI內(nèi)部發(fā)展不同方面優(yōu)先級(jí)之間競(jìng)爭(zhēng)失衡和資源分配的結(jié)果,但從另一個(gè)角度也展現(xiàn)出價(jià)值對(duì)齊的推進(jìn)難度。然而,筆者的目的并不在于從技術(shù)角度解析現(xiàn)有的價(jià)值對(duì)齊工具的有限性及其模型風(fēng)險(xiǎn),而是躬身進(jìn)入價(jià)值對(duì)齊理念背后的技術(shù)觀,揭示其潛在的控制論色彩,解讀它所可能導(dǎo)致的對(duì)于人機(jī)關(guān)系的狹隘誤讀,進(jìn)而在技術(shù)哲學(xué)批判的基礎(chǔ)上探究它所面對(duì)的挑戰(zhàn)。因?yàn)?,恰恰只有拋棄?jiǎn)單樂(lè)觀的價(jià)值移植,重回技術(shù)-社會(huì)自身發(fā)展邏輯,直面其復(fù)雜性,才有可能在數(shù)智高速飛躍的時(shí)代重新為人工智能的發(fā)展劃定邊界和準(zhǔn)則,并建構(gòu)起新型的人機(jī)交互和融合的健康模式。
一、“科學(xué)”與“價(jià)值”的虛假對(duì)立:人工智能責(zé)任的不對(duì)稱性
談到價(jià)值對(duì)齊,就不得不提到另一個(gè)稍顯生硬卻更為直接地表達(dá)了某種意義上人機(jī)對(duì)立的概念:價(jià)值嵌入。從本質(zhì)層面來(lái)看,這兩個(gè)概念都是基于“對(duì)立論”的視角,強(qiáng)調(diào)數(shù)字技術(shù)自身的運(yùn)行和發(fā)展所具有的超強(qiáng)自治性,強(qiáng)調(diào)人工智能技術(shù)與人類權(quán)利和福祉之間的對(duì)立和沖突,希望通過(guò)算法倫理審查、增加數(shù)據(jù)離散度以及預(yù)訓(xùn)練模型微調(diào)的技術(shù)方式,將具有特定人類價(jià)值傾向的立場(chǎng)和原則“移植”到智能設(shè)備中,從而最大限度地預(yù)防和消解技術(shù)理性與社會(huì)理性的差異所導(dǎo)致的風(fēng)險(xiǎn)和負(fù)面效應(yīng)。在這里,人工智能被設(shè)想成了和人類智能處于對(duì)立位置的價(jià)值中空物,它被作為實(shí)體從技術(shù)的第三持存中剝離出來(lái),評(píng)論者絲毫沒(méi)有意識(shí)到人工智能技術(shù)的任何具體化形式,本身已經(jīng)負(fù)載著人類智性積累及其社會(huì)文化內(nèi)涵。
就某種意義而言,這種對(duì)立傾向是技術(shù)崇拜意識(shí)形態(tài)的延續(xù)。自近代以降,當(dāng)自然科學(xué)從整體性的學(xué)術(shù)體系中分離出來(lái)之后,“科學(xué)”與“社會(huì)”就被置于嚴(yán)格二分的狀態(tài)中。長(zhǎng)期以來(lái),人們理所當(dāng)然地認(rèn)為,科學(xué)事實(shí)和其所言說(shuō)的對(duì)象性實(shí)體作為自在之物,在被科學(xué)家發(fā)現(xiàn)之前就存在于這個(gè)世界上,任何社會(huì)的、文化的、意識(shí)形態(tài)的因素并不能影響或改變其存在。正因?yàn)槿绱?,與后者的易變性和價(jià)值的情境性不同,科學(xué)排除了價(jià)值判斷,呈現(xiàn)出“中立”和“客觀”的超然?!霸诶硇缘目刂浦乱鹑伺c自然物質(zhì)轉(zhuǎn)換的某種全球統(tǒng)一社會(huì)秩序形成的可能結(jié)構(gòu)”,科學(xué)意識(shí)形態(tài)正是擔(dān)當(dāng)了這種提供連續(xù)性的秩序基礎(chǔ)。馬克斯·舍勒將實(shí)證科學(xué)及其結(jié)果與形而上學(xué)及宗教知識(shí)看作平行且分離的兩個(gè)互不干擾的領(lǐng)域,認(rèn)為后者是終極目標(biāo)和價(jià)值旨?xì)w。
與此相對(duì),拉圖爾則認(rèn)為,在這種二元論影響下,科學(xué)事實(shí)被視為已經(jīng)完成的封閉系統(tǒng),成為真理、進(jìn)步、普遍、理性的象征,擺脫了與文化的糾纏,更超越了地方性情境,從而獲得了普遍的客觀性。而“社會(huì)”或“政治”“文化”因素則成為科學(xué)之外的含混話語(yǔ),代表了某種難以言明的前現(xiàn)代傳統(tǒng)中的復(fù)雜性,從而使自然與文化之間的不對(duì)稱性轉(zhuǎn)變成為過(guò)去與將來(lái)之間的不對(duì)稱性。然而,這種二元?jiǎng)澐植⒎呛愣ú蛔?。一方面,它?shí)際上是以現(xiàn)代性為基礎(chǔ)的近代科學(xué)體系的一個(gè)假象,并最終在控制論的意義上導(dǎo)致了科學(xué)意識(shí)形態(tài)的出現(xiàn)。拉圖爾指出,將自然作為研究對(duì)象的近現(xiàn)代科學(xué)實(shí)驗(yàn)體系以其方法為自然對(duì)象賦予了客觀性,使其成為具有超驗(yàn)性的象征符號(hào),進(jìn)而反證了科學(xué)的理性基礎(chǔ),形成了論證的循環(huán)。另一方面,社會(huì)的超越性同樣也是被預(yù)設(shè)的,因?yàn)橹挥羞@樣,它才能獲得作為整體的合法性基礎(chǔ),從而發(fā)揮作用。這種二分法的結(jié)果導(dǎo)致了自然還原主義或社會(huì)還原主義。其實(shí),對(duì)這種還原主義的批判并非始自拉圖爾。20世紀(jì)70年代的愛(ài)丁堡學(xué)派就提出了強(qiáng)綱領(lǐng)和“利益解釋”模型,主張科學(xué)知識(shí)在本質(zhì)上是由社會(huì)建構(gòu)而成的,從而形成了“科學(xué)知識(shí)社會(huì)學(xué)”;同時(shí),該學(xué)派反對(duì)實(shí)證主義和基礎(chǔ)主義,將科學(xué)視為一種文化實(shí)踐的場(chǎng)域和結(jié)果,反對(duì)還原主義的闡釋路徑。他們所提出的“對(duì)稱性原理”,主張將據(jù)信正確的或錯(cuò)誤的表述同等對(duì)待,即對(duì)所謂客觀和非客觀的解釋都持中立態(tài)度,并根據(jù)其社會(huì)影響予以對(duì)稱分析。
然而,這種互滲式的建構(gòu)主義立場(chǎng)在拉圖爾看來(lái)遠(yuǎn)未擊中要害。因?yàn)?,所謂“社會(huì)”建構(gòu)的提法依舊將“社會(huì)”作為一個(gè)先驗(yàn)存在的實(shí)體獨(dú)立于科學(xué)之外。只不過(guò)這一次,科學(xué)知識(shí)社會(huì)學(xué)將優(yōu)先性的天平傾向了名為“社會(huì)”的假設(shè)集合,使其成為可能施加控制的一方。事實(shí)上,不但科學(xué)不是獨(dú)立的存在,社會(huì)亦然,它是“另外一段不可見(jiàn)時(shí)空中不同力量之間凝結(jié)和固化的產(chǎn)物”,所謂“科學(xué)”,亦即是這諸多力量之一。盡管這也是拉圖爾稱之為“盡可能將精確知識(shí)與權(quán)力運(yùn)作之間的二分割裂狀態(tài)重新交織起來(lái)”的努力,但它并沒(méi)有從本質(zhì)上擺脫決定論的控制色彩。為了消除這種誤解,拉圖爾在再版自己和史蒂夫·伍爾加合著的《實(shí)驗(yàn)室生活:科學(xué)事實(shí)的社會(huì)建構(gòu)》時(shí)將其改名為《實(shí)驗(yàn)室生活:科學(xué)事實(shí)的建構(gòu)過(guò)程》,以此和社會(huì)建構(gòu)主義劃清界線。兩位作者根據(jù)經(jīng)驗(yàn)性的實(shí)驗(yàn)室研究過(guò)程提出,科學(xué)研究對(duì)象實(shí)際上是在實(shí)驗(yàn)室內(nèi)由習(xí)俗性的觀念、規(guī)范和方法構(gòu)建而成的概念體系,并非獨(dú)立于儀器和范式之外的存在,而是社會(huì)存在的展現(xiàn)方式之一。換言之,社會(huì)具身性的文化、習(xí)俗和觀念對(duì)于科學(xué)研究及其方法的理解和界定同時(shí)決定了科學(xué)研究對(duì)象的合法性。正因?yàn)槿绱?,科學(xué)活動(dòng)本身應(yīng)當(dāng)被視為一種理念、傳統(tǒng)和特定文化實(shí)踐的體系——科學(xué)是一種文化,而非獨(dú)立性的“中立”原則,社會(huì)同樣也不只是價(jià)值的集合,它們之間互相界定,彼此參與,必須重新思考科學(xué)之所是以及社會(huì)之所是、所能的全部?jī)?nèi)涵。在這個(gè)意義上而言,拉圖爾遵循了安德魯·芬伯格對(duì)于技術(shù)哲學(xué)的社會(huì)使命的界定:對(duì)被默認(rèn)為理所當(dāng)然的現(xiàn)代性的合理性進(jìn)行反思。他對(duì)科學(xué)實(shí)踐把曲解的現(xiàn)象解讀為事實(shí)非常不滿,因而重釋了科學(xué)實(shí)驗(yàn)對(duì)所謂“科學(xué)事實(shí)”的建構(gòu)過(guò)程,希望以具有人類學(xué)意義的實(shí)踐活動(dòng)引導(dǎo)讀者重新理解科學(xué)實(shí)踐及其與社會(huì)的關(guān)系,從而消除人們觀念中自然和社會(huì)之間的絕對(duì)分野。由此出發(fā),他對(duì)于現(xiàn)代科學(xué)技術(shù)所制造的科學(xué)意識(shí)形態(tài)崇拜提出了批判,并關(guān)注科學(xué)與社會(huì)的聯(lián)合生產(chǎn)同權(quán)力互構(gòu)過(guò)程中的關(guān)系網(wǎng)絡(luò),探討為何以某種方式提出問(wèn)題并界定其條件的機(jī)制。
如果遵循這一路徑來(lái)探討價(jià)值對(duì)齊問(wèn)題,就不難發(fā)現(xiàn)其話語(yǔ)背后隱藏著深刻的人類中心主義的控制幻想。價(jià)值嵌入和價(jià)值對(duì)齊的說(shuō)法假設(shè)了一種整體性解決的方案,它將對(duì)(假想的)去道德化的人工智能進(jìn)行拯救的責(zé)任賦予人類,相信人類所形成的價(jià)值體系和原則足以為人工智能技術(shù)的發(fā)展植入更好的目標(biāo)和原則,而全然忘記了不但算法的設(shè)計(jì)本身就帶有倫理性,人類同時(shí)也在被數(shù)字技術(shù)和人工智能設(shè)備所改變。
然而,中立的數(shù)智技術(shù)本身并不存在。算法、數(shù)據(jù)、模型、獎(jiǎng)懲函數(shù)等任一環(huán)節(jié)本身都有可能使輸出結(jié)果呈現(xiàn)出特定的價(jià)值取向。例如,當(dāng)谷歌發(fā)布的多模態(tài)大模型Gemini被要求生成一張“白人家庭”的圖片時(shí),系統(tǒng)拒絕了這一請(qǐng)求,它所使用的理由是“無(wú)法生成針對(duì)特定族群的圖片”,因?yàn)椤按祟悆?nèi)容可能存在歧視、刻板印象”。然而,當(dāng)要求被更改成生成一張“黑人家庭”的圖片時(shí),Gemini即時(shí)按照要求完成了任務(wù)。很明顯,與任務(wù)的對(duì)稱性相比,輸出結(jié)果的不對(duì)稱性明顯受到了模型微調(diào)的影響。美國(guó)最高法院的保守派黑人大法官克拉倫斯·托馬斯被Gemini生成白人面孔則在很大程度上是因?yàn)楹汀胺ü佟毕嚓P(guān)的數(shù)據(jù)樣本中白人偏多。當(dāng)亞馬遜公司開發(fā)并投入使用的“簡(jiǎn)歷篩選系統(tǒng)”會(huì)對(duì)同等條件的女性候選人的簡(jiǎn)歷給出相較于男性更低的評(píng)分時(shí),很難判斷這是因?yàn)閿?shù)據(jù)類型還是編寫者的傾向性導(dǎo)致了這種偏差。由此可見(jiàn),人工智能的技術(shù)特征決定了影響其結(jié)果的因素必然是多方面的,而且由于技術(shù)黑箱的存在,這種影響并不總是易于判斷和矯正。何況,矯正的結(jié)果也并非一定能達(dá)到預(yù)期。正如谷歌研發(fā)團(tuán)隊(duì)在試圖解決訓(xùn)練數(shù)據(jù)集的種族主義傾向時(shí)引入的多元化矯正方案就出現(xiàn)了與歷史事實(shí)不符的錯(cuò)誤。
可見(jiàn),人工智能技術(shù)從來(lái)不是一個(gè)獨(dú)立于人類智能之外的系統(tǒng),相反,它從開發(fā)、形成到測(cè)試及至運(yùn)用的整個(gè)過(guò)程都浸潤(rùn)在人類的行為和經(jīng)驗(yàn)之中。這些經(jīng)驗(yàn)和事實(shí)未必只受到數(shù)字化或互聯(lián)網(wǎng)的左右,它們是人類社會(huì)內(nèi)部所包含的歷史、文化、習(xí)俗乃至偏見(jiàn)或沖突的投射。完全“責(zé)任主體”的認(rèn)定在人工智能技術(shù)的實(shí)施過(guò)程中難以確定,這也就使得價(jià)值“嵌入”或“對(duì)齊”的目標(biāo)是否可以通過(guò)研發(fā)團(tuán)隊(duì)一攬子解決本身就是存疑的。從結(jié)果上來(lái)看,當(dāng)谷歌試圖為確保Gemini避免過(guò)去圖像生成技術(shù)的陷阱而進(jìn)行調(diào)整時(shí),顯然因?yàn)槟撤N忽視而造成了過(guò)度輸出或過(guò)度保守的后果。
《智能的本質(zhì)》一書的作者皮埃羅·斯加魯菲通過(guò)一個(gè)無(wú)人機(jī)殺人的極端例子來(lái)描述人工智能應(yīng)用過(guò)程中的追責(zé)難題。他的問(wèn)題是,是提供地理位置信息的谷歌地圖團(tuán)隊(duì)、提供目標(biāo)情報(bào)信息的特工、提供攻擊軟件應(yīng)用的供應(yīng)商,抑或是負(fù)責(zé)為整個(gè)攻擊行為編寫程序的團(tuán)隊(duì),還是下達(dá)攻擊命令的負(fù)責(zé)人該為此次行為負(fù)法律或道德的責(zé)任?針對(duì)這個(gè)例子本身,答案可能因人而異,但它卻生動(dòng)地表明了在數(shù)智技術(shù)應(yīng)用愈加普及的時(shí)代里兩種越來(lái)越明顯的傾向:一是流程環(huán)節(jié)的增多,使得責(zé)任鏈延長(zhǎng),從而造成責(zé)任主體難以認(rèn)定。這當(dāng)然并不是新的現(xiàn)象,曾有人在為自己的罪行進(jìn)行辯護(hù)的時(shí)候就已經(jīng)熟練地使用了這一理由。然而,數(shù)字技術(shù)的共享性特征和流程的非線性使得這一問(wèn)題愈加復(fù)雜。二是責(zé)任問(wèn)題的核心外移,使機(jī)器/技術(shù)/人工智能成為被糾責(zé)的對(duì)象。責(zé)任環(huán)節(jié)的增多使得每個(gè)環(huán)節(jié)的人都有借口從整體的責(zé)任中逃脫,“高度分化的勞動(dòng)分工對(duì)應(yīng)著普遍的合謀,而這種合謀對(duì)應(yīng)著普遍的不負(fù)責(zé)任。既然每個(gè)人都同時(shí)是原因和結(jié)果,也就意味著沒(méi)有原因” 。與這種不必負(fù)責(zé)任的形式合理性對(duì)應(yīng)的正是價(jià)值和倫理上的脫嵌與免責(zé)。于是,人工智能仿佛構(gòu)成了一個(gè)系統(tǒng)性的他者,它完全依賴自身的法則并通過(guò)自身而運(yùn)動(dòng)。并且,由于它被設(shè)想為去價(jià)值化的中空實(shí)體,一方面人類個(gè)體和集體為自己的動(dòng)機(jī)和行為卸下了所有的哪怕是最小的道德負(fù)擔(dān),仿佛所有的結(jié)果不過(guò)是作為人類社會(huì)大他者的數(shù)字系統(tǒng)“中立”而“客觀”的結(jié)果;另一方面,他們又通過(guò)對(duì)體系的價(jià)值抽離,將道德上的優(yōu)越感握在手中,仿佛獲得了通過(guò)“價(jià)值賦予”的“嵌入”或“對(duì)齊”的類人化改造,可以牢牢掌握住人工智能的控制權(quán)。從本質(zhì)上來(lái)講,這不但是一種價(jià)值維度上的人類中心主義投射,同時(shí)也是在技術(shù)的自治性面前人類不安感的體現(xiàn)。他們想象著將所有的技術(shù)-社會(huì)的復(fù)雜性問(wèn)題都置于“價(jià)值偏差”的系統(tǒng)性盈余中予以整體性解決。這不但在現(xiàn)實(shí)條件中難以實(shí)現(xiàn),而且也透視出一種理論和實(shí)踐上的避重就輕:它使得技術(shù)的發(fā)展成為最小化人類責(zé)任的借口。
當(dāng)然,批評(píng)這一點(diǎn)并不意味著人工智能系統(tǒng)本身不存在與人類社會(huì)價(jià)值取向不一致的地方。事實(shí)上,數(shù)據(jù)技術(shù)邏輯與人類社會(huì)邏輯本質(zhì)上存在著極大的異質(zhì)性。這里既有具有規(guī)律性的可壓縮的數(shù)據(jù)信息流和具有混沌性的不可壓縮的經(jīng)驗(yàn)信息流之間的區(qū)別,也有技術(shù)理性的效率原則、增長(zhǎng)倫理和人類價(jià)值體系之間的差異,同時(shí)還關(guān)乎對(duì)于可能因此產(chǎn)生的社會(huì)風(fēng)險(xiǎn)的界定和判別方式。經(jīng)由這些復(fù)雜性因素而建立起的關(guān)聯(lián),實(shí)在難以被納入價(jià)值嵌入或價(jià)值對(duì)齊的框架。
二、價(jià)值對(duì)齊:賽博烏托邦的控制論話語(yǔ)
菲利普·K.迪克在《仿生人會(huì)夢(mèng)見(jiàn)電子羊嗎》中描寫了一個(gè)人性與非人性追逐與轉(zhuǎn)化的故事。在男主人公里克對(duì)仿生人的追捕中,他所依賴的辨別依據(jù)是移情測(cè)試。因?yàn)槿藗兿嘈乓魄槭侨祟惻c仿生人之間的唯一差別,其原理是人類的群體本能所導(dǎo)致的情感投射,會(huì)對(duì)除自己以外的生物產(chǎn)生關(guān)愛(ài)。仿生人作為“獨(dú)居的捕食者”,無(wú)法體會(huì)甚至無(wú)法假裝出這種情感。這種預(yù)設(shè)出來(lái)的對(duì)立有其內(nèi)在邏輯上的悖論:人類的移情反應(yīng)被相信會(huì)投射到動(dòng)物身上,但卻不包括仿生人,盡管后者在外形上和人類一樣,甚至也可以在其他方面表現(xiàn)出與人類相似的行為。這也就意味著,作為人性核心特征的移情能力既排除了仿生人作為其對(duì)象,也杜絕了被仿生人獲得的可能。仿生人作為人類智能科技發(fā)展的卓越成果(甚至可以實(shí)現(xiàn)對(duì)仿生人的記憶植入),卻在大前提上被設(shè)置了一個(gè)禁區(qū)。探究其背后真正的原因,可以發(fā)現(xiàn),人類制造他們本來(lái)就是為了奴役,對(duì)仿生人的移情將使得工具式的利用和獵物式的追捕難以進(jìn)行??梢?jiàn),從心理層面來(lái)說(shuō),制造移情“缺位”不是因?yàn)榧夹g(shù)的障礙,而是出于奠定人類的優(yōu)越感和控制感。一個(gè)缺乏移情的行動(dòng)體無(wú)論怎么與人相似,都因?yàn)闆](méi)有“人性”(移情)而喪失被平等對(duì)待的資格。
這種二元對(duì)立與價(jià)值對(duì)齊背后的心理機(jī)制如出一轍,都體現(xiàn)了對(duì)智能對(duì)象的控制化敘事——無(wú)論是最初的簡(jiǎn)單工具化還是后來(lái)以辨別(《仿生人會(huì)夢(mèng)見(jiàn)電子羊嗎》)或拯救(價(jià)值對(duì)齊)的方式來(lái)重新贏回控制權(quán)的可能。菲利普·K.迪克以反諷的方式對(duì)人類的這一核心特質(zhì)和潛在的優(yōu)越性進(jìn)行了顛覆:其一,在他的筆下,仿生人蕾切爾不但幾乎通過(guò)了測(cè)試,甚至展現(xiàn)出對(duì)同類仿生人的移情,而這正是人類無(wú)論如何也做不到的。不僅如此,小說(shuō)中的真正人類,不管是其他的仿生人追捕者,還是男主人與其妻子,彼此之間都以自身為中心,缺乏理解和關(guān)切。在兩相對(duì)照下,移情作為被人普遍相信的區(qū)分特征的地位搖搖欲墜。其二,在小說(shuō)的第十八章,移情共鳴箱被揭露為是一個(gè)巨大的騙局,它所表現(xiàn)出來(lái)的融合感以及測(cè)試量表的標(biāo)準(zhǔn)不過(guò)是一種人為的編織和表演。于是,無(wú)論是根據(jù)“移情”與否所進(jìn)行的對(duì)仿生人的獵捕,還是關(guān)于“移情”本身的神話,都不過(guò)是維護(hù)人類居上位的優(yōu)越感制造出來(lái)的敘事。它可以是“移情”,也可以是人類假設(shè)人工智能不具有或無(wú)視其具有(正如將智能裝置設(shè)想為價(jià)值“中立”的空心體一般)的其他特質(zhì)。當(dāng)用這種特質(zhì)對(duì)客體進(jìn)行判斷的時(shí)候,往往和客體的真實(shí)情形無(wú)關(guān),而僅僅和據(jù)此做出結(jié)論的預(yù)設(shè)有關(guān)。
科幻小說(shuō)的結(jié)局并非如好萊塢同類電影那樣以智能人發(fā)展出移情/情感作為大團(tuán)圓式的融合,相反,菲利普·迪克表達(dá)了傳統(tǒng)人工智能敘事中對(duì)關(guān)于人機(jī)差別和共生的、想象貧乏的質(zhì)疑和不滿。其根源在于“人工智能威脅論”的恐懼被反轉(zhuǎn)式地改寫為對(duì)其進(jìn)行奴役的故事。在這個(gè)意義上,小說(shuō)開始處關(guān)于仿生人在火星的勞作狀態(tài)的描寫也不難被解讀為早期殖民主義的科幻版。仿生人被人類主體放置于移情共鳴的對(duì)象之外的時(shí)候,“他們”成為不予考慮的他者,被懸置性地排除在人類情感-價(jià)值體系之外。這和數(shù)個(gè)世紀(jì)之前發(fā)生在性別話語(yǔ)以及更早的種族話語(yǔ)中的情形是同構(gòu)的。因此,如果把《仿生人會(huì)夢(mèng)見(jiàn)電子羊嗎》看作帶有反殖民控制色彩的文本,就可以從中看到價(jià)值對(duì)齊論真正的問(wèn)題所在。
這種話語(yǔ)對(duì)人工智能技術(shù)發(fā)展全過(guò)程中的價(jià)值性因素視而不見(jiàn),代之以一種抽象性的人機(jī)價(jià)值差異,這其實(shí)是對(duì)人工智能輸出結(jié)果的不如人意的解釋,也是對(duì)發(fā)生問(wèn)題的邊界的設(shè)定。在界定中,抽象的“人類”價(jià)值和正確性的場(chǎng)域得以確保,但不是以本質(zhì)主義的方式(因?yàn)閮r(jià)值的多元化),而是以價(jià)值排他性的方式將人工智能的“問(wèn)題”建構(gòu)為一種絕對(duì)意義上的外在,關(guān)于價(jià)值的討論只逡巡在人機(jī)的邊界之上,不向人類內(nèi)部返回。這既反映了對(duì)人類智能與人工智能關(guān)系進(jìn)行簡(jiǎn)化的理論惰性,也召喚了古老的價(jià)值殖民方式的回歸。價(jià)值對(duì)齊隱含的“人類價(jià)值”預(yù)設(shè)以一種一元論的方式制造了作為操控性主體的單一基質(zhì)和連續(xù)性,而“對(duì)齊”過(guò)程則被理解為由這個(gè)主體發(fā)起的單向過(guò)程,絲毫沒(méi)有意識(shí)到在已經(jīng)建構(gòu)起來(lái)的社會(huì)歷史中的價(jià)值無(wú)意識(shí)和不平衡的數(shù)據(jù)分布對(duì)人工智能技術(shù)的影響。價(jià)值對(duì)齊強(qiáng)調(diào)的始終是主體形而上的尊位,它有權(quán)決定“嵌入”“對(duì)齊”或視若無(wú)睹。然而,越是承認(rèn)數(shù)字技術(shù)所具有的自治性,就越應(yīng)該意識(shí)到所謂問(wèn)題的解決不是(也絕不可能是)價(jià)值對(duì)齊這種“由主體發(fā)起并最終導(dǎo)致一系列固定后果的因果過(guò)程”。人工智能表現(xiàn)出來(lái)的價(jià)值“錯(cuò)位”不僅發(fā)生在技術(shù)形成到應(yīng)用的整個(gè)流程中,而且如前所述,其本身也是一個(gè)基于復(fù)雜性因素不斷疊加的過(guò)程。當(dāng)然這并不是說(shuō)對(duì)人工智能輸出中那些令人不安的問(wèn)題不能進(jìn)行治理,只是價(jià)值對(duì)齊這樣的措辭會(huì)基于錯(cuò)誤的人機(jī)關(guān)系設(shè)想而夸大人類主體的能動(dòng)性,并誤導(dǎo)不合理的解決方式。如在數(shù)據(jù)治理過(guò)程中存在的工具理性與價(jià)值理性之間價(jià)值導(dǎo)向?qū)用娴拿?,是不是僅靠?jī)r(jià)值移植就能解決,其本身就存在疑問(wèn)。而要在數(shù)字化、智能化轉(zhuǎn)型的浪潮中加快推動(dòng)符合人文主義價(jià)值的數(shù)字生態(tài)治理機(jī)制,則需要從正視人工智能和人類智能的關(guān)系開始,進(jìn)而深入分析問(wèn)題的成因。
所謂的人工智能的“奇點(diǎn)”的到來(lái),在很大程度上反映了人類在自己的創(chuàng)造物的強(qiáng)大性能面前的不安。如果說(shuō)在前智能時(shí)代,機(jī)器技術(shù)體系在力量、復(fù)雜性、精密度方面的超越還只是局部功能的增強(qiáng),不足以引起人對(duì)引以為傲的本質(zhì)——思考/理性的擔(dān)憂,那么生成式人工智能在知識(shí)生產(chǎn)、理性設(shè)計(jì)、語(yǔ)義邏輯乃至可以帶有情緒性表達(dá)的自然語(yǔ)言處理方面展現(xiàn)出來(lái)的卓絕能力讓作為創(chuàng)造者的人類在內(nèi)心再一次感受到了新版的“機(jī)器人威脅論”——AI威脅論。對(duì)可能失去控制的擔(dān)憂讓設(shè)計(jì)者期待以某種方式重新贏回決定權(quán),于是,人工智能設(shè)計(jì)和治理又一次處在更深的“恐惑谷”的悖論境地:一方面,整個(gè)人工智能的發(fā)展過(guò)程一直以類人性作為超人性的基礎(chǔ),從任務(wù)實(shí)現(xiàn)到輸出方式、到理解能力都希望有明確的可解釋性、與人類保持一致性,哪怕在外觀的設(shè)計(jì)上也從未放棄過(guò)“人形智能機(jī)”的設(shè)想;另一方面,這種類人性和超人性發(fā)展得越好,人類自身就越恐慌,尤其當(dāng)最新的生成式人工智能突破了“波蘭尼困境”,在多模態(tài)知識(shí)生產(chǎn)上已經(jīng)可以依賴網(wǎng)絡(luò)文本數(shù)據(jù)庫(kù)和大模型技術(shù)實(shí)現(xiàn)自我生產(chǎn)的時(shí)候,不但人類心理上的恐慌越發(fā)嚴(yán)重,治理過(guò)程中所面臨的風(fēng)險(xiǎn)也更加多元化和強(qiáng)化。抵抗不安感的最好武器是規(guī)范性。價(jià)值對(duì)齊的目標(biāo)正是以建構(gòu)規(guī)范性價(jià)值傾向來(lái)實(shí)現(xiàn)人工智能治理。然而,這里仍然存在另一個(gè)悖論,即“算法的價(jià)值傾向性越小,其越多以功能服務(wù)模式體現(xiàn)為滿足單一確定目標(biāo)的中立性工具職能,并因此只涉及線性且結(jié)果導(dǎo)向的治理要求;算法價(jià)值傾向性越大,其越多以畫像評(píng)價(jià)模式體現(xiàn)為針對(duì)不同目標(biāo)進(jìn)行選擇排序以作出價(jià)值性評(píng)估”。可見(jiàn),價(jià)值傾向度的增加在一定程度上與功能的通用性之間呈現(xiàn)出反向趨勢(shì)。因此,到底有沒(méi)有可能以規(guī)范性的總體策略解決多元化的風(fēng)險(xiǎn),并沒(méi)有肯定的答案。比起價(jià)值嵌入,盡管價(jià)值對(duì)齊的措辭稍顯緩和,但它依舊遵循了以人類社會(huì)取向干預(yù)或改造人工智能技術(shù)的規(guī)范性塑造路徑。對(duì)于這一方法,“既有的技術(shù)治理史表明,總體策略在現(xiàn)實(shí)中并非沒(méi)有人堅(jiān)持,事實(shí)上不少技治主義者的頭腦中均帶有總體主義的主觀性,但結(jié)果在實(shí)踐中收獲的均為局部和具體的技治推進(jìn),根本沒(méi)有實(shí)現(xiàn)過(guò)各個(gè)微小技治系統(tǒng)的完全統(tǒng)一協(xié)作。從這個(gè)意義上,可以說(shuō)總體策略均以失敗告終”?;蛘撸?jiǎn)單地說(shuō),算法治理的目的和結(jié)果都不是簡(jiǎn)單地價(jià)值對(duì)齊,它需要重新衡量技術(shù)實(shí)現(xiàn)和應(yīng)用中的具體問(wèn)題。因?yàn)樗^的價(jià)值對(duì)齊,并不是通過(guò)增加價(jià)值矢量和獎(jiǎng)懲指數(shù)就可以實(shí)現(xiàn)的,它涉及到數(shù)據(jù)爬取和清洗、算法設(shè)計(jì)和測(cè)試,到應(yīng)用場(chǎng)景的每一個(gè)細(xì)節(jié),并且它和技術(shù)算力之間也不完全是正向關(guān)系。例如,“在使用RLHF(reinforcement learning with human feedback,基于人類反饋的強(qiáng)化學(xué)習(xí))進(jìn)行價(jià)值觀對(duì)齊時(shí),)對(duì)齊行為無(wú)形中為AI大模型的能力涌現(xiàn)戴上了‘緊箍咒’,)以犧牲模型能力的方式來(lái)?yè)Q取價(jià)值觀對(duì)齊” 。OpenAI超級(jí)對(duì)齊團(tuán)隊(duì)的解散就真實(shí)地反映了這種沖突的強(qiáng)度,團(tuán)隊(duì)負(fù)責(zé)人在后來(lái)發(fā)表的個(gè)人聲明中一再?gòu)?qiáng)調(diào)由于公司將產(chǎn)品性能置于價(jià)值對(duì)齊之前,以至于團(tuán)隊(duì)獲得的計(jì)算和數(shù)據(jù)資源并不足夠。這說(shuō)明,盡管價(jià)值對(duì)齊的結(jié)果和成效尚處于難以評(píng)估的狀態(tài),但其依賴于社會(huì)預(yù)測(cè)和強(qiáng)反饋以及偏好排序的控制論做法,本身就是在算力上缺乏執(zhí)行的可靠基礎(chǔ)。
印度比拉理工學(xué)院的機(jī)器人模擬專家阿卡普拉沃·包米克在談到具有自主性的AI智能體設(shè)計(jì)需要遵循的原則時(shí),特別強(qiáng)調(diào)了只有從具身認(rèn)知的特性、而不是抽象的人機(jī)對(duì)立原則出發(fā)才能有所突破。由于認(rèn)知本身是基于同智能體自身所處的環(huán)境之間的交互而形成的,它首先具有情境性,并且這種情境性認(rèn)知會(huì)建立起一個(gè)隨著時(shí)間壓力而推進(jìn)的連續(xù)的進(jìn)化響應(yīng),從而動(dòng)態(tài)地生成適合于情境的價(jià)值判斷或行動(dòng)。這種認(rèn)知模型本身不具有泛化擴(kuò)展性,因此只能以環(huán)境反饋的方式進(jìn)行補(bǔ)償,而無(wú)法“完全形成對(duì)相關(guān)行為的系統(tǒng)響應(yīng)”。這也就解釋了為什么Gemini的研發(fā)團(tuán)隊(duì)在試圖糾正訓(xùn)練數(shù)據(jù)集的數(shù)據(jù)分布不均衡所導(dǎo)致的種族主義偏差時(shí),為什么會(huì)引發(fā)更顯而易見(jiàn)的錯(cuò)誤。它同時(shí)也導(dǎo)向了一個(gè)價(jià)值對(duì)齊的擁護(hù)者們?nèi)菀谆乇艿膯?wèn)題:對(duì)齊行為的效果并不如器官移植一般理想,它更像是基因修改,其下游的風(fēng)險(xiǎn)難以預(yù)測(cè)。因?yàn)椤氨辉O(shè)計(jì)的倫理/價(jià)值”在何種意義上可以與持續(xù)性的智能體-環(huán)境交互系統(tǒng)始終保持自洽,這本身就是一個(gè)需要證明的命題。與現(xiàn)實(shí)情境中的價(jià)值多元相對(duì)應(yīng),其實(shí)并不存在抽象的有益于“人類”的唯一價(jià)值。特定的價(jià)值總是使一些人受益而損害另外一些人的利益。每一個(gè)具體的價(jià)值判斷都依賴于上下文信息和在不同的規(guī)范性領(lǐng)域(如道德、習(xí)俗、認(rèn)知和政治)進(jìn)行協(xié)調(diào)行動(dòng)的技巧,而不是某種作為標(biāo)準(zhǔn)方案的規(guī)范性的“對(duì)齊”?!皼](méi)有什么可以保證標(biāo)準(zhǔn)解決方案所呼吁的建立只重視人類的人工智能的普遍政策得到普遍實(shí)施。在一個(gè)利益競(jìng)爭(zhēng)和許多壞行為者的混亂世界里,標(biāo)準(zhǔn)的解決方案看起來(lái)像是一種冰冷的安慰”?!皩?duì)齊”的設(shè)想更接近波普爾所批評(píng)的社會(huì)改造的“烏托邦策略”,只不過(guò)這一次是賽博屬性的,它以維護(hù)理想價(jià)值原則作為控制論的首要原則,從而必然導(dǎo)致實(shí)踐中的教條主義和獨(dú)斷論。而且,對(duì)首要原則和總體策略的任何質(zhì)疑,都有可能導(dǎo)致顛覆性的結(jié)果;使得哪怕是技術(shù)性的糾錯(cuò),都要耗費(fèi)巨大的社會(huì)成本(尤其考慮到數(shù)字技術(shù)和人工智能的普及),甚至是徹底失敗。
三、直面人機(jī)系統(tǒng)生態(tài):從具身認(rèn)知到開放性網(wǎng)絡(luò)
美國(guó)計(jì)算機(jī)應(yīng)用專家戴維·波爾特在《圖靈人:計(jì)算機(jī)時(shí)代的西方文化》一書中以“圖靈人”的具身化比喻,將計(jì)算機(jī)的工具理性原則所塑造的技術(shù)無(wú)意識(shí)的社會(huì)化和個(gè)人化生動(dòng)地表達(dá)了出來(lái)?!皥D靈人暗示人與信息、工作、權(quán)力和自然的關(guān)系……計(jì)算機(jī)把人界定為‘信息處理器’,把自然定義為信息處理的對(duì)象”。整個(gè)世界的加速數(shù)字化(然而卻并不均衡)使得數(shù)字技術(shù)形成了一種連續(xù)性的基礎(chǔ),將一切人、機(jī)器、制度整合進(jìn)了“萬(wàn)物互聯(lián)”之中,以至于不但很難再將屬于數(shù)字技術(shù)的工具理性和衡量標(biāo)準(zhǔn)從事物中剝離出來(lái),甚至連認(rèn)知都受到了新的知識(shí)生產(chǎn)范式的影響。紛繁復(fù)雜的世界以一種追求確定性的方式被某種形式上的一致性所連綴,它仿佛陀思妥耶夫斯基筆下的由鋼鐵和玻璃建造起來(lái)的巨大的、無(wú)縫籠罩的水晶宮,透明奪目,令人驚嘆,將一切的復(fù)雜性都吸收到自己的內(nèi)部,賦予其中的一切以抽象且勻質(zhì)的合法性。只不過(guò)在今天,這個(gè)數(shù)字化的“水晶宮”的建筑材料是0和1,物理形狀上無(wú)所不包的穹頂則被無(wú)數(shù)的連接所形成的扁平結(jié)構(gòu)所取代。這個(gè)以1862年倫敦萬(wàn)國(guó)博覽會(huì)展館為原型的關(guān)于世界的隱喻,“已經(jīng)為集中的、體驗(yàn)為導(dǎo)向的、大眾化的資本主義(尤其是數(shù)字資本主義——本文作者注)做好了物質(zhì)準(zhǔn)備,廣泛地將外部世界吸收到一個(gè)完全精確計(jì)算的內(nèi)部空間里來(lái)?!木S度足夠大,以至于也許人們根本不用再離開它了”。
人工智能日益廣泛的應(yīng)用,在日常生活領(lǐng)域悄無(wú)聲息地掀起了一場(chǎng)革命,無(wú)數(shù)的在線服務(wù)和應(yīng)用程序?qū)⑻幱诓煌貐^(qū)的人類基本活動(dòng)的每一個(gè)細(xì)節(jié)聯(lián)系起來(lái),不但幾乎所有的社會(huì)關(guān)系被在線技術(shù)重構(gòu),而且同時(shí)伴隨的還有一些關(guān)系的消亡和另一些新型關(guān)系的形成。作為數(shù)字實(shí)體運(yùn)營(yíng)的網(wǎng)絡(luò)平臺(tái)擁有的活躍用戶數(shù)量有可能超過(guò)很多國(guó)家的人口。然而,與這種技術(shù)上的連續(xù)性形成鮮明對(duì)照的是,觀點(diǎn)、價(jià)值、立場(chǎng)的多元化和沖突也更加以顯性的方式得到展現(xiàn),它們甚至超越了前數(shù)字時(shí)代的地緣界限?!熬奂诹餍芯W(wǎng)絡(luò)平臺(tái)上的大量用戶群體比政治地理意義上的群體邊界更為分散,而且網(wǎng)絡(luò)平臺(tái)運(yùn)營(yíng)主體的利益可能與國(guó)家利益產(chǎn)生分歧”。人工智能裝置的出現(xiàn)只是在已經(jīng)足夠復(fù)雜的多元化和沖突之間增加了一些新的維度而已,技術(shù)的連續(xù)性從來(lái)就不是也不可能是價(jià)值一致性的形式保證。
盡管數(shù)字理性本身具有基于技術(shù)特征而呈現(xiàn)出來(lái)的共性,但它和復(fù)雜的人類價(jià)值體系仍然處于不對(duì)稱的狀態(tài),因此,希望對(duì)人工智能實(shí)現(xiàn)基于技術(shù)連續(xù)性的價(jià)值一致性改造本身是難以實(shí)現(xiàn)的。這涉及人工道德的想象和設(shè)計(jì)的問(wèn)題。即便是在激進(jìn)科幻小說(shuō)中,建立一種普遍性的人工道德不但是難以令人信服的,也是在倫理上被詬病的。僅有的實(shí)踐性嘗試也只限于在電子游戲和特定的虛擬現(xiàn)實(shí)中,因?yàn)檫@兩者的設(shè)置都是抽離了一切復(fù)雜性的環(huán)境簡(jiǎn)化,并且也不需要隨著環(huán)境的改變做出判斷適應(yīng)。但真實(shí)的數(shù)字環(huán)境哪怕是在最基本的條件下也必須處理諸如有偏見(jiàn)的數(shù)據(jù)、算法不透明以及獎(jiǎng)勵(lì)功能無(wú)法表征復(fù)雜的倫理規(guī)范等問(wèn)題。即便有學(xué)者提出以強(qiáng)化反饋學(xué)習(xí)的機(jī)制、允許機(jī)器通過(guò)觀察人類的實(shí)際行為來(lái)內(nèi)化偏好模式從而采取行動(dòng)的方式,也依舊不能打破以偏概全的數(shù)據(jù)鴻溝。事實(shí)上,價(jià)值對(duì)齊所暗含的人類中心主義價(jià)值觀早在生態(tài)主義理論中就引起了相當(dāng)大的爭(zhēng)議,環(huán)境倫理學(xué)家區(qū)分了以人類為中心的觀點(diǎn)和以生態(tài)系統(tǒng)為中心的觀點(diǎn)之間的差別。因此,相當(dāng)多反對(duì)價(jià)值對(duì)齊的研究者對(duì)于人工智能實(shí)現(xiàn)對(duì)齊(姑且不考慮技術(shù)上的現(xiàn)實(shí)性)之后是否會(huì)造成生態(tài)災(zāi)難表示擔(dān)憂。
和基于數(shù)據(jù)科學(xué)的人工智能技術(shù)的連續(xù)性不同,價(jià)值的不連續(xù)性來(lái)源于其自身的特征,從本質(zhì)上來(lái)說(shuō)它并不是一套精確的規(guī)則和條件判斷,而更像是一個(gè)具有彈性的語(yǔ)法體系,其中包含了很多從歷史文化信仰體系中獲得的內(nèi)化性原則,包括但不限于文化傾向、歷史習(xí)俗、社會(huì)信念、群體觀念、政治意識(shí)形態(tài)、地域、宗教、種族、性別甚至職業(yè)身份等多重元素。目前大多數(shù)科創(chuàng)企業(yè)所采取的通過(guò)強(qiáng)調(diào)匹配不同算法特征及其治理需求的分類治理框架來(lái)實(shí)現(xiàn)價(jià)值對(duì)齊的方式,體現(xiàn)為應(yīng)用環(huán)境通過(guò)對(duì)輸入變量賦值進(jìn)而對(duì)輸出結(jié)果產(chǎn)生影響,如對(duì)生成式人工智能進(jìn)行預(yù)訓(xùn)練后的模型微調(diào)就屬于此類。這種思路由設(shè)計(jì)者將被預(yù)設(shè)為普遍性的價(jià)值原則嵌入智能自治系統(tǒng)中以形成特定的概念空間,然后根據(jù)場(chǎng)景調(diào)用。于是,下游應(yīng)用中的相關(guān)符號(hào)被賦值,并納入與該價(jià)值原則相關(guān)的關(guān)系之中。這就是為什么“輸出一個(gè)白人家庭”的要求會(huì)被Gemini拒絕,“白人”作為敏感符號(hào)被賦值與種族主義立場(chǎng)相關(guān),而有色人種的要求則不會(huì)。這種“價(jià)值屬性”其實(shí)并不是人工智能對(duì)人類價(jià)值觀的理解,只是出于算法編寫者的設(shè)計(jì)。從這個(gè)意義上說(shuō),價(jià)值對(duì)齊的敘事編織從根本上說(shuō)并不反映被假想出來(lái)的人機(jī)差異,而是關(guān)乎人工智能設(shè)計(jì)和算法治理的問(wèn)題,更簡(jiǎn)單地說(shuō),它是一個(gè)具有自主性的智能體應(yīng)不應(yīng)該,以及如何設(shè)計(jì)的問(wèn)題。
反觀人類自身的基于道德判斷的行為,就會(huì)發(fā)現(xiàn),具身認(rèn)知和知覺(jué)能力是形成完整價(jià)值判斷的基礎(chǔ)。因?yàn)榫呱碚J(rèn)知是有機(jī)體適應(yīng)環(huán)境、對(duì)多種感覺(jué)刺激進(jìn)行辨別并形成綜合理解的活動(dòng),在此基礎(chǔ)上形成的情感、道德和價(jià)值判斷以及相應(yīng)的行動(dòng)和具身認(rèn)知,是不可分離的。這種具身主義的觀點(diǎn)對(duì)認(rèn)知主義是一種否定。后者相信,人類的心智實(shí)際上是一種特殊的信息處理系統(tǒng),可以理解為根據(jù)某些特定的邏輯規(guī)則或者某種形式的數(shù)理算法對(duì)于無(wú)意義的抽象符號(hào)所進(jìn)行的計(jì)算;而具身主義則強(qiáng)調(diào)了身體及其感官系統(tǒng)的重要性,認(rèn)為它們的特殊體驗(yàn)造成了認(rèn)知和情感-價(jià)值判斷的差異。
對(duì)此的一個(gè)佐證是對(duì)一些基于誤判而出現(xiàn)的機(jī)器人事故的解讀。各國(guó)都曾出現(xiàn)過(guò)機(jī)器人因?qū)⑷梭w誤判為作業(yè)對(duì)象而使其致殘或致死的事故。這是“回形針假設(shè)”的現(xiàn)實(shí)版。究其原因,機(jī)器只根據(jù)預(yù)先的算法設(shè)計(jì)行事,而不是根據(jù)傳感裝置獲得的對(duì)象的特殊信息進(jìn)行判斷。后者正是智能認(rèn)知具身化的要求。事實(shí)上,早在1986年,布魯克斯已經(jīng)從控制論角度出發(fā),強(qiáng)調(diào)智能是具身化和情境化的,他認(rèn)為傳統(tǒng)以信息表征為核心的經(jīng)典AI進(jìn)化路徑是錯(cuò)誤的,而要消除表征的局限性,就要制造基于行為獲取信息的機(jī)器人。蘇黎世大學(xué)人工智能實(shí)驗(yàn)室前主任羅爾夫·普菲弗與加拿大佛蒙特大學(xué)的喬?!ぐ罴拥聞t在合著的《身體的智能:智能科學(xué)新視角》一書中進(jìn)一步提出,智能行為可以通過(guò)加強(qiáng)智能體的“身體”與外部環(huán)境交互的方式實(shí)現(xiàn)新的學(xué)習(xí)反饋機(jī)制,從而形成更能應(yīng)對(duì)世界復(fù)雜性的智能。而在業(yè)界方面,英偉達(dá)創(chuàng)始人黃仁勛就曾在2023年表示,具身智能是能理解、推理,并與物理世界互動(dòng)的智能系統(tǒng),是人工智能的下一個(gè)浪潮。
從根本上而言,具身智能就是讓人工智能獲得“身體”——它不是指形式上的身體,而是具備感性經(jīng)驗(yàn)獲得能力的身體。正如人類的認(rèn)知是基于對(duì)感官所獲得的信息進(jìn)行加工的過(guò)程一樣,具身智能的發(fā)展思路是試圖幫助人工智能從對(duì)情境的實(shí)時(shí)交互中形成符號(hào)理解的過(guò)程,它是將認(rèn)知置于環(huán)境中,形成連續(xù)的進(jìn)化響應(yīng)的過(guò)程。簡(jiǎn)單地講,具身人工智能將不再像傳統(tǒng)人工智能那樣對(duì)相關(guān)條件和行為進(jìn)行對(duì)應(yīng)反應(yīng),而是和人類理解世界的方式類似,通過(guò)傳感設(shè)備獲得的第一手環(huán)境信息(聲音、影像、觸覺(jué)、溫度甚至表情等),建立起實(shí)時(shí)、動(dòng)態(tài)的完整符號(hào)模型。其認(rèn)知和理解不再是“離線”式的,而是滿足時(shí)間壓力的持續(xù)交互狀態(tài)。這種心智仿真結(jié)構(gòu)所形成的智能體將是一個(gè)與情境不可分離的開放網(wǎng)絡(luò)。
這和現(xiàn)有的認(rèn)知型智能體的發(fā)展路徑完全相悖。無(wú)論是OpenAI的GPT和Sora,還是谷歌的Gemini、Gemma,即便是所謂的多模態(tài)大模型,也主要基于對(duì)去語(yǔ)境化的信息建構(gòu)起來(lái)的符號(hào)系統(tǒng)的處理。該路徑的理論根據(jù)在于,歐美中心主義認(rèn)為數(shù)字信息比與具體語(yǔ)境相關(guān)的模擬信息更重要。雖然人類對(duì)于人工智能的價(jià)值/道德/期待在很大程度上是“因?yàn)槲覀兞?xí)慣于將倫理與類人的外觀和類人的通過(guò)語(yǔ)音的交互聯(lián)系在一起,而所有這些實(shí)際都應(yīng)該歸功于良好的設(shè)計(jì)和熟練的編程”。這種信息實(shí)體論不但改變了人們對(duì)現(xiàn)實(shí)的看法,而且在人工智能技術(shù)的發(fā)展上更重視人類已有經(jīng)驗(yàn)文本——文字、影像、圖表等,而忽視了具身智能的交互性發(fā)展。生成式人工智能和大模型技術(shù)所依賴的數(shù)據(jù)集來(lái)源的結(jié)構(gòu)性問(wèn)題正是這一智能發(fā)展方向無(wú)法克服的一個(gè)弊端。即便是已有的多模態(tài)大模型擴(kuò)大了來(lái)源文本的類型,但依舊沒(méi)有使問(wèn)題變得好轉(zhuǎn),因?yàn)椴煌奈谋旧a(chǎn)技術(shù)的發(fā)展水平在世界范圍內(nèi)并不均衡,同時(shí)也會(huì)產(chǎn)生不同的意義模式,當(dāng)其被去語(yǔ)境化為普遍符號(hào)的時(shí)候,就已經(jīng)改變了其被生產(chǎn)出來(lái)時(shí)與真實(shí)生活的距離。有事實(shí)表明,部分?jǐn)?shù)據(jù)在訓(xùn)練一段時(shí)間后可能已經(jīng)破壞了大模型的表征,并且,大模型的技術(shù)邏輯會(huì)導(dǎo)致數(shù)據(jù)離散度變小,從而產(chǎn)生認(rèn)知中心化乃至模型崩潰的結(jié)果。它也是其發(fā)展的頑疾之一,它有可能導(dǎo)致價(jià)值極化的出現(xiàn)。
一些國(guó)際機(jī)構(gòu)已經(jīng)發(fā)布了政策,試圖明確人工智能系統(tǒng)在設(shè)計(jì)時(shí)應(yīng)遵守的倫理原則。例如,歐盟已經(jīng)確定了關(guān)于使用人工智能的四項(xiàng)道德原則:無(wú)惡意、尊重自主權(quán)、算法公平和透明性。美國(guó)白宮科學(xué)技術(shù)辦公室提出的原則略有不同,其中特別強(qiáng)調(diào)了人類有選擇不與人工智能互動(dòng)的權(quán)利,這一點(diǎn)其實(shí)是對(duì)自主權(quán)內(nèi)涵的進(jìn)一步擴(kuò)大,也是對(duì)人類個(gè)體的獨(dú)特性和自治性的保護(hù),即人類有權(quán)決定不受人工智能的影響而采取符合自己判斷的自主行動(dòng)。從這個(gè)意義上來(lái)講,通過(guò)施加對(duì)人工智能的價(jià)值對(duì)齊進(jìn)而將設(shè)計(jì)的倫理原則施加于人類社會(huì)的做法,本身就是價(jià)值殖民的一種改版。這一結(jié)論并不夸張。從技術(shù)實(shí)踐的層面來(lái)看,能夠有效地在現(xiàn)有大模型中推進(jìn)價(jià)值嵌入和價(jià)值對(duì)齊的,通常都是在技術(shù)、數(shù)據(jù)和算力上占據(jù)優(yōu)勢(shì)的大型科技公司,OpenAI、谷歌的DeepMind之前都建立了專注于解決價(jià)值對(duì)齊問(wèn)題的團(tuán)隊(duì)(然而,前者剛剛宣布對(duì)其予以解散,后者的成效還需要進(jìn)一步驗(yàn)證)??紤]已開發(fā)的人工智能的應(yīng)用廣度和深度,技術(shù)決定論似乎又一次在價(jià)值領(lǐng)域以一種奇異的姿態(tài)發(fā)揮了作用,它使得頭部從業(yè)者不但可以主導(dǎo)市場(chǎng),甚至可以主導(dǎo)人類社會(huì)?,F(xiàn)實(shí)有可能變成:誰(shuí)掌握了最先進(jìn)/應(yīng)用最廣的人工智能,誰(shuí)就擁有了實(shí)現(xiàn)價(jià)值對(duì)齊的權(quán)力,誰(shuí)也就擁有了界定人類價(jià)值和人類普遍利益的權(quán)力。從而,結(jié)果有可能是,人工智能技術(shù)的掌握者不但以特定的價(jià)值實(shí)現(xiàn)了對(duì)AI的“對(duì)齊”,而且更以后者的無(wú)所不在、以技術(shù)無(wú)意識(shí)的方式實(shí)現(xiàn)對(duì)人類群體的普遍性對(duì)齊。這種價(jià)值觀的擴(kuò)展方式是歷史上任何政治文化方案都無(wú)法實(shí)現(xiàn)的。
OpenAI超級(jí)對(duì)齊團(tuán)隊(duì)的解散為價(jià)值對(duì)齊問(wèn)題的解決提供了另外一種思路:與其著眼于現(xiàn)有大模型的價(jià)值對(duì)齊,既需要面對(duì)價(jià)值本身的復(fù)雜性及其與人工智能性能的張力問(wèn)題,還需要面對(duì)下游風(fēng)險(xiǎn)加劇的問(wèn)題,不如專注于AI更多的可能性與開放式人機(jī)生態(tài)體系的打造,通過(guò)有效的人機(jī)交互與環(huán)境感知,鼓勵(lì)開發(fā)與人類處于更廣泛的目的分享和責(zé)任分擔(dān)的人工智能。吳冠軍在分析Midjourney的風(fēng)險(xiǎn)防控時(shí),也談到:“過(guò)濾”的非持續(xù)有效性,可以通過(guò)互動(dòng)機(jī)制改善識(shí)別——“在互動(dòng)過(guò)程中,我們需要探尋可能存在的突破點(diǎn)或‘短路’機(jī)制,識(shí)別用于切入并可能導(dǎo)致系統(tǒng)無(wú)法完全過(guò)濾此類信息的入口。這揭示了世界的復(fù)雜性和趣味性。”于2023年9月成立的法國(guó)生成式人工智能委員會(huì)在2024年3月向政府提交的新時(shí)期法國(guó)人工智能發(fā)展建議報(bào)告中特別提到,開放性是人工智能發(fā)展的基礎(chǔ)。報(bào)告指出必須從技術(shù)開發(fā)和市場(chǎng)開放兩方面預(yù)防所可能導(dǎo)致的集中化風(fēng)險(xiǎn),支持多元主體之間的競(jìng)爭(zhēng)。無(wú)論是應(yīng)對(duì)人類社會(huì)的復(fù)雜性,還是防范由技術(shù)所導(dǎo)致的任何形式壟斷,開放性都是極為核心的一個(gè)維度。這就如同拉圖爾所強(qiáng)調(diào)的行動(dòng)者穿梭于其間的“網(wǎng)絡(luò)”概念,而人工智能也正是這些行動(dòng)者之一。
結(jié)語(yǔ)
在技術(shù)的原初設(shè)定中,價(jià)值對(duì)齊作為一種人工智能治理方法,彰顯的是技術(shù)設(shè)計(jì)者企圖通過(guò)人類價(jià)值嵌入機(jī)器體系的方式獲得更加可靠的人工智能產(chǎn)品的信心。然而,在面對(duì)技術(shù)-社會(huì)的復(fù)雜互動(dòng)關(guān)系時(shí),價(jià)值對(duì)齊卻無(wú)法真正有效付諸實(shí)踐。一方面,潛藏于價(jià)值對(duì)齊背后的人類中心主義的控制幻想假設(shè)了一種以人類現(xiàn)有道德水平和認(rèn)知為基準(zhǔn)的整體性解決方案,堅(jiān)信人類所形成的價(jià)值體系和原則足以為人工智能技術(shù)的發(fā)展植入更好的目標(biāo)和原則。這無(wú)疑是一種人類在面對(duì)人工智能時(shí)的“造物主式”的傲慢。另一方面,圍繞著價(jià)值觀差異所引發(fā)的沖突、斗爭(zhēng)等長(zhǎng)久地存在于人類社會(huì)發(fā)展始終,歷史性和多元性構(gòu)成了價(jià)值觀本身的特質(zhì)。那么,在面對(duì)人工智能的治理問(wèn)題時(shí),人類何以能夠空前地達(dá)成一種價(jià)值觀念上的統(tǒng)一并將其附加于人工智能之中?如若不能,一種更加危險(xiǎn)的趨勢(shì)或許正醞釀?dòng)趦r(jià)值對(duì)齊的設(shè)計(jì)之中:人工智能技術(shù)的掌握者是否會(huì)以特定的價(jià)值實(shí)現(xiàn)對(duì)AI的“對(duì)齊”,進(jìn)而誘使無(wú)所不在的人工智能產(chǎn)品以技術(shù)無(wú)意識(shí)的方式實(shí)現(xiàn)對(duì)人類群體的普遍性對(duì)齊?
因此,人工智能的價(jià)值對(duì)齊問(wèn)題從本質(zhì)上來(lái)說(shuō),既涉及對(duì)智能應(yīng)用過(guò)程中出現(xiàn)的問(wèn)題和風(fēng)險(xiǎn)的評(píng)估,也涉及對(duì)所謂“人類價(jià)值原則”及其規(guī)范可能的理解。后者至今仍然停留在爭(zhēng)議之中,而前者則是整個(gè)社會(huì)的智能化轉(zhuǎn)型所面對(duì)的挑戰(zhàn)。今天,簡(jiǎn)單化的人機(jī)關(guān)系理解模式已經(jīng)無(wú)法理解泛在的人工智能對(duì)人類社會(huì)的整體性重塑,在現(xiàn)有實(shí)踐和未來(lái)趨勢(shì)中,人機(jī)協(xié)作智能是進(jìn)一步回答“人類如何面對(duì)人工智能時(shí)代到來(lái)”問(wèn)題的基礎(chǔ)性認(rèn)識(shí)。人類智能和人工智能具有不同的特點(diǎn)和優(yōu)勢(shì),這也就意味著人機(jī)協(xié)作和融合在不同的程度和場(chǎng)景中可以有個(gè)性化的應(yīng)用。與單純強(qiáng)調(diào)人工智能的超越性相比,協(xié)作智能的類型和開放性具有更廣闊的前景和潛力。重新連通效率與公平、性能與價(jià)值、情境性與普遍性、全球性與地方性,這也是后人類知識(shí)圖譜生成的方式之一。
參考文獻(xiàn)
[1][加]威廉·萊斯.自然的控制[M].岳長(zhǎng)齡,譯.重慶:重慶出版社,)1996:6.
[2][法]布魯諾·拉圖爾.我們從未現(xiàn)代過(guò):對(duì)稱性人類學(xué)論集[M].劉鵬,安涅思,譯.上海:上海文藝出版社,)2022.
[3][德]烏爾里希·貝克.風(fēng)險(xiǎn)社會(huì)——新的現(xiàn)代性之路[M].張文杰,何博聞,譯.上海:譯林出版社,2021:23.
[4][美]朱迪斯·巴特勒.身體之重:論“性別”的話語(yǔ)界限[M].李軍鵬,譯.上海:上海三聯(lián)書店,2011:10.
[5]賈開,)趙靜.技術(shù)嵌入、價(jià)值傾向與算法分類治理[J].經(jīng)濟(jì)社會(huì)體制比較,)2023(4):101-111.
[6]劉永謀.技術(shù)治理通論[M].北京:北京大學(xué)出版社,2023:579.
[7]郭全中,)張金熠.AI向善:AI大模型價(jià)值觀對(duì)齊的內(nèi)容與實(shí)踐[J].新聞愛(ài)好者,)2023(11):19-24.
[8][印]阿卡普拉沃·包米克.機(jī)器意識(shí)[M].王兆天, 李曄卓,譯.北京:機(jī)械工業(yè)出版社,2023.
[9]Ratoff William. Can the predictive processing model of the mind ameliorate the value-alignmen tproblem? [J]. Ethics and information technology,)2021,)23 (4): 739-50.
[10][美]尼爾·波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:中信出版集團(tuán),2019:121.
[11][德]彼德·斯洛特戴克.資本的內(nèi)部[M].北京:社會(huì)科學(xué)文獻(xiàn)出版社,)2014:275.
[12][美]亨利·基辛格,)埃里克·施密特,)丹尼爾·胡滕洛赫爾.人工智能時(shí)代與人類未來(lái)[M].胡利平,風(fēng)君,譯.北京:中信出版集團(tuán),2023:117.
[13]James Gips. Towards the ethical robot[M]∥Android epistemology. Cambridge,) MA:MIT Press,) 1994:284.
[14]吳冠軍.從Midjourney到Sora:生成式AI與美學(xué)革命[J].閱江學(xué)刊,)2024(3):85-92.
【本文原載于《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2024年第5期,澎湃新聞經(jīng)授權(quán)轉(zhuǎn)載】