注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁新聞資訊文化

應用倫理學探究:人工智能倫理前沿問題

由華東師范大學哲學系應用倫理中心發(fā)起的應用倫理工作坊第1期聚焦倫理視野下的老年關懷問題,圍繞老年人的尊嚴、權(quán)利、脆弱性、能動性等問題展開研討。

由華東師范大學哲學系應用倫理中心發(fā)起的應用倫理工作坊第1期聚焦倫理視野下的老年關懷問題,圍繞老年人的尊嚴、權(quán)利、脆弱性、能動性等問題展開研討。這些討論在促進學科之間、學科與行業(yè)的對話與融合的同時,也推動了倫理學研究范式的轉(zhuǎn)變。

繼第1期熱烈的討論之后,2023年11月9日,應用倫理學工作坊第2期以“人工智能倫理前沿問題”為主題,于華東師范大學馮契學術成就陳列室舉行。來自浙江大學、同濟大學、華東師范大學、南京信息工程大學的教授就人工智能的倫理審查、倫理準則、“黑箱”隱喻、多智能主體倫理以及人機關系倫理等問題展開研討。研討內(nèi)容既反思了人工智能倫理審查的現(xiàn)狀,也構(gòu)想了人機關系的未來倫理圖景,期待為人工智能領域高校研究人員的研究工作提供來自倫理學的思考與建議。

工作坊合影


一、人工智能倫理審查的現(xiàn)狀與挑戰(zhàn)

隨著新一輪科技革命和產(chǎn)業(yè)革新進程加速演進,工業(yè)4.0時代,尤其是ChatGPT等現(xiàn)象級人工智能產(chǎn)品的出現(xiàn)深刻影響著每個人。然而隨之產(chǎn)生的倫理問題也成為了全人類所面臨的共同挑戰(zhàn)。由此,同濟大學人文學院杜嚴勇教授從人工智能倫理審查的現(xiàn)狀、挑戰(zhàn)與困境、解決路徑三方面展開報告。

第一個方面,人工智能倫理審查的現(xiàn)狀。首先,根據(jù)中國在2021年9月發(fā)布的《新一代人工智能倫理規(guī)范》和今年9月發(fā)布的《科技倫理審查辦法(試行)》為例,說明目前國家已將人工智能倫理審查納入重點工作。然而,杜嚴勇觀察到,目前人工智能倫理審查的工作主要集中于醫(yī)學領域,但卻仍沿用傳統(tǒng)的生命科學領域倫理標準,缺少對人工智能領域提出新的審查標準和程序。其次,在學術會議方面,一些國際性的學術會議已要求作者在提交論文的同時要補充一個附件以說明此研究可能產(chǎn)生的社會影響。最后,在科技企業(yè)的倫理審查方面,近年,谷歌、微軟等眾多科技巨頭企業(yè)都成立了倫理委員會,但有些僅為“曇花一現(xiàn)”。杜嚴勇推測盡管企業(yè)倫理委員會運行情況并不如科研機構(gòu)成功,但至少很多中外企業(yè)都在形式上表現(xiàn)出了對倫理審查的重視。然而,基本上沒有企業(yè)將自己的倫理審查細致的規(guī)定如審查程序、內(nèi)容和運作方式公之于眾。

第二個方面,人工智能倫理審查的挑戰(zhàn)與困境。首先,科研人員整體上并不重視倫理審查。一些科研人員對倫理審查重要性的認識不足,把倫理審查當作科學研究的“緊箍咒”,認為倫理審查可能阻礙其科研創(chuàng)新。其次,目前高校倫理委員會建設遠遠不夠,而且具有人工智能特色的倫理審查程序與標準還不夠成熟。最后,倫理審查人員的專業(yè)素質(zhì)亟待提高,目前倫理審查人員以兼職為主,專業(yè)的教育和培訓較少。倫理審查人員一方面需要了解技術的飛速發(fā)展,另一方面要對新興技術可能帶來的社會成果有充分的警覺,這對他們提出了較高的要求。

第三個方面是人工智能倫理審查的解決路徑。杜嚴勇認為,重點還是加強科研人員的倫理培訓,提高其倫理意識和科技倫理素養(yǎng);通過學術組織提高、凝聚對倫理審查的共識,擴大倫理審查的范圍;完善制度體系,推動機構(gòu)審查,建立重視倫理審查的激勵機制。

杜嚴勇教授的主題匯報結(jié)束后,華東師范大學哲學系顏青山教授結(jié)合自己曾參與過的生命科學倫理審查經(jīng)歷,談了幾點看法:首先,醫(yī)學與生命科學出于政策和期刊會議的硬性要求,的確在倫理審查方面更加成熟。但由于人工智能本身存在難以預測性,對人工智能的倫理審查只能從結(jié)果出發(fā),這就要求倫理審查是長期且一貫的。其次,對待人工智能的倫理審查應該適當寬松并建立在“公共善”的原則之上,才能支持科學家的“求知”活動的內(nèi)在價值,另外,顏青山教授認為在各高校、科研機構(gòu)設立人工智能倫理委員會的同時,國家層面應該設立更大的審查機構(gòu),他用“賀建奎基因編輯嬰兒”案例來指出對那些影響特別重大的科研倫理問題,應該由國家層面的科技倫理委員會來跟蹤審查,以起預警作用。最后,顏青山教授建議審查委員會不一定要急于開展倫理審查,可以先做倫理觀察,即定期與科研人員討論、收集問題,再交由倫理委員會及時跟進,這樣能最大限度地在確保倫理安全的同時保障科學研究的有序開展。

二、人工智能“以人為本”的倫理準則反思

浙江大學馬克思主義學院潘恩榮教授從日益緊密的人機關系入手,批判性地考察“以人為本”的倫理準則。在潘教授看來,“以人為本”已經(jīng)成為了人工智能倫理準則的高頻關鍵詞,但人工智能作為人類的工具,在某些方面的能力遠超人類,因而是“超人”實體,但是“以人為本”卻內(nèi)含著“以凡人為本”,潘教授提出疑問:在“人與機”關系中,“超人”的(人工智能)機器可能“以(凡)人為中心”嗎?

潘教授回顧并梳理了從啟蒙運用以來,西方世界所確立的人作為有尊嚴的、有理性的自然主體地位,這催生了“以人為本”的倫理準則。但西方世界的“以人為本”的倫理準則不僅承襲了“西方中心論”思想和“個人自由主義”思想,還進一步表達了人類與人工智能之間的某種“人類種族中心主義”情緒。據(jù)此,潘教授敏銳地指出西方社會提倡的人工智能“以人為本”倫理準則存在兩方面的局限,其一是邏輯性悖論。西方社會力圖用倫理準則規(guī)范人工智能,但由于人工智能的“超人”特征,這可能導致撼動甚至顛覆人機關系之間的主仆地位,因而西方社會提出和倡導的人工智能倫理準則將走向自我否定。其二是人性漏洞。從“理性經(jīng)濟人”角度看,人類可以冒風險接受人工智能機器出現(xiàn)“主奴互換”?;谫Y本邏輯發(fā)明和使用人工智能容易走向極端,進而引發(fā)一些不可逆的社會事件。潘教授提到的一種極端情況是,在高利潤空間的誘惑下,“理性經(jīng)濟人”就敢冒“與魔鬼做交易”的風險接受“主奴互換”式的機器換人,不惜讓人工智能主宰人類命運,例如波音737MAX 墜機案例。另外一種極端情況是,“理性經(jīng)濟人”不斷地成功實施“機器換人”,最后走向人工智能大工業(yè)。但由此可能造成人類社會的分化甚至瓦解。

基于以上的分析,西方社會人工智能“以人為本”倫理準則的兩個局限之間的關系是“人工智能本身與人工智能資本主義應用”的關系。但從馬克思的思想角度看,上述關系本質(zhì)上是“機器與機器的資本主義應用”之間的關系在人工智能維度的再現(xiàn)。那么,基于馬克思的思想,潘教授認為有三條路徑能夠應對西方社會人工智能“以人為本”倫理準則的兩個局限。

首先,根據(jù)社會存在決定社會意識的歷史唯物主義的基本原理,“以人為本”倫理準則及其實踐的范圍只能是“弱人工智能”。因此,社會現(xiàn)實是當前及未來相當長的一段時間內(nèi),人工智能只是“弱人工智能”而非“強人工智能”。那么,邏輯性悖論前半部分關于“強人工智能”的擔憂,是沒有社會現(xiàn)實基礎的虛假的社會意識,雖然有意義但不是當前人工智能“以人為本”倫理準則應該做的事情。其次,根據(jù)人的自由而全面發(fā)展思想,人工智能“以人為本”倫理準則及其實踐歡迎具備倫理能力的人工智能。在當前人工智能大規(guī)模社會應用的背景下,關注“現(xiàn)實的人”不能僅僅發(fā)展人與機器的關系以實現(xiàn)資本增殖和擴大再生產(chǎn),還要發(fā)展并全面發(fā)展人與人、人與機、機與機之間的關系。這既能發(fā)揮掌控人工智能的人類群體的個人追求,又有利于公眾共享人工智能發(fā)展帶來的機遇和福利。最后,根據(jù)辯證發(fā)展思想,人工智能“以人為本”倫理準則及其實踐需要合情合理地使用人性特點,治標的方式是合情合理地驅(qū)使人性特點發(fā)明和使用人工智能,治本的方式是“重構(gòu)個人所有制”,從根本上消除人工智能社會大生產(chǎn)與個人私有制之間的張力。

華東師范大學哲學系何靜教授認為潘教授提出的“弱人工智能本質(zhì)上還是工具,但是‘以人為本’的思路已經(jīng)不足以滿足我們對人工智能的理解”極具啟發(fā)性。她由此提出幾個問題:其一,人工智能究竟被看作是工具還是主體,仍然是我們理解人機關系的關鍵。盡管人和機的智能有相同之處,但人工智能和人類意識到底有什么區(qū)別?其二,腦機接口的技術,雖然是主要用來治愈,但是往往有“增強”的效果。盡管這非初衷,但卻是必須解決的副產(chǎn)品,我們在區(qū)分治療和增強的邊界問題上仍道阻且長;其三,人工智能具有倫理能力的表述,可以從兩個層面進行問題構(gòu)建:一個是我們把他們當成工具的時候,考慮到人工智能的限制并非往往順從我們心意,那么我們到底需不需要人工智能的倫理能力,另一個是人工智能需不需要以自我意識作為基礎?否則,我們?nèi)绾谓缍ㄋ袀惱砟芰Γ?/p>

三、基于可解釋性的人工智能倫理考量

華東師范大學哲學系潘斌教授的匯報由黑箱隱喻引出了可解釋性的問題,進一步指出透明性概念的梳理并由此得到“有限透明性”的倫理原則,最終將“不透明的透明性”作為未來智能時代的認知常態(tài)。

潘斌教授從控制論的經(jīng)典問題——黑箱問題談起。在封閉狀態(tài)的黑箱盒子內(nèi)部,它并不需要完全被認知與理解,僅僅只需要在輸入端和輸出端建立因果關系就能實現(xiàn)認知目的。相應地,白箱就是完全了解內(nèi)部運作結(jié)構(gòu),而灰箱是確定性與不確定的中間態(tài)。黑箱隱喻將認知過程簡化為“刺激-反饋”模式,忽視了認知過程的復雜性。黑箱模式的首要作用就是通過簡單的模式理解復雜的事物,其次它也發(fā)揮了“無知之幕”的效應。就認識論層面而言,黑箱效應實則是犧牲了“透明性”原則而實現(xiàn)了高效運作的目的。

基于受眾的視角而言,潘斌教授提出了黑箱問題中所蘊含的可解釋性維度。首先,可解釋性與可理解性有著本質(zhì)區(qū)別。可理解性指的是原始模型和源代碼是可以理解的,而可解釋性指的是在人類與模型之間搭建一個認知界面,目的是保證人類與智能模型能在某一界面實現(xiàn)被理解。本質(zhì)而言,黑箱隱喻是人工智能不可消解的內(nèi)在特性,隨著智能化進程的深化與加速,由不透明性問題所引發(fā)的風險愈加深刻,亟需從倫理審查的視角進行反思。

在此基礎上,潘斌教授認為透明性問題是穿透黑箱隱喻的關鍵所在。從概念起源上而言,“透明性”概念既有其心理學淵源,也在建筑學、繪畫中有顯著運用。根據(jù)以上的闡述,潘斌教授總結(jié)了三條有限透明性的基本倫理原則:其一是責任原則是捍衛(wèi)智能系統(tǒng)透明性要求的底線倫理;其二是境遇倫理是理解智能系統(tǒng)透明性問題的倫理智慧;其三是積極倫理是在智能時代重建信任的倫理突圍。最后,潘斌教授提出不透明性的透明性是未來世代的認知常態(tài)。

基于潘斌教授的分享,華東師范大學哲學系張容南教授問道,潘教授所說的不透明性究竟是技術本身所固有的特性,還是人類的認知能力無法企及所帶來的結(jié)果?缺乏透明性會導致我們無法解釋人工智能技術是如何工作的,反過來讓我們難以信任相關技術給出的結(jié)果。例如在醫(yī)學成像診斷領域,我們可以相信機器給出的判斷嗎?如果造成誤判導致病人的疾病沒有得到及時治療怎么辦?也許更可靠的辦法是人機協(xié)作。如今已經(jīng)有人機合作診斷的案例,機器人可以看到人類專家沒有發(fā)現(xiàn)的內(nèi)容,人類專家也可以通過經(jīng)驗糾正機器人的誤判。

另一個問題關于算法黑箱。算法模型是需要數(shù)據(jù)去訓練的。如果現(xiàn)有的數(shù)據(jù)就是歧視性的,那么靠這些數(shù)據(jù)訓練出來的算法很難是公正的。如何克服算法黑箱以解決人類對公平性的要求呢?黑箱與可控性之間的張力如何解決?這關乎人工智能技術應用的范圍和場景。

針對報告最后所提出了三種倫理原則,但這三種倫理原則之間的邏輯關聯(lián)及其在具體的案例中該如何發(fā)揮倫理作用,以及根據(jù)境遇倫理或積極倫理如何指導多責任主體的責任分配,都是需要進一步加以闡述的內(nèi)容。

四、智能社會的未來

南京信息工程大學馬克思主義學院崔中良副教授以“智能社會的未來:多智能主體倫理的演進及倫理共同體涌現(xiàn)”為主題,以人工智能將會成為智能主體的中心假設為基礎,從智能社會的角度探討多智能主體倫理的演進過程及倫理共同體涌現(xiàn)的可能性問題。

崔中良副教授首先談到了Agent的概念,并以此作為未來智能倫理研究的核心問題。人工智能主體的出現(xiàn)使得傳統(tǒng)倫理主體的核心概念面臨著逐漸被瓦解或被替代的危機。人工智能研究在情感、意識和感知層面的加速推進,使得倫理主體的核心不斷擴大,人機倫理關系從融合到共生演化,從而產(chǎn)生人機之間的倫理共同體。未來共同體社會的特征表現(xiàn)為全局性的倫理特征,以彌補傳統(tǒng)的分布式道德面臨的分配問題,人工智能與人類會深度融合與共同進化。最后,崔中良副教授提出一種假想,即人工智能具有美德,可能具有自我發(fā)展德性的能力。

華東師范大學哲學系郁鋒副教授提出了幾點疑問。首先,全局性的道德模式將會導致道德責任在一個抽象的道德共同體中無法分配,例如,當前在無人駕駛汽車領域大體上仍然采用分布式的道德概念以尋求責任主體的多方平衡,很難在現(xiàn)實中實現(xiàn)一種全局式的道德模型。其次,“Agent”一詞存在著比較多的概念差別,有“道德體”(moral agent)、人工智能道德體等說法,預設了情感和感知層面的道德概念,這些概念之間并不完全處于一個維度。此外,人工智能在感知方面的運算與人類的情感或情緒之間的類比存疑。最后,當前學界在談到人工智能道德體問題時,有自上而下生成式的人機道德以及自下而上的機器與人的價值對齊兩種路徑,但在這兩種思路之外是否還有更好的路徑呢?

崔中良副教授回應道,從全局性道德模型來看,這種區(qū)域的擴展將情境、語境等因素納入綜合考量,這可能會讓我們更加合理地進行道德責任分配。針對人工智能感知是否真實的問題,崔中良副教授指出,傳統(tǒng)的觀點探討的是“有沒有”的問題,但我們目前判斷的層面需要考慮“多與少”的問題。因此,我們應該在“多與少”的問題上給予人工主體一些道德特征。最后,在人機融合的不透明性問題中,一旦人工智能與人融合在一起,可能會存在一些難以解釋的問題,但是其中也存在一些他異性,人所保有的價值核心就是人機區(qū)分的關鍵所在。

五、圓桌討論

在幾位教授的主題研討結(jié)束后,與會的各位老師展開了熱烈的討論。

華東師范大學哲學系付長珍教授指出,當前對人機關系的思考基本從西方傳統(tǒng)中挖掘概念資源。但對于我們中國的設計者和開發(fā)者來說,我們可以考慮的是,是否可以激活不同的情感倫理資源,尤其是儒家的資源,開掘中國傳統(tǒng)倫理智慧與人工智能倫理的關系向度,來幫助我們重新認識人機共生的新型倫理關系,把握當代、關懷人類和面向未來。

華東師范大學哲學系蔡蓁教授提出,很多關于人工智能與人類關系的討論都涉及人工智能系統(tǒng)能否享有道德主體地位。這些討論關涉我們?nèi)绾卫斫獾赖滦袆诱咭约暗赖碌膯栴},即什么樣的道德行動者可以算作道德共同體的成員。畢竟有不同關于“道德”的定義,據(jù)此道德成員的門檻也各不相同,因此,人工智能系統(tǒng)的身份界定根本上關乎如何理解“道德”。

思勉高等人文研究院青年研究員陳海博士認為,付長珍教授從中國傳統(tǒng)倫理思想中尋找資源是一個很獨特的視角,但也提出這里可能存在一個困境,即中國思想中所追求的狀態(tài)對于人工智能來說是很難達到的狀態(tài)。那么,我們在用中國思想指導人工智能倫理的時候,是否會在理想和現(xiàn)實基礎之間存在一些差異?

華東師范大學哲學系主任劉梁劍教授首先對倫理審查的操作表示了濃厚的興趣,他所關心的是倫理審查的具體指標以及倫理審查的具體操作程序是如何進行的,審查官的判斷依據(jù)是什么。其次,關于AI的倫理位置問題,大多數(shù)老師在討論的過程中都將強人工智能作為遠景,那么弱人工智能在多大意義上能夠成為倫理主體?如果我們用自主性來進行區(qū)分,那么自主是否需要劃分不同層次,我們應當以哪個層面來定義機器人的主體地位?此外,付老師提出用中國哲學的話語思考人機倫理的問題,雖然能夠提供新的話語和新的視角,但其困難在于這些話語在分析層面相對較弱,難以形成可操作的規(guī)范,在使用中可能會存在著一定的局限性。

郁鋒副教授認為,我們目前所談到的強AI、弱AI、通用人工智能(AGI),有意識、有知覺、自主的人工智能等這些概念本身的爭議是極大的,其中的界定存在著較大的不清晰。因為一開始我們理解AI就是認為它可以解決問題,但隨著技術的發(fā)展,我們會覺得AI還需要獨立意識。然而,意識問題也是一個比較復雜的獨立問題,比如獨立意識需要有感知嗎?有感知就一定有獨立意識嗎?機器人的迭代升級是否就是有意識?在這些問題之間,很難用一個概念定義另一個概念。

潘恩榮教授認同郁鋒教授提出的概念混用問題。他指出,我們在討論人工智能的時候,存在著太多的知識鴻溝。在人工智能領域,科學家認為人工智能的感知問題已經(jīng)得到解決,因為在他們看來,情感的表征就是計算,這與哲學中討論的概念存在一些信息偏差。因此,我們在通識倫理之外,或許也需要轉(zhuǎn)變思路,建立一套技術本身的倫理,這樣才能與科學家所談論的問題接軌,也是應用倫理學學科真正的意義所在。

張容南教授關于是否給機器人道德定位的問題補充了兩個方向的思路。一是基于傳統(tǒng)思路,看機器是否具有某些人類特征——如理性、感知能力等特征——賦予人工智能道德地位;另一個思路是德性倫理的進路,即我們賦予人工智能道德地位并不依賴于機器是否真正具有人類特征,只要機器以類人的方式與我們互動,我們就應該出于德性的要求對待它。

付長珍教授在總結(jié)時提出,關于概念混用的討論中,概念的有用性也恰恰在于概念的包容性,而哲學探討開掘出的概念空間也許可以為科學研究者提供一些新的面向和思路,擴展科學創(chuàng)新的范圍。

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號