如今人工智能技術(shù)越來越深入我們的生活,表面看上去,這些先進(jìn)技術(shù)都是性別無涉的,不過,為什么在我們呼喚“小愛同學(xué)”或“天貓精靈”等智能音箱時(shí),默認(rèn)響起的都是甜美可人的女聲呢?
如火如荼的“人工智能”的故事的另一面是,在與人工智能密切相關(guān)的大數(shù)據(jù)處理工作中,有大量的“數(shù)據(jù)勞動(dòng)力”在做數(shù)據(jù)清理工作,而往往女性被認(rèn)為更加細(xì)心,更擅長做諸如打標(biāo)簽和檢查數(shù)據(jù)的工作。
南京大學(xué)藝術(shù)學(xué)院的副教授陳靜注意到了這些隱藏在科技背后的性別歧視,她認(rèn)為人工智能依然是人類世界的延伸,我們關(guān)于性別、種族和年齡的歧視不可避免地會(huì)被帶入其中,而對數(shù)據(jù)和科技的迷信,甚至?xí)M(jìn)一步加深和固化這些已有的偏見。
澎湃新聞與陳靜聊了聊一個(gè)人文藝術(shù)學(xué)者眼里的“人工智能”,發(fā)現(xiàn)不只是性別等偏見問題,數(shù)字勞工也是這個(gè)行業(yè)中長期被避而不談的問題,不過,面對當(dāng)前無比強(qiáng)大的技術(shù)邏輯和商業(yè)邏輯,人文學(xué)者的關(guān)懷有用嗎?
以下是陳靜的口述。
陳靜
性別偏見在人工智能中的延伸
你們注意到?jīng)],我們的虛擬形象或者語音助手都是女性居多?為什么?女性一直以來被認(rèn)為是服務(wù)性角色。這就是職業(yè)分工里的性別歧視,到了數(shù)字世界仍然是這樣。我們希望跟一個(gè)溫暖可愛的人保持一種親近關(guān)系,而這個(gè)陪伴的角色一般被默認(rèn)為女性。因此,我們用的智能設(shè)備里內(nèi)置的語音助手大都有著甜美親切的女聲。
我是一個(gè)女性主義者,在我的研究中,性別視角是一以貫之的,比如關(guān)注在數(shù)據(jù)科學(xué)里社會(huì)性別是怎么被呈現(xiàn)的,這是一種本能。
我的博士論文是做數(shù)字文化和電子書寫,之后在美國博士后工作期間開始轉(zhuǎn)向數(shù)字檔案和數(shù)字人文,自己開始處理數(shù)據(jù),涉及數(shù)據(jù)研究。
在這期間,我有時(shí)會(huì)被問,女性還能懂?dāng)?shù)字技術(shù)?一般人都會(huì)問我你在做什么研究,講完以后,有人說,“女生不太適合做編程,而你好像對數(shù)據(jù)比較敏感?!边@聽上去是好心夸獎(jiǎng),但難道這個(gè)評價(jià)不是頗有一點(diǎn)羞辱性嗎?這種評價(jià)預(yù)設(shè)了女性不擅長數(shù)據(jù)科學(xué)。
“女性”被認(rèn)為適合什么做不適合做什么,是社會(huì)建構(gòu)的結(jié)果,這基本成為了常識(shí)。我在日常生活中不太會(huì)在意自己的性別,我只有在抬頭選擇男廁所還是女廁所的時(shí)候,才會(huì)意識(shí)到自己是女性。但換句話說,就是這種瞬間性的選擇構(gòu)成了我們的社會(huì)性別規(guī)范,也成為了其他人指引你做選擇的依據(jù)。
不過,女性從業(yè)者數(shù)量少與大數(shù)據(jù)領(lǐng)域的已有偏見,并沒有因果關(guān)系,性別偏見存在于大數(shù)據(jù)生產(chǎn)的很多環(huán)節(jié)。有人說女性工程師數(shù)量增加了不一定能改變什么。沒錯(cuò)的,女性工程師多了,不見得能解決問題,因?yàn)榕砸约芭匀后w內(nèi)部也有性別偏見、種族偏見和年齡偏見等各種偏見。
但是,可以想見的是,從事大數(shù)據(jù)行業(yè)的女性增加以后,群體里具有明確的性別意識(shí)的人也會(huì)相應(yīng)地增加。女性工程師多了,會(huì)讓女性的聲量變大,也會(huì)提供不同的性別視角。
最近,澎湃研究所沈虹的一篇文章中,寫到在“ImageNet人類數(shù)據(jù)集中,一個(gè)穿著比基尼的女人被標(biāo)注為蕩婦,中年亞裔女性被標(biāo)注為女仆”,沈虹提到的ImageNet數(shù)據(jù)集是由斯坦福大學(xué)的李飛飛教授和團(tuán)隊(duì)歷經(jīng)多年,通過她自己和學(xué)生們打標(biāo)簽,以及人們在亞馬遜的眾包平臺(tái)上進(jìn)行公眾打標(biāo)簽所形成的。
我們?nèi)粘UZ言的邏輯,看似“自然”“客觀”,但其實(shí)都是意識(shí)形態(tài)化的。而圖像訓(xùn)練數(shù)據(jù)集的標(biāo)注,遵循的是打標(biāo)人員的語言習(xí)慣,受其主體意識(shí)的影響,包括一個(gè)人的教育背景、表達(dá)能力和思維方式等。
比如沈老師所提到的ImageNet下屬的“Human”數(shù)據(jù)集所體現(xiàn)出的偏見,體現(xiàn)的就是制定標(biāo)注和實(shí)施標(biāo)注規(guī)則的主體是如何通過看似客觀的標(biāo)注動(dòng)作,將包含了偏見與歧視的認(rèn)知“轉(zhuǎn)移”到了看似科學(xué)的數(shù)據(jù)集中的。
因?yàn)檫@個(gè)過程是被隱藏在算法背后的,所以它的偏見性就被隱藏起來了。
而打造AI工具“ImageNet Roulette”的社會(huì)學(xué)家凱特·克勞福德(Kate Crawford)和藝術(shù)家特雷弗·格倫(Trevor Paglen)通過算法把這個(gè)隱藏起來的偏見性一層層剝開給我們看了,也讓我們最終意識(shí)到,看似智能的算法背后,延續(xù)了人類社會(huì)中固有的性別偏見,甚至做得更為隱秘、更具有欺騙性。
人工智能當(dāng)中的“人工問題”
還有一個(gè)我很想強(qiáng)調(diào)的,就是現(xiàn)在大家對于技術(shù)抱有一種天真的幻想,覺得輕輕松松跑一下數(shù)據(jù),結(jié)果瞬間就能出來了,其實(shí)完全不是這回事,大數(shù)據(jù)背后隱藏了大量的人力勞動(dòng)。
數(shù)據(jù)科學(xué)是一個(gè)非常消耗勞動(dòng)力的產(chǎn)業(yè),在一定程度上,它跟制造業(yè)其實(shí)是一樣的。很多人不知道,底層數(shù)據(jù)的獲取、以及數(shù)據(jù)有效性的確認(rèn)很多都是靠人工的。
但現(xiàn)在大環(huán)境是有意去忽略、去掩蓋人工智能當(dāng)中的人工問題,比如人工標(biāo)注的時(shí)間和偏見問題、數(shù)據(jù)降維過程中的簡化問題、數(shù)據(jù)獲取過程中的知識(shí)產(chǎn)權(quán)問題等等。
學(xué)界當(dāng)然討論過這些問題,但更多時(shí)候是在回避,原因很簡單,因?yàn)樗⒉皇浅晒堑讓拥臇|西。這就像你做產(chǎn)品,最后賣的是成品,沒有人會(huì)去關(guān)心這個(gè)產(chǎn)品是什么人做的,怎么做出來的。
而這類問題是社會(huì)學(xué)、人類學(xué)和文化研究的議題,卻不是數(shù)據(jù)產(chǎn)業(yè)的核心議題。這也很好理解,這些問題會(huì)降低人們對數(shù)字產(chǎn)業(yè)的熱情。現(xiàn)在大部分情況下都在強(qiáng)調(diào)人工智能的優(yōu)越性,人們在涉及相應(yīng)的利益的時(shí)候,就會(huì)有意無意地去忽略背后負(fù)面的東西。
歸根結(jié)底這還是觀念問題,人工智能不是一個(gè)技術(shù)主導(dǎo)的世界,它依然是一個(gè)人主導(dǎo)的世界。
有些技術(shù)下被隱藏的偏見與歧視確實(shí)需要有人文關(guān)懷才能看到,但是我很懷疑,人文學(xué)者的關(guān)懷有用嗎?業(yè)界的人永遠(yuǎn)比我們動(dòng)手得早,商家已經(jīng)在用各種方式獲取和利用我們的數(shù)據(jù),現(xiàn)在連去廁所抽一張衛(wèi)生紙,都要掃一下碼授權(quán)基本信息了。
另外,社會(huì)發(fā)展到現(xiàn)在已經(jīng)遠(yuǎn)遠(yuǎn)超越可以被經(jīng)濟(jì)基礎(chǔ)與上層建筑的二元論解釋的時(shí)代了?,F(xiàn)在的社會(huì)組織結(jié)構(gòu)、社會(huì)生產(chǎn)方式是高度復(fù)雜化的,對主體和文化的影響也是復(fù)雜的。大數(shù)據(jù)產(chǎn)業(yè)在不斷地生產(chǎn)數(shù)據(jù),生產(chǎn)新的數(shù)據(jù)和獲取數(shù)據(jù)的形式日益復(fù)雜,甚至越來越難為人所發(fā)現(xiàn)。
但是我們又必須要有意識(shí)地去做一些事情,技術(shù)變革的大趨勢不是單純的靠個(gè)人努力或者抵抗就可以改變的,我們只能跟它共存,然后在共存的關(guān)系當(dāng)中去調(diào)整和相互影響,才能做到相互制約。
如果產(chǎn)業(yè)永遠(yuǎn)比我們動(dòng)手得快,那還有什么辦法可以約束他們?“不作惡”是基本的科技倫理。比如“黑命攸關(guān)”運(yùn)動(dòng)中,微軟和亞馬遜幾家大公司以面部識(shí)別技術(shù)為籌碼,聲明他們不會(huì)提供給美國政府面部識(shí)別的技術(shù),這就是不作惡。
那“科技向善”是可能的嗎?“科技向善”是一個(gè)美好的烏托邦, “向善”只是說它在努力地變好,但技術(shù)并不是中性的,它的發(fā)展也并不遵循人文的邏輯,科技有科技的邏輯,甚至某些時(shí)候是忽略人的因素的。
從互聯(lián)網(wǎng)的出現(xiàn),到數(shù)字技術(shù)、人工智能,一直都有比較理想主義的想法,相信科技平權(quán)、科技民主。但這個(gè)很難,需要科技和人文雙方的努力,而科技和商業(yè)的綁定遠(yuǎn)比科技和人文的結(jié)合要緊密。
人文藝術(shù)其實(shí)是起到控制閥的作用,對科技發(fā)展的方向進(jìn)行調(diào)節(jié)。技術(shù)向善只有在人文藝術(shù)介入——從內(nèi)部主動(dòng)性地作用于科技研發(fā)和公司精英的主體或者從外部批判性地作用于企業(yè)和文化的情況下才可能發(fā)生。
如果一家公司體量已經(jīng)很大了,它是需要承擔(dān)一定的社會(huì)責(zé)任的,所以很多大公司都在做慈善——一個(gè)口袋來賺錢,一個(gè)口袋來花錢。許多公司都會(huì)有一個(gè)公共事務(wù)部,做慈善,也會(huì)與學(xué)界合作一些研究項(xiàng)目,但這不會(huì)觸及他們的利益底線。我們是否能寄希望于企業(yè)自覺的“向善”?不能這么天真,社會(huì)還是需要多種要素的制約和平衡。
而人文藝術(shù)和社會(huì)科學(xué)的存在,就是做那個(gè)“說實(shí)話的小孩”。