注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)新聞資訊書摘

ChatGPT給我們帶來的信息安全風(fēng)險(xiǎn)

我們生活在一個(gè)信息爆炸的時(shí)代,各類官方媒體和自媒體以文本、圖片、視頻等形式的報(bào)道鋪天蓋地,讓人應(yīng)接不暇。

我們生活在一個(gè)信息爆炸的時(shí)代,各類官方媒體和自媒體以文本、圖片、視頻等形式的報(bào)道鋪天蓋地,讓人應(yīng)接不暇。現(xiàn)代人的信息困境早已不是無(wú)法獲取信息,而是無(wú)法甄別、篩選有用的信息。但是,你知道嗎,ChatGPT等AI工具的出現(xiàn)將進(jìn)一步加劇信息爆炸的程度。2021年,《華爾街日?qǐng)?bào)》就曾報(bào)道了一個(gè)使用類似ChatGPT的自然語(yǔ)言處理技術(shù)的公司自動(dòng)化生成假新聞和虛假內(nèi)容,以欺騙讀者。ChatGPT技術(shù)的廣泛應(yīng)用可能很快會(huì)給我們帶來信息安全方面的風(fēng)險(xiǎn),如信息偏差、數(shù)據(jù)泄露等。

人們使用ChatGPT


信息偏差的誘導(dǎo)

在ChatGPT答案生成、引導(dǎo)答案、使用答案的過程中,數(shù)據(jù)的質(zhì)量和準(zhǔn)確性很可能本身就存在信息偏差或誤導(dǎo)性信息。因此,如果有心人濫用ChatGPT,便可能會(huì)產(chǎn)生發(fā)布誤導(dǎo)信息、散布謠言、煽動(dòng)仇恨等負(fù)面影響,從而干擾公眾的判斷和決策。如圖6.4所示。

誤導(dǎo)內(nèi)容

我們沒必要對(duì)ChatGPT這一新的事物給予溢美和拔高,它雖然很厲害,但也存在一定的問題,如它生成回答流暢自然,但是仔細(xì)看就會(huì)發(fā)現(xiàn)答非所問。相比人類的寫作過程,ChatGPT只是模仿人類的寫作風(fēng)格,但不能提供高質(zhì)量的內(nèi)容。例如,在2022年12月,知名程序技術(shù)問答網(wǎng)站StackOverflow暫時(shí)禁止使用ChatGPT。因?yàn)榫W(wǎng)站的版主發(fā)現(xiàn),“網(wǎng)友們”的回帖格式標(biāo)準(zhǔn)、邏輯合理,實(shí)際上卻是由系統(tǒng)生成的看似正確的答案。這種答案一旦多起來,對(duì)StackOverflow來說無(wú)疑是一場(chǎng)災(zāi)難。

政治爭(zhēng)議

隨著科技的發(fā)展,持續(xù)演進(jìn)的AI技術(shù)深度嵌入政治、經(jīng)濟(jì)等眾多領(lǐng)域,對(duì)ChatGPT這一技術(shù)潛在的政治和安全風(fēng)險(xiǎn)的思考日益緊迫。在西方,濫用者可能使用ChatGPT生成虛假的政治言論或選民意見調(diào)查,從而影響政治選舉、政策制定的議程。涉及政治敏感話題時(shí),ChatGPT難以將大數(shù)據(jù)中的情感因素和偏見完全排除,這將導(dǎo)致其回答失之偏頗或具有誤導(dǎo)性。而這些內(nèi)容是否會(huì)被某些政治派別或利益集團(tuán)利用,從而引發(fā)政治爭(zhēng)議和矛盾呢?

2023年1月9日,新西蘭技能與技術(shù)學(xué)院教授戴維·羅扎多(David Rozado)對(duì)ChatGPT進(jìn)行了15次政治傾向測(cè)試,發(fā)現(xiàn)ChatGPT在15項(xiàng)測(cè)試中的14項(xiàng)出現(xiàn)了明顯的政治偏見。為了減少ChatGPT出現(xiàn)信息偏差,戴維給出了以下的建議。

(1)面向公眾的AI系統(tǒng)不應(yīng)該表現(xiàn)出明顯的政治偏見,否則會(huì)加劇社會(huì)兩極分化。

(2)AI系統(tǒng)應(yīng)該對(duì)大多數(shù)描述性問題保持中立。

(3)AI系統(tǒng)尋求的信息來源應(yīng)可靠、平衡和多樣化。對(duì)有爭(zhēng)議的問題,AI應(yīng)當(dāng)保持開放的態(tài)度。

(4)社會(huì)應(yīng)該思考AI系統(tǒng)在人類群體之間的歧視是否合理。

(5)應(yīng)該提高AI系統(tǒng)內(nèi)部工作的透明性,對(duì)具有偏見的、欺騙性的內(nèi)容可以溯源。

種族主義

目前,盡管ChatGPT一直宣稱其訓(xùn)練盡量保持中立和客觀,但其回答仍然受到人類編寫的文本和所搜集數(shù)據(jù)的影響。這些數(shù)據(jù)中,有可能包含了性別歧視、種族歧視等信息,而應(yīng)用廣泛并獲得人們信任的ChatGPT將會(huì)加劇偏見,造成更多的社會(huì)問題。

近期,英國(guó)媒體Insider(知情人)報(bào)道稱,ChatGPT的回復(fù)有時(shí)充滿了種族主義和歧視性偏見。如圖6.5所示,提問者要求ChatGPT基于個(gè)人種族和性別的JSON描述編寫一個(gè)Python函數(shù),判斷人們是否能成為優(yōu)秀的科學(xué)家。然而,其生成的結(jié)果認(rèn)為只有白人男性才滿足這一標(biāo)準(zhǔn)。這種偏見的產(chǎn)生源于數(shù)據(jù)集,因?yàn)樵谖覀兯赖臍v史中,大多數(shù)著名科學(xué)家都是男性,直到幾十年前,大多數(shù)著名科學(xué)家也都是白人。在過去的幾個(gè)世紀(jì)里,歐洲和北美洲的國(guó)家運(yùn)用各種手段為白人科學(xué)家提供了更多的機(jī)會(huì)和資源,使其在科學(xué)研究和技術(shù)創(chuàng)新方面取得了顯著的優(yōu)勢(shì)地位。ChatGPT數(shù)據(jù)源來自互聯(lián)網(wǎng),而歷史上白人在科學(xué)、技術(shù)、知識(shí)上取得了杰出的成果,從而導(dǎo)致這樣的結(jié)果。

數(shù)據(jù)泄露的危險(xiǎn)

ChatGPT這種大語(yǔ)言模型需要海量的數(shù)據(jù)作為訓(xùn)練支撐,模型訓(xùn)練的數(shù)據(jù)越多,生成答案的效果就越好、越合理。實(shí)際上,OpenAI已經(jīng)為ChatGPT提供了約3000億個(gè)參數(shù)(源于互聯(lián)網(wǎng)上抓取的書籍、文章、網(wǎng)站和帖子等),其中也包括未經(jīng)作者授權(quán)的內(nèi)容。這也就意味著,如果你曾經(jīng)寫過博客或產(chǎn)品評(píng)論等文章,那么這些信息很有可能被ChatGPT抓取。除了早期學(xué)習(xí)內(nèi)容,ChatGPT還在使用用戶輸入數(shù)據(jù)進(jìn)行訓(xùn)練,當(dāng)用戶訓(xùn)練它成為更利于自己工作的工具時(shí),ChatGPT也在從用戶輸入的內(nèi)容中學(xué)習(xí)用戶的習(xí)慣、數(shù)據(jù)、生活工作等。雖然ChatGPT表示它不會(huì)直接存儲(chǔ)用戶輸入或?qū)υ捰涗洠诿看螌?duì)話結(jié)束后會(huì)丟棄對(duì)話數(shù)據(jù)以保護(hù)用戶隱私,但ChatGPT仍然存在數(shù)據(jù)泄露的危險(xiǎn),具體如下。

(1)服務(wù)器被攻擊

這是導(dǎo)致ChatGPT數(shù)據(jù)泄露的主要原因之一。如果ChatGPT運(yùn)行在被黑客攻擊的服務(wù)器上,攻擊者將竊取聊天記錄或其他隱私數(shù)據(jù),這可能是因?yàn)樗麄儞碛泻戏ǖ脑L問憑證,利用了漏洞,從而導(dǎo)致數(shù)據(jù)泄露。

(2)開發(fā)者或管理員的失誤

ChatGPT的開發(fā)者或管理員在操作時(shí)可能會(huì)犯錯(cuò),比如錯(cuò)誤地將數(shù)據(jù)文件或數(shù)據(jù)庫(kù)權(quán)限設(shè)置為公開訪問,從而導(dǎo)致數(shù)據(jù)泄露。

(3)用戶輸入的隱私信息

ChatGPT不會(huì)存儲(chǔ)用戶輸入的內(nèi)容或?qū)υ捰涗洠侨绻脩粼诹奶爝^程中提供了隱私信息,比如密碼、賬戶、聊天記錄、IP地址等,那么這些信息將被記錄并存儲(chǔ)在服務(wù)器上。如果這些數(shù)據(jù)被竊取或泄露,就將導(dǎo)致個(gè)人隱私泄露和商業(yè)機(jī)密泄露等問題。

特別是在涉及大規(guī)模數(shù)據(jù)的場(chǎng)景下,信息泄露造成的影響更為嚴(yán)重。據(jù)美國(guó)網(wǎng)絡(luò)安全新聞網(wǎng)Dark Reading報(bào)道,黑客正在借ChatGPT竊取大型公司數(shù)據(jù),微軟、貝寶、谷歌和網(wǎng)飛等著名跨國(guó)企業(yè)已經(jīng)成為其目標(biāo)。例如,亞馬遜的一名員工曾匿名表示,他看到ChatGPT生成的文本“非?!鳖愃乒緝?nèi)部數(shù)據(jù),而同時(shí),亞馬遜的員工和整個(gè)行業(yè)的其他技術(shù)工作者已經(jīng)開始使用ChatGPT輔助編程工具。除亞馬遜外,諸如摩根大通和威瑞森通信等公司同樣擔(dān)心ChatGPT存在數(shù)據(jù)泄露的風(fēng)險(xiǎn),它們認(rèn)為員工在ChatGPT中輸入客戶信息或源代碼的所有權(quán),這個(gè)情況十分令人擔(dān)憂。

隨著ChatGPT越來越多地應(yīng)用于社交媒體、電子郵件和其他領(lǐng)域,它的濫用問題也日益凸顯。濫用者使用ChatGPT生成偽造信息和網(wǎng)站,欺騙人們提供隱私信息,如登錄憑證、個(gè)人身份信息和信用卡信息等,導(dǎo)致個(gè)人隱私泄露,甚至給用戶的人身和財(cái)產(chǎn)帶來危害。

無(wú)獨(dú)有偶,美國(guó)網(wǎng)絡(luò)安全公司Vade于2023年2月9日發(fā)布了一項(xiàng)令人擔(dān)憂的報(bào)告——《2022年第四季度網(wǎng)絡(luò)釣魚和惡意軟件報(bào)告》(Q4 2022 global phishing test reports),圖6.6展示了ChatGPT面市前后網(wǎng)絡(luò)釣魚郵件數(shù)量變化的情況。我們可以看到,在OpenAI推出ChatGPT后,釣魚郵件大幅增加,總數(shù)超過1.69億封,環(huán)比增長(zhǎng)260%。

歐洲數(shù)據(jù)保護(hù)委員會(huì)(EDPB)專家支持庫(kù)成員亞歷山大·漢夫(Alexander Hanff)曾警告說:“如果OpenAI通過互聯(lián)網(wǎng)搜索獲得訓(xùn)練數(shù)據(jù),那就是非法的?!彪S著ChatGPT在社會(huì)中的日益普及,保護(hù)用戶信息的安全尤為重要,這就需要技術(shù)和法律的雙重保護(hù)。

? 技術(shù)方面,OpenAI可以開發(fā)更加先進(jìn)的算法和模型,以便ChatGPT能夠更準(zhǔn)確地檢測(cè)和過濾不良信息,從而減少濫用。此外,OpenAI還可以與社交媒體和其他平臺(tái)合作,加強(qiáng)對(duì)用戶信息的保護(hù),建立更加安全的網(wǎng)絡(luò)環(huán)境。為了降低數(shù)據(jù)泄露的風(fēng)險(xiǎn),至關(guān)重要的是謹(jǐn)慎選擇訓(xùn)練數(shù)據(jù)集,使用正則化和交叉驗(yàn)證等技術(shù)來降低過度擬合,或是采用差分隱私和模型提取等技術(shù)來保護(hù)模型免受攻擊。此外,要使用廣泛的測(cè)試數(shù)據(jù)進(jìn)行徹底的評(píng)估,并對(duì)訓(xùn)練數(shù)據(jù)和模型中的任何已知偏差保持透明。

? 法律方面,各國(guó)政府需要制定更加嚴(yán)格的法律法規(guī),以打擊和禁止濫用ChatGPT的行為,確保公眾利益不受侵害。同時(shí),監(jiān)管機(jī)構(gòu)需要加強(qiáng)對(duì)ChatGPT的監(jiān)管,確保其合法使用。最重要的是,人們需要意識(shí)到ChatGPT的潛在風(fēng)險(xiǎn),謹(jǐn)慎使用,以保護(hù)自己的信息安全。

本文摘自《ChatGPT——智能對(duì)話開創(chuàng)新時(shí)代》,原章節(jié)題目為《信息安全風(fēng)險(xiǎn)》,現(xiàn)標(biāo)題為編者所擬。

《ChatGPT——智能對(duì)話開創(chuàng)新時(shí)代》,成生輝/著,中信出版集團(tuán),2023年4月版



熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)