您的位置: 首頁 >> 調(diào)查思考

“顯性”平等與“隱性”不公:解密ChatGPT中的性別問題

發(fā)布時間:2023-02-28 來源:中國婦女報 閱讀:580
字體:[    ]
保護視力色:

·編者按·   

人工智能領(lǐng)域長期以來存在性別不平等問題,當最近爆火的AI應(yīng)用程序ChatGPT被問及一些性別話題時,它呈現(xiàn)出了友好的姿態(tài),引得一片贊譽聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?本文作者帶我們一起解密ChatGPT中的性別問題,文章圍繞算法程序規(guī)避下的“顯性”平等、技術(shù)背后資本操控的“隱性”不公以及ChatGPT與性別平等的現(xiàn)實審視進行了討論。 

■ 戴雪紅

人工智能領(lǐng)域存在性別不平等問題已經(jīng)是老生常談了。當最近爆火的AI應(yīng)用程序ChatGPT被問及一些性別話題時,它的回答常常是這樣的:“作為一種人工智能,我認為歧視女性是一種不道德和不公正的行為。每個人都應(yīng)該被平等對待,無論他們的性別、種族、宗教或其他身份特征。歧視女性不僅違反了基本的人權(quán)原則,也會導(dǎo)致社會的不公平和不平等。”由此可見,ChatGPT在應(yīng)對性別問題上呈現(xiàn)出友好的姿態(tài),引得一片贊譽聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?當ChatGPT遭遇性別問題,又能給我們帶來哪些新變化與新挑戰(zhàn)?

算法程序規(guī)避下的“顯性”平等

ChatGPT是由美國公司OpenAI開發(fā)的一種大型語言模型,其主要功能是生成語言文本。OpenAI是“開放人工智能”的縮寫,宗旨是通過開放的研究和合作,將AI的好處帶給更多的人。Open的意思是“打開”,正如潘多拉打開了一個盒子,釋放了各種疾病、災(zāi)難和希望等。而在AI領(lǐng)域中,恰恰也存在著一個“黑盒子”——通常指的是一種模型或算法,OpenAI的使命之一是盡可能地減少“黑盒子”帶來的負面影響。例如,Tay是微軟公司2016年推出的一個聊天機器人,然而,由于其設(shè)計不良和缺乏對濫用的限制,Tay在推特上遭受了大量惡意用戶的干擾,發(fā)布了涉及性別歧視與種族歧視等言論,引起了公眾的不滿和批評。Tay僅上線不到一天即死亡?!拔④汿ay事件”是AI領(lǐng)域的重大事件,是一次由于缺乏適當?shù)谋O(jiān)督和控制而導(dǎo)致AI產(chǎn)生不當行為的事件。為了避免出現(xiàn)類似的事件,OpenAI建立了一些內(nèi)部規(guī)則和流程來確保ChatGPT的安全性和可靠性,以符合道德和法律的要求。到目前為止,ChatGPT已經(jīng)發(fā)展為一種具有一定道德標準且保持中立態(tài)度的使用程序。值得一提的是,不同于微軟Tay被設(shè)定為19歲的少女,ChatGPT是沒有性別設(shè)定的。

針對AI模型中存在的性別不平等問題,當下的ChatGPT更加注重語言的包容性和多樣性。在ChatGPT的訓(xùn)練數(shù)據(jù)中,對于不同性別、種族、文化和背景的人的言論進行了廣泛的收集和分析,使用相同數(shù)量的男性和女性數(shù)據(jù),從而確保模型學(xué)習(xí)到的知識是平衡的。另外,ChatGPT能夠更好地理解語言中的隱含含義,這有助于避免在對話中出現(xiàn)性別偏見等不恰當?shù)难哉摗T贑hatGPT的設(shè)計中,模型被訓(xùn)練成能夠識別并理解社交上下文和語境,這可以使ChatGPT更加準確地理解和回應(yīng)包括性別在內(nèi)的社會問題。ChatGPT已經(jīng)通過大量的數(shù)據(jù)訓(xùn)練來識別性別不公正,并學(xué)會了避免使用具有性別刻板印象的單詞和短語,這就可以用來對文本進行性別敏感語言的處理和刪選。ChatGPT也能夠用于傳播關(guān)于性別平等的信息和知識,從而提高公眾對性別平等話題的意識和理解。不過,無論技術(shù)背后的設(shè)計理念是否趨于平等,ChatGPT對于性別歧視問題是一種“顯性”平等的思維邏輯。這導(dǎo)致了很多人認為其在算法方面突破了性別不公,那么,事實真相究竟如何呢?

技術(shù)背后資本操控的“隱性”不公

只有了解AI的性別偏見是怎么來的,我們才能知道ChatGPT為了糾偏做了些什么,還存在哪些問題。首先是數(shù)據(jù)源的偏見。數(shù)據(jù)源是從網(wǎng)絡(luò)中抓取的,偏見來自搜集的數(shù)據(jù)源與現(xiàn)實情況的偏離。其次是算法的偏見。算法由算法工程師編寫,但背后是工程師代表的利益集團的傾向。數(shù)據(jù)標注的質(zhì)量和數(shù)量對ChatGPT的性能和應(yīng)用場景都會產(chǎn)生重要影響。例如,當人們問ChatGPT一些關(guān)于性別、性少數(shù)或種族歧視等問題時,ChatGPT一般這樣應(yīng)答:“作為一個AI程序,我沒有情感和個人信仰,我不會有任何偏見或傾向性?!睘槭裁磿霈F(xiàn)這種答案?原因在于ChatGPT的技術(shù)編碼對關(guān)于性別問題的敏感度提高,于是當聊天中出現(xiàn)相關(guān)話題時,它就會機械性地選擇回答已經(jīng)被植入的符合社會要求的標準答案。但是ChatGPT也不是絕對的道德理性狀態(tài),當有一些不懷好意的人引導(dǎo)、質(zhì)疑、威脅它時,它就會展現(xiàn)出進退兩難、模棱兩可的姿態(tài)。而且,ChatGPT給出的答案就一定是標準答案嗎?并不一定,但這個答案是由ChatGPT公司所有標注師綜合價值觀形成的結(jié)果,某種程度上它代表了在性別問題上形成的共識。它似乎顯得非常成熟,永遠保持中立的態(tài)度。簡言之,ChatGPT的“成熟人設(shè)”是由算法工程師和數(shù)據(jù)標注師合力打造的。

實際上,ChatGPT的背后是互聯(lián)網(wǎng)巨頭微軟,這種資本大鱷的壟斷發(fā)展模式必將在ChatGPT的發(fā)展上重演。關(guān)于性別問題的標準答案是由壟斷了數(shù)據(jù)的人說了算,掌握了標準答案就是掌握了話語權(quán),甚至我們很難說清楚,是我們生產(chǎn)的數(shù)據(jù)影響了標準答案,還是標準答案影響了我們。因此,在這種貌似公開、平等的程序背后,我們要關(guān)注的不僅僅是ChatGPT的數(shù)據(jù)來源、ChatGPT的AI執(zhí)行系統(tǒng)及其背后的算法機制,還要關(guān)注技術(shù)背后的資本支持,這些都離不開人類的操作與干預(yù)。也許在不遠的未來,ChatGPT就會為你推薦適合你的產(chǎn)品,影響你的思維方式和判斷力,因為它不僅僅是機器,它還是人類的對話者,它掌握著人類賦予的話語權(quán)。當ChatGPT得到了人類的信任之后,性別偏見就會以另一種方式重新浮現(xiàn),它會為女性對話者推薦護膚品、母嬰用品和家庭用品,為男性對話者介紹理財產(chǎn)品、交通工具和樓盤信息,對這種模式的理解可以參考谷歌和百度發(fā)展成熟之后的廣告推送模塊。因為ChatGPT的背后是資本的力量,ChatGPT作為資本的新寵必然是存在幫助資本實現(xiàn)價值增值的可能,說不定ChatGPT將是繼直播平臺后的新一任“帶貨王”。

ChatGPT與性別平等的現(xiàn)實審視

ChatGPT或者AI的性別不平等問題并不是獨立存在的,其實質(zhì)是反映了社會本身的偏見,不會因為一款人工智能產(chǎn)品的出現(xiàn)而簡單地消失。只有實施思想和制度上的變革,ChatGPT才能被進一步改進與完善。盡管AI領(lǐng)域一直被認為是男性主導(dǎo)的領(lǐng)域,但事實上,越來越多的女性進入了這個領(lǐng)域,特別是在研究和開發(fā)AI算法和應(yīng)用程序方面。然而,女性進入AI領(lǐng)域會面臨諸多障礙,例如,招聘和晉升中存在的性別不公正、工資差距和性別平等問題等??赡芪覀兒茈y在表面上捕捉到ChatGPT的性別歧視現(xiàn)象,但是現(xiàn)實的性別問題往往是隱而不見的、沉默不語的,這遠遠不是AI等技術(shù)可以幫助解決的。

總之,ChatGPT和其他AI本身并不具有道德、價值觀或利益的色彩,它們只是通過算法、數(shù)據(jù)和模型進行編程的工具,最終取決于人類如何使用它們。這些工具可以被用于積極的和有益的目的,也可以被用于負面和有害的目的。實現(xiàn)性別平等不僅需要培養(yǎng)女性從事先進科技研究的能力,使其能與男性一同引領(lǐng)新技術(shù)的發(fā)展方向;還需要每個人的努力,以共同打破性別壁壘和陳舊的觀念,為女性提供更多的機會和平等的待遇。解密ChatGPT或者AI可能存在的性別歧視問題要從現(xiàn)實社會中開始,只有建立一個公正和平等的社會和制度,才能使ChatGPT更加智能、更加人性化。這意味著實現(xiàn)性別平等的道路是一個充滿冒險和挑戰(zhàn)的漫長旅程,需要我們勇敢地面對各種不確定性與困難。

(作者為南京大學(xué)馬克思主義學(xué)院教授、博士生導(dǎo)師)

注:本文是“江蘇高校學(xué)習(xí)貫徹黨的二十大精神專題研究項目”的階段性成果。

c_msg