·編者按·
人工智能領域長期以來存在性別不平等問題,當最近爆火的AI應用程序ChatGPT被問及一些性別話題時,它呈現出了友好的姿態(tài),引得一片贊譽聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?本文作者帶我們一起解密ChatGPT中的性別問題,文章圍繞算法程序規(guī)避下的“顯性”平等、技術背后資本操控的“隱性”不公以及ChatGPT與性別平等的現實審視進行了討論。
■ 戴雪紅
人工智能領域存在性別不平等問題已經是老生常談了。當最近爆火的AI應用程序ChatGPT被問及一些性別話題時,它的回答常常是這樣的:“作為一種人工智能,我認為歧視女性是一種不道德和不公正的行為。每個人都應該被平等對待,無論他們的性別、種族、宗教或其他身份特征。歧視女性不僅違反了基本的人權原則,也會導致社會的不公平和不平等?!庇纱丝梢?,ChatGPT在應對性別問題上呈現出友好的姿態(tài),引得一片贊譽聲,也吸引了上億的活躍用戶。那么,ChatGPT真的能解決AI長期被詬病的性別偏見嗎?當ChatGPT遭遇性別問題,又能給我們帶來哪些新變化與新挑戰(zhàn)?
算法程序規(guī)避下的“顯性”平等
ChatGPT是由美國公司OpenAI開發(fā)的一種大型語言模型,其主要功能是生成語言文本。OpenAI是“開放人工智能”的縮寫,宗旨是通過開放的研究和合作,將AI的好處帶給更多的人。Open的意思是“打開”,正如潘多拉打開了一個盒子,釋放了各種疾病、災難和希望等。而在AI領域中,恰恰也存在著一個“黑盒子”——通常指的是一種模型或算法,OpenAI的使命之一是盡可能地減少“黑盒子”帶來的負面影響。例如,Tay是微軟公司2016年推出的一個聊天機器人,然而,由于其設計不良和缺乏對濫用的限制,Tay在推特上遭受了大量惡意用戶的干擾,發(fā)布了涉及性別歧視與種族歧視等言論,引起了公眾的不滿和批評。Tay僅上線不到一天即死亡?!拔④汿ay事件”是AI領域的重大事件,是一次由于缺乏適當的監(jiān)督和控制而導致AI產生不當行為的事件。為了避免出現類似的事件,OpenAI建立了一些內部規(guī)則和流程來確保ChatGPT的安全性和可靠性,以符合道德和法律的要求。到目前為止,ChatGPT已經發(fā)展為一種具有一定道德標準且保持中立態(tài)度的使用程序。值得一提的是,不同于微軟Tay被設定為19歲的少女,ChatGPT是沒有性別設定的。
針對AI模型中存在的性別不平等問題,當下的ChatGPT更加注重語言的包容性和多樣性。在ChatGPT的訓練數據中,對于不同性別、種族、文化和背景的人的言論進行了廣泛的收集和分析,使用相同數量的男性和女性數據,從而確保模型學習到的知識是平衡的。另外,ChatGPT能夠更好地理解語言中的隱含含義,這有助于避免在對話中出現性別偏見等不恰當的言論。在ChatGPT的設計中,模型被訓練成能夠識別并理解社交上下文和語境,這可以使ChatGPT更加準確地理解和回應包括性別在內的社會問題。ChatGPT已經通過大量的數據訓練來識別性別不公正,并學會了避免使用具有性別刻板印象的單詞和短語,這就可以用來對文本進行性別敏感語言的處理和刪選。ChatGPT也能夠用于傳播關于性別平等的信息和知識,從而提高公眾對性別平等話題的意識和理解。不過,無論技術背后的設計理念是否趨于平等,ChatGPT對于性別歧視問題是一種“顯性”平等的思維邏輯。這導致了很多人認為其在算法方面突破了性別不公,那么,事實真相究竟如何呢?
技術背后資本操控的“隱性”不公
只有了解AI的性別偏見是怎么來的,我們才能知道ChatGPT為了糾偏做了些什么,還存在哪些問題。首先是數據源的偏見。數據源是從網絡中抓取的,偏見來自搜集的數據源與現實情況的偏離。其次是算法的偏見。算法由算法工程師編寫,但背后是工程師代表的利益集團的傾向。數據標注的質量和數量對ChatGPT的性能和應用場景都會產生重要影響。例如,當人們問ChatGPT一些關于性別、性少數或種族歧視等問題時,ChatGPT一般這樣應答:“作為一個AI程序,我沒有情感和個人信仰,我不會有任何偏見或傾向性。”為什么會出現這種答案?原因在于ChatGPT的技術編碼對關于性別問題的敏感度提高,于是當聊天中出現相關話題時,它就會機械性地選擇回答已經被植入的符合社會要求的標準答案。但是ChatGPT也不是絕對的道德理性狀態(tài),當有一些不懷好意的人引導、質疑、威脅它時,它就會展現出進退兩難、模棱兩可的姿態(tài)。而且,ChatGPT給出的答案就一定是標準答案嗎?并不一定,但這個答案是由ChatGPT公司所有標注師綜合價值觀形成的結果,某種程度上它代表了在性別問題上形成的共識。它似乎顯得非常成熟,永遠保持中立的態(tài)度。簡言之,ChatGPT的“成熟人設”是由算法工程師和數據標注師合力打造的。
實際上,ChatGPT的背后是互聯網巨頭微軟,這種資本大鱷的壟斷發(fā)展模式必將在ChatGPT的發(fā)展上重演。關于性別問題的標準答案是由壟斷了數據的人說了算,掌握了標準答案就是掌握了話語權,甚至我們很難說清楚,是我們生產的數據影響了標準答案,還是標準答案影響了我們。因此,在這種貌似公開、平等的程序背后,我們要關注的不僅僅是ChatGPT的數據來源、ChatGPT的AI執(zhí)行系統(tǒng)及其背后的算法機制,還要關注技術背后的資本支持,這些都離不開人類的操作與干預。也許在不遠的未來,ChatGPT就會為你推薦適合你的產品,影響你的思維方式和判斷力,因為它不僅僅是機器,它還是人類的對話者,它掌握著人類賦予的話語權。當ChatGPT得到了人類的信任之后,性別偏見就會以另一種方式重新浮現,它會為女性對話者推薦護膚品、母嬰用品和家庭用品,為男性對話者介紹理財產品、交通工具和樓盤信息,對這種模式的理解可以參考谷歌和百度發(fā)展成熟之后的廣告推送模塊。因為ChatGPT的背后是資本的力量,ChatGPT作為資本的新寵必然是存在幫助資本實現價值增值的可能,說不定ChatGPT將是繼直播平臺后的新一任“帶貨王”。
ChatGPT與性別平等的現實審視
ChatGPT或者AI的性別不平等問題并不是獨立存在的,其實質是反映了社會本身的偏見,不會因為一款人工智能產品的出現而簡單地消失。只有實施思想和制度上的變革,ChatGPT才能被進一步改進與完善。盡管AI領域一直被認為是男性主導的領域,但事實上,越來越多的女性進入了這個領域,特別是在研究和開發(fā)AI算法和應用程序方面。然而,女性進入AI領域會面臨諸多障礙,例如,招聘和晉升中存在的性別不公正、工資差距和性別平等問題等??赡芪覀兒茈y在表面上捕捉到ChatGPT的性別歧視現象,但是現實的性別問題往往是隱而不見的、沉默不語的,這遠遠不是AI等技術可以幫助解決的。
總之,ChatGPT和其他AI本身并不具有道德、價值觀或利益的色彩,它們只是通過算法、數據和模型進行編程的工具,最終取決于人類如何使用它們。這些工具可以被用于積極的和有益的目的,也可以被用于負面和有害的目的。實現性別平等不僅需要培養(yǎng)女性從事先進科技研究的能力,使其能與男性一同引領新技術的發(fā)展方向;還需要每個人的努力,以共同打破性別壁壘和陳舊的觀念,為女性提供更多的機會和平等的待遇。解密ChatGPT或者AI可能存在的性別歧視問題要從現實社會中開始,只有建立一個公正和平等的社會和制度,才能使ChatGPT更加智能、更加人性化。這意味著實現性別平等的道路是一個充滿冒險和挑戰(zhàn)的漫長旅程,需要我們勇敢地面對各種不確定性與困難。
(作者為南京大學馬克思主義學院教授、博士生導師)
注:本文是“江蘇高校學習貫徹黨的二十大精神專題研究項目”的階段性成果。