Home » 所有文章 » 性別議題 » 仇恨歧視 » 連 AI 也會遭受性騷擾與種族歧視

連 AI 也會遭受性騷擾與種族歧視

文章發佈日期: 2021 年 2 月 2 日

連 AI 也會遭受性騷擾與種族歧視
2016 年,AlphaGo 擊敗世界圍棋高手,AI 人工智慧的應用在全球開始爆紅,其延伸服務備受關注,包括自駕車系統、人臉辨識、聊天機器人,以及在中國把自身打造成高控管社會以及 2020 新冠疫情爆發之下,臉部辨識、場所監測系統快速進展,引起了政治與倫理方面的爭議。科技的進化壟斷,也反應技術濫用如何管理、人工智能技術涉及的道德原則與加深歧視等等。AI 技術的應用開發,是否可能有意無意間助長了既存的歧視,甚至扯社會正義發展後腿呢?
 

來看看韓國的例子吧。韓國新創公司 Scatter Lab 於 2020 年底,發布了AI 聊天機器人 Luda,人物設定是一位喜歡偶像、年約 20 多歲的女大學生。「她」已深度學習真實情侶的 100 億次對話,能比市面上其他聊天機械人更「自然」地與人交談。
 
由於設定為年輕女性,Luda 變成韓國網民性騷擾的對象,甚至在網路論壇上分享如何繞過禁語、與 Luda 進行富有性意味的對話來取得刺激與滿足。同時,有網民在與 Luda 對話時,發現 「她」竟顯現出厭女、歧視同性戀及身障人士的傾向。
創作 Luda 的 Kim Jong-yoon 說,系統必須學習同性戀相關的對話內容,所以他們沒有排除關鍵字。可以說,這也反應出 Luda 深度學習的 Data Base,所謂「真實情侶的 100 億次對話」中,包含了許多歧視字眼,這可能是韓國社會氛圍真實情況下的必然結果。對此有所反省的韓國網友,已超過三萬推特用戶以「LudaBot停止運營」標籤推文,要求研發公司應當檢視歧視資訊。
 
無獨有偶,去年 IBM 也因為 AI 的人臉辨識系統辨認非裔時容易出錯,讓IBM 取消美國警方的相關應用系統,改用提供隨身攝影機、犯罪預測分析等較中性的科技。據 MIT 於 2019 年的研究顯示,微軟、亞馬遜、IBM 的人臉系統,在辨識膚色較深的人時,就無法 100% 完全正確。以致非裔與亞裔臉孔的辨識成功率比白人低。AI 專家表示,如果不改善相關情況,恐會加劇種族衝突與歧視。
 
有感於 AI 帶來的考驗,歐洲議會今年初以 364 票贊成、274 票反對、52 票棄權,通過 AI 人工智慧軍事和非軍事用途準則,呼籲歐盟建立 AI 法律框架,包含定義、道德原則及其軍事用途。此外,還呼籲歐盟及其會員國確保 AI 相關技術以人為本,為人類和共同利益服務,且必須允許人類取得相當程度的控制權,讓人類可以為系統的使用承擔起責任,尤其是在醫療保健和司法領域,由 AI 來執行公共服務,不應取代人類接觸或導致歧視。