有必要把世界預設為白人男性,把所有女人和多數有色人種一併劃分進「非典型」類別嗎?
兩性智力之主要差異在於,男人在各領域能比女人達到更卓越的層次,無論是高深思想、論理、想像皆然,或僅止於感官與雙手的運作。
——達爾文,《人類的由來及性選擇》(The Descent of Man, and selection in relation to sex),1871年
他馬的二元論(Fuck the Binary)
兩性。
世界上最基本的二元論。
AI降臨後,二元論會變嗎?或者會分得更清楚?
自有歷史文獻至今,在世界各地,性別權益大餅一直被切成比例失衡的兩塊,兩性能做的事和做法都不同,教育、就業、婚姻、法定權利、甚至基本公民權,都有高低之別。自從十九世紀末以來,對女性的歧見頻遭砲轟,備受威脅,這情況在二十世紀愈演愈烈。法律和社會革新對女性生活造成重大影響,尤以西方世界為最。然而,離消滅偏見的日子還早得很。對有色人種女性而言,種族歧視加性別歧視讓她們的日子苦上加苦。
目前,電腦算式愈來愈常介入日常生活,在性別和種族方面衍生的問題更加層出不窮。

問題不在人工智慧。在AI裡面,人造的不是智慧,而是被人類偏見扭曲的見解。AI本質上應是不偏不倚的一套工具,其中卻有偏見在作祟。AI不是男孩也不是女孩。AI生下來沒有膚色。AI根本不是被生出來的。
AI可以是一道門(portal),門外的天地是無關價值判斷的性別和種族,能讓男人女人都不受制於生物性別、出生地的刻板印象和預設。
目前,AI不是那一道能讓人類海闊天空的門(door),因為訓練AI用的數據組有問題。AI學習知識的範本來自數據組。眼看著AI大門就要敞開了,卻被有問題的數據組砰然關閉。
亞馬遜本來用一套運算法來徵才,而訓練這套算式的數據組全來自理工背景白人科技男的履歷表。用這套運算法能徵到那一類的人才,猜猜看吧。這一套徵才演算法用了四年多,到2018年才被亞馬遜淘汰。
一開始,數據組裡就缺乏多元化資料,這樣的數據組毛病百出。數據不多元,對AI就會產生迴聲室(echo chamber)效應,AI以同樣的數據設定參數,產生更多數據,本來就錯就偏頗的毛病變得更嚴重。
想在臉書上打廣告的用戶聽臉書宣布說,「我們試著展示給人們和他們最息息相關的廣告。」
業者想打廣告,通常會簡述主打哪個社群,例如愛玩樂高積木的兒童、重機車大叔、初創的小企業主等等。
但在2019年,美國東北大學和南加大分別對臉書廣告進行研究,設計了幾份徵才和購屋廣告,不設定專攻哪個性別、族裔、年齡、興趣,隨臉書依照傳統演算法發送。臉書依既定刻板觀念,分性別種族來發廣告給用戶看。結果,看到超市結帳員和祕書徵才廣告的用戶有百分之八十五是女性。看到計程車司機工作廣告的用戶有百分之七十五是黑人男性。購屋廣告給誰看呢?百分之七十五是白人。
視覺上粗獷的廣告主打男性。體貼、窩心、大自然的廣告發給女性看。 (相關報導: 朱家安:「給女孩玩的樂高」是什麼樣子?為何我們不該把玩具貼上性別標籤 | 更多文章 )

這項研究的結論:「臉書設有自動影像分類機制,用以將不同廣告導向不同的用戶子集。」