HKGalden科技臺
發表文章發起投票
矽谷的歧視文化,滲透到你的電話?
矽谷的歧視文化,滲透到你的電話?[/size=5]
2017年08月10日 by Ann Wong


圖片來源:路透社

本周 Google 一份內部備忘錄於網上流出,執筆的員工批評公司追求職場平等,乃不切實際之舉,引起滿城風雨。或許你認為矽谷男女應否同工同酬,跟你這位消費者毫無瓜葛,但網絡顧問兼新書 Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech 作者 Sara Wachter-Boettcher 在「華盛頓郵報」撰文反駁,直指美國科技界對女性及少數族裔的歧視,早已滲透到其產品當中,影響全球每位用家。

Wachter-Boettcher 表示,矽谷近月爆出多宗欺壓女性的醜聞,但性別歧視實已植根於這些企業提供的服務。[#f70818]譬如蘋果在 2014 年推出應用程式 Apple Health 時,宣稱能監察「整個健康系統」,跟蹤用家的運動習慣、血液中酒精濃度甚至鉻攝取量,但程式上架後一年,仍沒有跟蹤月經周期的功能;去年,醫學期刊 JAMA Internal Medicine 的研究員留意到 Cortana 及 Siri 等語音助理程式,無法理解「我被強姦」或「我被丈夫毆打」等語句,更以不明白這些「笑話」來回應。[/#f70818] 咁撚仆街。

不過 Wachter-Boettcher 認為,更險惡的是這些歧視或偏見,甚至藏於強大的演算法之中。例如變臉應用程式 FaceApp 曾推出濾鏡「hotness」,令皮膚明顯變白,所屬公司事後承認,程式的演算法訓練用的數據集存有偏見,意味演算法所學到的「美」,源自明顯白晢的臉;前年 Google Photos 推出新的臉部辨識功能,辨別照片內容並自動加上標籤,[#f70818]但有黑人用家發現自己與黑人朋友的合照,被加上「猩猩」(Gorillas)標籤,反映系統辨識黑人不如辨識白人,工程師表示會改善服務。[/#f70818]

此外,Google 研究員在 2013 年創造神經網絡 Word2vec,讓其透過處理 Google News 文章,學習字詞間的關係。經過千萬字的訓練後,Word2vec 能完成「巴黎是法國正如東京是 ___」這種類比,還回到一些刻板印象,譬如「男人是建築師正如女人是室內設計師」。Wachter-Boettcher 認為,這種配對純粹反映 Google News 的數據集,但在一個白人男性主導、「破壞」勝過一切的行業,Word2vec 等技術被視作客觀,[#f70818]結果從搜尋引擎到求職系統,各類軟件都嵌入這種自帶成見的技術。[/#f70818]

人工智能(AI)公司 Integrate.ai 產品與策略副總裁 Kathryn Hume 形容,這是 AI 的時間扭曲(time warp)。「人工智能從我們稍近的過去,捕捉人類行為的趨勢,再將其投射到我們的近未來。」而這影響深遠。[#f70818]科學家反覆研究,發現網絡世界的一切事項,從空缺搜尋廣告向女性顯示較男性低薪的職位,到預測性執法軟件延續不同膚色的差別待遇,都是源於具有偏見的機器學習(machine-learning)系統。[/#f70818]

Wachter-Boettcher 強調,部分缺陷似乎較為瑣碎,但若是集中來看,就反映出科技業正遠離真正用家。她認為,如果矽谷未能徹底變革,改善現行聘用、升遷及資助的準則,以及處理濫權指控的手法,只會原地踏步。相反,愈早阻止科技界繼續孤立、不公及敵對多樣性,便能愈早開始研發真正為所有人所用的科技。

原文:
http://www.cup.com.hk/2017/08/10/techs-sexism-doesnt-stay-in-silicon-valley/
Good0Bad0
2017/08/10, 11:14:36 晚上
本貼文共有 0 個回覆
此貼文已鎖,將不接受回覆
發表文章發起投票