HKGalden科技臺
發表文章發起投票
專家警告:勿讓 AI 成法西斯工具
專家警告:勿讓 AI 成法西斯工具[/size=5]
2017年3月16日


水能載舟,亦能覆舟?

我們已進入了 AI (人工智能)世代,至少我們已進入了熱烈討論 AI 的世代。AI 可以做這,可以做那:在遊戲上戰勝人類、管理家居、編寫維基、寫劇本、評論小說……正當大家在擔心 AI 會否超越人類,在此以前,還要擔心多一項事情,勿要讓 AI 成為法西斯的工具。

微軟研發員 Kate Crawford 早前成立了專門研究 AI 與社會影響的組織 AI Now,她在上週日的美國 SXSW 大會發表演講,題為「黑暗日子:人工智能與法西斯主義的崛起」,解釋自動化系統以及預先編寫的程式如何有可能遭誤用,特別是落入別有用心的人手上。

Crawford 稱,在 AI 興起的同時,民族主義、右翼威權主權與法西斯主義也同時崛起。而以上運動都有共同性質,都是希望集中權力、追蹤民眾、妖魔化外人、提倡威權以及不受外力約束。AI 則可以成為助長極權的有力工具。

其中一個重大問題是 AI 的程式難以避免人為偏見,她以上海交通大學一項具爭議的研究為例,研究員聲稱開發了一套程式,可以基於面部特徵預測誰人有機會是罪犯。機器以中國政府的身分證相片來分析罪犯與非罪犯的面貌,從而得出所謂的「關鍵特徵」,據說以貌取人的準確度高達 89.51 %。


Faception 網頁介紹

上海交通大學的研究結果顯示,罪犯的面部特徵的確是異於常人。不過 Crawford 解釋,法官和警察對於奇異長相的人通常信任度也較低,這就是所謂「編碼偏見」,她說:「在獨裁者手上,這將會是一套可怕的軟件。」科技公司 Faception 聲稱能按人的面相分析性格,在網頁上的介紹顯示,中東相貌及留鬍鬚的人屬於「恐怖分子」,傾向具侵略性、兇惡、心理不平衡。

另一樣令 Crawford 擔心的是,AI 或讓人有機會用來標籤個別族群。就像歷史上 IBM 曾向納粹德軍提供技術支援,如計算「每日應有多少猶太人從隔離所中消失」的打卡機,及南非種族隔離所用的人口註冊表。舉例說,假如 Donald Trump 希望標示出在美國所有的穆斯林公民,或可利用 Facebook 上的痕跡,如劍橋大學 2013 年的一項研究表示,基於用戶在社交網絡上的「讚好」某程度可猜測他們的宗教信仰。基督教徒與穆斯林教徒有 82% 的個案可分辨,與分辨用戶是民主黨還是共和黨的結果相若(85%)。

還有一樣與政治相關的憂慮是,通過分析大數據,掌握選民喜好和習慣,讓社交網絡與搜尋廣告等宣傳攻勢更有效,左右關鍵選民選擇。例如各國公投議案中屢屢出現比例相若的結果,對議題沒有深入認識,很容易因接收到的有限資訊便決定投票意向。Crawford 擔心,這利用心理分析數據來左右人民看法的技術,在未來數年或會完全實現,這是法西斯所夢寐以求的,因此她認為我們有必要讓這些 AI 系統更透明及對社會負責。

原文:
http://www.cup.com.hk/2017/03/16/artificial-intelligence-as-a-fascists-dream/
Good0Bad1
2017/03/17, 12:03:30 凌晨
本貼文共有 0 個回覆
此貼文已鎖,將不接受回覆
發表文章發起投票