掌視科技:人工智能在多領域表現出對女性的“偏見”(2)

  亞馬遜研究后發現,因為在科技公司中,技術人員多數是男性,讓人工智能誤以為男性特有的特質和經歷是更重要的,因而將女性的簡歷排除在外。斯坦福大學的研究人員則發現,圖片識別率異常的原因是,“喂”給AI的圖片大多是白人、男性,缺乏少數族裔,而包含女性的圖片里,往往會出現廚房等特定元素。

  換句話說,機器不過是“學以致用”。

  這看起來很難有改善的可能,現有的訓練方式甚至會加深“偏見”。你一定有過這樣的經歷,剛在購物網站上購買了洗發水,就在各類軟件的開屏廣告、“你可能喜歡”里看到10個品牌的30種其他洗發水,仿佛自己要開雜貨店。

  一項研究表明,如果初始數據中,“下廚”與“女性”聯系起來的概率是66%,將這些數據喂給人工智能后,其預測“下廚”與“女性”聯系起來的概率會放大到84%。

  并不是每個人都會平等地出現在數據里。現實生活中,女性往往被認為不擅長數學,不適合學習理工科,這導致相應領域的女性從業者人數偏低。前述報告顯示,女性只占人工智能研究人員的12%。

  美國心臟及中風基金會發布的《2018年心臟病報告》顯示,三分之二的心臟病臨床研究仍然重點關注男性。因為招募的志愿者都是年輕人,一家血液檢測機構的人工智能誤將老年人的血液都判斷為不健康。

  比爾·蓋茨也曾在2019年年度公開信中抱怨,健康和發展方面,目前有關婦女和女童的數據缺失嚴重,這使基金會和決策者難以有針對性地制訂政策、評估效用。

  目前,我們還無法理解人工智能如何運算和預測結果,但讓技術人員上幾門統計學、社會學課程,就能消除數據帶來的誤會。2015年起,蓋茨基金會開始投入資金,致力于填補這些數據上的空白。

  這些錯誤和“偏見”看起來顯而易見,但對從出生起就在人工智能環境下生活的人來說,習慣會慢慢變成自然。美國一家人工智能公司的創始人偶然發現,自己4歲女兒與亞馬遜的AI語音助手Alexa對話時,發布指令的方式“無論從任何社會習俗角度看,都很無禮”,才意識到,Alexa給孩子樹立了一個糟糕的榜樣。

  當謊言重復一千次,它就變成了真理。在被偏見同化前,我們的眼睛不僅要盯著機器,還要盯著我們自己。

文 / 采集俠 2019/05/29

上一篇:科技引領經開區高質量加速跑
下一篇:數知科技旗下BBHI向IAB TECH LAB開源代碼

友情鏈接: 諾達軟件  恩施青年網  勞動仲裁網  洛鵬律所  明星緋聞網  洛陽機械  中世普為生物  北京吸脂網  LG博客  游戲資訊網  

分析港彩平特肖尾软件