精品国产第一福利网站,麻豆免费版,国语熟妇乱人乱A片久久,又黄又爽又色视频

人工智能有“白人男性”偏見?

人工智能
2019
05/04
23:01
千家網
分享
評論

原標題:Lack of STEM diversity is causing AI to have a ‘white male’ bias

紐約大學AI Now研究所的一份報告發(fā)現(xiàn),主要由白人男性組成的編碼隊伍正在導致算法上的偏見。

該報告強調,盡管逐漸縮小,但微軟(Microsoft)、谷歌和Facebook等大型科技公司缺乏多樣化的代表,正導致人工智能更多地迎合白人男性。

例如,F(xiàn)acebook的人工智能員工中只有15%是女性。在女性只占10%的谷歌,這個問題更加嚴重。

報告作者莎拉·邁爾斯·韋斯特、梅雷迪思·惠特克和凱特·克勞福德寫道:

“到目前為止,人工智能行業(yè)的多樣性問題及其構建的系統(tǒng)中存在的偏見問題往往被單獨考慮。

我們認為,這是同一個問題的兩個版本:勞動力歧視和制度建設方面的歧視問題交織在一起。”

隨著人工智能在社會上的應用越來越廣泛,一些群體可能會因其優(yōu)勢而落后,同時“強化了‘正常人’的狹隘觀念”。

研究人員強調了已經發(fā)生這種情況的例子:

亞馬遜備受爭議的reko人臉識別人工智能尤其難以識別深色皮膚的女性,但另一項分析發(fā)現(xiàn),其他人工智能在識別非白人男性時也面臨著同樣的困難。

一種簡歷掃描人工智能,它以之前成功申請者的例子為基準。人工智能將簡歷中包含“女性”字樣或就讀于女子學院的人降級。

人工智能目前被部署在少數能改變生活的領域,但這種情況正在迅速改變。執(zhí)法部門已經在尋求使用這種技術來識別罪犯,甚至在某些情況下是先發(fā)制人的,以及做出量刑決定——包括是否應該準予保釋。

研究人員指出:“利用人工智能系統(tǒng)對種族和性別進行分類、檢測和預測,迫切需要重新評估。”“這些工具的商業(yè)部署令人深感擔憂。”

【來源:千家網】

THE END
廣告、內容合作請點擊這里 尋求合作
ai
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表砍柴網的觀點和立場。

相關熱點

4月27日,清華大學建校108周年之際,由清華大學電子工程系主辦的“清華大學108周年校慶AI高峰論壇暨AI使能平臺發(fā)布”會議在清華大學羅姆樓隆重召開。本次論壇以“智能+,讓AI更使能”為主題,向社會展示清...
人工智能
4月27日消息據CNET日本站消息,SECOM、AGC、DBA(DeNA)和NTT DoCoMo四家公司于4月25日推出了世界首款“虛擬安全系統(tǒng)”,可以使用AI虛擬角色(Virtual Character)進行安保、接待業(yè)務。
業(yè)界
作為Facebook的創(chuàng)始工程師,扎克伯格在公司創(chuàng)建早期貢獻的代碼比任何人都多,但是現(xiàn)在,身為Facebook CEO的扎克伯格,已經沒有太多機會去親自編寫代碼了。
人工智能
一項名為Machine Intelligence from Cortical Networks(皮層網絡機器智能,以下簡稱Microns)試圖對于大腦灰質皮層進行“逆向工程”,轉換成可為機器所用的算法。
人工智能
雖然歐盟在人工技能(AI)技術競賽上落后于北美和亞洲,但為建立本土消費者對AI產業(yè)的長期信心,歐盟卻在構建全球監(jiān)管框架上走出了第一步。
業(yè)界

相關推薦

1
3