VR|AI偏見無處不在!超1/3公司因AI偏見而蒙受損失

VR|AI偏見無處不在!超1/3公司因AI偏見而蒙受損失

當你看短視頻 , AI會根據你的喜愛推薦內容 , 這就是一種偏見 。 很多企業也在引入AI系統 , 偏見可能會給企業帶來損失 。

DataRobot在美國、英國調查350多名技術人員 , 超過三分之一(36%)聲稱它們因AI偏見蒙受損失 。 在受損失的企業中超過一半(62%)損失了營收或者客戶(61%) , 將近一半(43%)失去了員工 , 超過三分之一(35%)卷入法律糾紛 。
世界經濟論壇AI專家Firth-Butterfield認為 , AI造成損失的原因很多 。 他說:“如果你用AI HR算法挑選出不合適的人 , 可能會損害營收 。 如果你用帶偏見的算法貸款 , 業務就沒法增長 , 因為最終AI選擇的貸款對象會是恒定的一小部分人 。 ”
受訪者認為 , 算法不可避免會對人產生偏見 , 產生偏見的因素很多 , 有性別(34%)、年齡(32%)、種族(29%)、性取向(19%)、宗教(18%) 。
Forrester在報告中警告說:“基于人工智能的歧視——即使是無意的——也會對監管、聲譽和收入造成可怕的影響 。 ”雖然大多企業面對AI時將公平作為原則 , 但要持續下去是一大挑戰 。
華盛頓DC智庫Cato Institute的高管Mathew Feeney認為 , AI產生偏見是很復雜的 , 很大程度是因為訓練系統的數據帶來的 。 Mathew Feeney認為 , 現在面部識別很流行 , 它用到了AI技術 , 而面部識別充滿偏見 。
Mathew Feeney解釋說:“當我們用系統識別黑人身份時 , 可靠性沒有那么高 。 系統要訓練 , 訓練需要照片 , 當面向特定種群的照片不夠多 , 或者質量不夠好時就會出現偏見 。 ”“并不一定是工程師或者設計師心存邪念 , 只是訓練數據有問題 。 ”
Firth-Butterfield認為:“開發算法的人也有偏見 , 這種偏見也會影響算法 。 如果算法開發者是一名30歲的男子 , 他是白人 , 他帶入的偏見會與30歲的非裔美國女子不同 。 ”
信息技術與創新基金(Information Technology & Innovation Foundation)副總裁Daniel Castro認為人類在使用AI偏見一詞時反復無常 。
Daniel Castro說:“我認為所謂的AI偏見是算法精準度存在的錯誤 , 也就是估計值與真實值之間的差異 。 ”“大多公司有強烈的市場意愿來消除AI偏見 , 因為這樣做算法才會更精準 。 ”“例如 , 如果算法未能將最優產品推薦給購物者 , 公司營收就會減少 , 蛋糕被競爭對手拿走 。 ”“企業出于聲譽考慮會要求消除AI偏見 , 否則產品和服務就會被認為不合格 。 ”
Daniel Castro還認為 , 有時靠市場力量消除偏見沒有效果 。 他說:“出于稅收目的 , 政府機構可能會用AI算法估算財產價值 , 想用這種市場機制來消除偏見是很難的 。 在這種環境下 , 政府應該提供一套替代性監管機制 , 比如通過透明的的措施來保證 。 ”
“有些人提到AI偏見會將它視為歧視 。 如果房東歧視特定租戶 , 不論是用算法還是人力來歧視 , 我們都應該訴諸法律 。 ”
DataRobot就AI監管詢問了受訪者 。 81%的人認為政府監管在兩個方面很有用 , 一是定義偏見 , 二是預防偏見 。 但也有45%的人認為政府監管會導致經營成本增加 。 32%的人擔心如果沒有政府監管部分群體可能會受傷 。
Feeney說:“有許多人呼吁政府監管 , 但要監管的AI范圍太廣了 , 有面部識別、無人駕駛、軍事應用等等 。 ”
德勤預測 , 2022年圍繞AI監管會有很多的討論 , 但監管全面實施至少要等到2023年 。 有些地區可能會完全封殺AI部分細分產業 。
德勤高管Paul Silverglate說:“AI有很大的潛力 , 2022年它會面臨更多的審查 , 因為監管者想深入理解新興AI應用的隱私、數據安全問題 , 力求保護好消費者 。 ”

相關經驗推薦