原來現今的人工智慧臉部辨識還有這些隱憂,你該注意什麼?(上)
你有去了解過人工智慧的臉部辨識嗎?今天讓我們一起探討它目前的隱憂!
為了人工智慧辨識,你願意戴「白面具」嗎?臉部辨識的隱憂
人工智慧臉部辨識技術越加成熟,能辨別出「你是誰」已經是基本款中的基本款了!越來越多 AI 辨識技術宣稱可以「從臉孔辨識出智商、性取向、政治傾向甚至是犯罪可能」。
看上去功能如此強大的 AI,卻遭披露「其實只擅長辨認白人」,讓臉部辨識的隱憂浮出水面。
AI 臉部辨識技術已被廣泛使用,也實際應用於執法:根據紀錄,從 2011 年起美國聯邦調查局(FBI)偵辦案件時就開始使用臉部辨識技術,至今累計了超過 39 萬次的臉部辨識搜索紀錄,是近年美國執法部門應用成長速度最快的系統工具。
但隨之而來的是被大力敲響的警鐘:一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)指出,臉部辨識技術其實十分容易誤認有色人種。
只擅辨識「中年白人男性」的 人工智慧
AI 臉部辨識技術已經成熟了嗎?或許真的該打上個大問號。
來自 MIT 實驗室的迦納裔資料科學家喬伊‧波拉維尼表示,根據她於 2018 到 2019 年間做的兩項研究,證實眾多科技公司開發的 AI 都無法如辨識白人男性臉孔般、準確的辨識出膚色較深的女性臉孔。
其中,尤以 IBM 系統失誤率最高,竟高達 34 %;而亞馬遜的 Rekognition 會將 19 %的女性誤認為男性,若分析對象為膚色較深的女性,誤判機會更是高達 31 %,同時該系統在分析膚色較白的人種時,錯誤率幾乎為零。
波拉維尼發現,這些由科技巨頭如微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人、黑人與女性竟然出現了差別待遇:「判讀白人的正確度比較高,判讀黑人與女性的正確性則較低。」
延伸閱讀:
愛沙尼亞即將任用 AI 法官!人工智慧走入司法領域就一定公正嗎?
【疫情下的人工智慧】拉開「社交距離」後,機器人如何幫我們維繫心理連結?