淘新聞

好壞一起學?人工智慧出現種族和性別偏見

理論上人工智慧(AI)是不會自動超越人類對性別和種族產生偏見的。但是實際應用上卻相反,AI 已經出現了種族歧視和偏見。一項研究發現,電腦在學習人類語言的同時還吸收了人類文化中的一些根深蒂固的觀念,出現了相同的人類偏見。

普林斯頓大學資訊技術政策中心的電腦科學家們發現了這一問題,他們解釋,電腦 AI 出現種族歧視和偏見源於演算法偏差造成的。此前心理學家曾經做過一項稱為“隱性關聯測試(IAT)”,測試已揭示人類的偏見。而在新的研究中,AI 在學習人類語言的時候也把這種關聯詞學到其中,從而也出現像人一樣的性別種族偏見。

這項研究被刊登在 2017 年 4 月 14 日發表的《科學》雜誌上,為了揭示 AI 在語言學習中可能出現的偏見,研究團隊們根據 IAT 創建了新的統計檢測,重點關注一種名為“單詞嵌入”機器學習工具。結果發現這種學習演算法改變了電腦解讀語音和文本的方式,結果表明,演算法與 IAT 一樣擁有同樣的偏見,也就是把表示愉快的單詞與(美國和英國的)白人面孔聯繫起來。這將意味著演算法的存在也會讓隱性關聯出現在 AI 之中,從而也會帶來人類偏見。更嚴重的是,由於 AI 的學習速度驚人,這種人類偏見或許比現實社會中的還要嚴重。

曾有研究表明,性別歧視和種族偏見將會對人類行為產生深遠的影響。研究從面試角度進行,對於非洲裔美國人,如果面試者的名字是歐洲裔美國人,即使簡歷內容相同,後者所能獲得的面試邀請將比前者多出 50%。而我們使用 AI,並不希望它給我們帶來任何行動上的麻煩。

所以除非採用明確的程式設計來解決這個問題,否則,這些演算法將讓 AI 與現實社會一樣,充斥著相同的社會偏見。