2016 年 AI 十大失敗案例有哪些?Pokémon Go 、微軟 Tay、特斯拉車禍上榜
雷鋒網按:眼看 2016 年還有幾天就要落下帷幕,在過去的一年裡,人工智慧如雨後春筍般成長起來,甚至有人稱之為“人工智慧元年”。自動駕駛、語音辨識、風靡全球的遊戲 Pokémon Go …… 機器似乎已經無處不在,無所不能了。
同時
,在這一年,人工智慧也闖了不少禍,我們需要對這些錯誤給予更多的關注,以免在未來重蹈覆轍。雷鋒網瞭解到,近日路易斯維爾大學網路安全實驗室(Cybersecurity Lab) 的主任 Roman Yampolskiy 發表了一篇論文,名為《Artificial Intelligence Safety and Cybersecurity : a Timeline of AI Failures》 ,其中列出了人工智慧在過去的一年裡表現不太好的例子。
Yampolskiy 表示,這些失敗都可以歸因於 AI 系統在學習階段以及表現階段中犯的錯誤。
以下是依據 Yampolskiy 的論文以及諸多人工智慧專家的意見,國外媒體 TechRepublic 整理而成的名單,排名不分先後。由雷鋒網編譯:
1.
Pokémon Go 讓遊戲玩家集中在白人社區
7 月份,風靡全球的 Pokémon Go 遊戲發佈之後,多個用戶注意到極少的 Pokémon 位於黑人社區。 Mint 的首席資料官 Anu Tewary 表示,原因是因為這些演算法的發明者並沒有提供多樣的訓練集,而且並沒有花費時間在黑人社區上。
2.
特斯拉半自動駕駛系統的車禍
今年,特斯拉的事故在全世界範圍內層出不窮。5 月份,在佛羅里達的一條高速公路上,一輛開啟了 Autopilot 模式的特斯拉發生了車禍,駕駛員致死。這是特斯拉全球首例死亡事件。之後,特斯拉對 Autopilot 軟體進行了重大更新,其 CEO 馬斯克在接受採訪時表示這種更新可以防止事故再次發生。此外,在中國等其他國家和地區也出現了多次特斯拉事故。不過,其中一些事故並不能說是 AI 直接導致的。
3.
微軟聊天機器人 Tay 散佈種族主義、性別歧視和攻擊同性戀言論
今年春天,微軟在 Twitter 上發佈了一個人工智慧驅動的聊天機器人 Tay,希望它能和網路上的年輕人相處愉快。起初,Tay 是為了模仿十幾歲的美國青少年女孩而設計的,但在推出後不久卻被人帶壞了,變成了一個“熱愛希特勒、諷刺女權主義”的壞蛋。最終微軟不得不將 Tay “殺死”,並宣佈將會對相關的演算法進行調整。
4.
谷歌的AI 阿爾法狗 AlphaGo 輸了與人類圍棋大師李世石的一局
今年 3 月 13 日,谷歌阿爾法圍棋與李世石的人機大戰五番棋第四局在韓國首爾四季酒店戰罷,圍棋大師李世石中盤擊敗阿爾法,扳回一局。雖然最後人工智慧還是以 1 比 3 的比分獲得了勝利,但是輸了的一局顯示目前的 AI 系統仍然不是很完善。
“或許李世石發現了蒙特卡洛樹搜索(MCTS)的弱點。” 新南威爾斯大學的人工智慧教授 Toby Walsh 說道。不過,雖然這被看做是人工智慧的失敗,但是 Yampolskiy 認為這種失敗是在可接受範圍內的。
5.
視頻遊戲中,非玩家角色創造出了製作者意料之外的武器
今年 6 月份,一個配備了 AI 的視頻遊戲“Elite: Dangerous ” 出現了一些遊戲製造者計畫之外的狀況:AI 竟然造出了遊戲設定之外的超級武器。一家遊戲網站對此評論:“人類玩家或許會被 AI 創造的奇怪武器打敗。”值得一提的是,隨後遊戲開發者就將這些武器撤銷了。
6. 人工智慧審美也有種族歧視
在首屆“國際人工智慧選美大賽”上,基於“能準確評估人類審美與健康標準的演算法”的機器人專家組對面部進行評判。但由於未對人工智慧提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,“美人在模式識別器中”。
7.
用 AI 預測犯罪,涉及種族歧視
Northpointe 公司開發出了一個用來預測被指控的罪犯二次犯罪幾率的人工智慧系統。這個被稱為“少數派報告”的演算法被指責帶有種族偏見傾向。因為在測試中,黑人罪犯被標注的概率遠遠高於其他人種。此外,另一家媒體 ProPublica 同時指出 Northpointe 的演算法“即使除去種族歧視的問題,在大多數情況下正確率也並不高。”
8.
機器人導致一個兒童受了傷
Knightscope 平臺曾打造出了一個號稱是“打擊犯罪的機器人”。今年七月份,這個機器人在矽谷的一家商場里弄傷了一個 16 歲的少年。洛杉磯時報援引該公司的話稱這是個“意外的事故”。
9. 中國用面部識別技術來預測罪犯,這被認為是有偏見的
中國上海交大的兩名研究人員發表了一篇名為“Automated Inference on Criminality using Face Images”的論文。據國外媒體 Mirror 報導,研究人員對一半是罪犯的 1856 張面部圖片進行分析,並且用一些可識別的面部特徵來預測罪犯,比如唇曲率 ( lip curvature ) 、眼內角距 ( eye inner corner distance),甚至還有口鼻角度 ( nose-mouth angle ) 等等。對於該項研究,許多業界人士質疑測試結果,並提出涉及了道德問題。
10. 保險公司利用 Facebook 大資料預測事故發生率
最後的這個案例來自英格蘭最大的汽車保險商 Admiral Insurance ,該公司今年計畫使用 Facebook 使用者的推文資料來測試社交網站和優秀司機之間的關聯。
這是對人工智慧的濫用。Walsh 認為“ Facebook 在限制資料方面做得很出色”。由於 Facebook 限制該公司獲取資料,這項被稱作“first car quote”的專案並沒有開啟。
從上述案例中,雷鋒網的讀者可以看出,AI 系統是很容易變得偏激的。因此人類更需要在多樣化資料集上對機器學習演算法進行訓練,避免 AI 產生偏見。同時,隨著 AI 的不斷發展,保證相關研究的科學檢測,確保資料多樣性,建立相關道德標準也變得越來越重要。
Via
techrepublic