在過去的幾年中,Google翻譯等程式解讀語言的能力大大提高,Google甚至正在開發演算法對思想進行編碼,嘗試希望十年內可以使得計算機具有“常識”。
這得益于大量可用的線上文本資料和新的機器學習技術。在AlphaGo接連斬落棋壇大神的今天,人們欣喜地看到了這些年來人工智慧飛躍式的進步。
AlphaGo和李世石的比賽
然而,讓我們感到擔憂的是,隨著機器學習越來越擁有類似於人類的語言能力,它們也吸收了人類語言使用模式中根深蒂固的偏見和歧視。
日前,普林斯頓大學電腦科學家Arvind Narayanan在Science雜誌上發表題為《Semantics derived automatically from language corpora contain human-like biases》(語料庫自動匯出的語義中包含人類偏見)的論文,認為人工智慧已經正在從文本學習中獲得人類潛在的種族和性別偏見。
這篇文章重點介紹了一種被稱為“詞語嵌入”的機器學習工具,它已經在改變電腦解釋語言和文本的方式。
根據Arvind Narayanan是的解釋,他們選擇學習“詞彙嵌入”的一個主要原因是這項技術在過去幾年裡在説明電腦理解語言方面取得了驚人的成功。
“詞語嵌入”將詞的含義分解為一系列的資料(稱為“單詞向量”),通過分析詞語出現的頻率以及構建的數學模型來進行深度學習。
然而,令人驚訝的是,這種純粹的統計學方法似乎也捕捉到了詞彙背後豐富的文化和社會背景。
例如,在數學模型構建的“語言空間”中,“花朵”的詞意與“愉悅”相聯繫, 而“昆蟲”更接近於與不愉快的詞語相關聯。這更像是人們對於這兩個詞意的主觀情緒在AI上面的映射。
Arvind Narayanan的這篇文章還表明,心理學實驗中一些更令人不安的隱含偏見也很容易被演算法所習得。譬如說, “女性”這個詞大多與藝術、人文職業以及家庭關係密切,而“男性”這個詞更接近於數學和工程專業的範疇。
更讓人驚訝的是, AI系統更有可能將歐洲與美國人的名字與諸如“禮物”或“快樂”等積極愉快的詞彙聯繫起來,而非裔美國人的名字更常見於與不愉快的話語相關聯。
翻譯工具
機器演算法的偏見歧視並不是一個嶄新的問題。早在20世紀70、80年代,英國的聖喬治醫學院就使用電腦程式對申請人資料進行初步篩選。
該計畫類比了過去錄取人員的選擇模式,而結果拒絕的60位左右的申請人大多是婦女或擁有非歐洲人的名字。
英國的種族平等委員會最終決斷,聖喬治醫學院在這場招生過程中存在種族和性別歧視。
這既不是演算法的疏忽大衣,更不是程式師們的惡意操作,而是人類心底根深蒂固的“偏見”無法抹除,而電腦程式加劇了這個問題,並給了它看似客觀的外套。
這正如文章的聯合作者、巴斯大學的電腦科學家Joanna Bryson所說:
“很多人都在說這個實驗的結果表明AI是有偏見的。不,這正顯示出我們是有偏見的,而AI正在學習它。”
Bryson還警告說,AI的學習能力會潛在地加強現有的偏見。與人類大腦不同,演算法本身可能無法有意識地抵消這樣一種習得的偏見。
談及如何修正AI習得的偏見,文章的另一位聯合作者Caliskan提出,解決方案並不一定要改變AI學習的演算法。AI只是客觀地通過演算法捕捉到我們生活的世界, 只是我們的世界裡充滿了歧視與偏見。改變演算法的方式只會使其效果更差。
相反,我們可以從另一端入手,修正AI演算法學習之後的成果,讓它在二次學習後不斷習得人類的道德觀念。
例如,在使用Google翻譯的時候,你就可以對它進行調整,改善AI翻譯的品質:如果你看到“醫生”總是翻譯成“他”,而“護士”總是被翻譯成“她”,你可以身體力行地作出改變。
作者| 譚菲君
編輯| 傅博
(發佈/韋康)