DeepMind解密黑箱第一步:原來神經網路的認知原理和人類是一樣的!
雷鋒網 AI 科技評論按:因為AlphaGo而名聲大噪的人工智慧公司DeepMind近期發表了一篇論文介紹自己在神經網路的解釋性問題上最新探索。論文被ICML接受後,DeepMind的研究員們又寫了一篇通俗的介紹文章讓更多的人理解他們的方法和效果。
以下為雷鋒網 AI 科技評論對DeepMind介紹文章的翻譯。
人類已經教會了深度神經網路做許多驚人的事情,從識別和推理圖像中的物體,到在Atari遊戲和圍棋中發揮出超越人類的水準,不一而足。隨著神經網路的結構和所做的任務變得越來越複雜,神經網路學到的解題方法也越來越難以被人類理解。
人們把這個問題稱作“黑箱”。隨著神經網路越來越多地參與解決現實世界中的問題,解決這個黑箱問題也變得越發重要。
為了能夠瞭解和解釋這些神經網路系統,DeepMind的研究人員們一直在探索新的工具和方法。最近ICML就收錄了一篇來自DeepMind的論文,文中他們提出了一種新的、來自認知心理學的方法,來理解深度神經網路。認知心理學通過對行為的測量來推測認知過程的機理,有許多的認知心理學論文詳細解釋了這些機理,同時介紹了許多驗證機理的實驗方法。隨著最新的神經網路在特定任務上達到人類水準,認知心理學的方法就能對解決黑箱問題起到不小幫助。
黑箱
DeepMind在論文中研究了一個具體案例來展現觀點,他們設計了一個闡明人類的認知過程的實驗,用來對比説明理解深度神經網路如何解決圖像分類任務。
結果是,認知科學家在人類身上觀察到的行為,在這些深度神經網路中也能觀察到。更進一步地,人們可以從這些結果中深入理解神經網路是如何解決圖像分類任務的,這些理解不僅很有用,而且還令人驚訝。總的來說,這項案例研究的成功展現出了用認知心理學方法理解深度學習系統的潛力。
測量一次性詞彙學習模型中的形狀偏好
在DeepMind的案例研究中,他們思考了這樣一個問題:人類小孩是如何識別並分類物體的,這個問題也在發展認知心理學中得到了豐富研究。小孩有從單個例子猜測單詞意思的能力,人們稱作“一次性詞彙學習”,這種能力非常容易獲得,人們也往往以為這個過程非常簡單。然而,哲學家Willard Van Orman Quine提出過一個經典思想實驗,展示出了這個過程到底有多複雜:
一位實地語言學家前去體驗另一種文化,這種文化中使用的語言和他以前使用的完全不一樣。這位元語言學家就需要找肯幫忙的當地人教他一些單詞。當有一隻兔子跑過的時候,當地人說“gavagai”,語言學家就要猜當地人的這個詞是什麼意思。對語言學家來說,這個詞可以指代的內容有很多種,可能是兔子、動物、白色的東西、特指這只兔子,甚至是兔子身上單獨某個部位。實際上這個詞可以代指的意象是無窮多的,人類是如何在其中選中正確的那個的呢?
“gavagai”
50年以後,面對著能夠做一次性詞彙學習的深度神經網路,同樣的問題又出現在了人們的眼前。拿DeepMind開發的“匹配網路”舉例,這個模型中用到了注意力模型和記憶模型方面的近期發展,達到了僅憑單張分類示例就可以對ImageNet圖像進行分類的頂尖水準。但是我們並不知道網路在給圖像分類的時候採取了怎樣的假設。
為了深入探究這個問題,DeepMind的研究人員參考了一些發展心理學方面的研究。這些心理學家們發現了小孩有歸納偏好的證據。這種偏好可以消除很多不正確的指代,從而讓他們找到正確的指代。這種偏好包括:
整個物體偏好
,小孩會假定一個單詞指代的是整個物體而不是它的組成部分(消除了Quine對指代兔子身上單獨某個部位的擔心)
分類偏好
,小孩會假定一個單詞指代的是一個物體所屬的基礎分類(消除了Quine對指代“全體動物”而不是“兔子”這個基礎含義的擔心)
形狀偏好
,小孩會假定一個名詞的含義是根據物體的形狀而不是顏色或者紋理來確定的(消除了Quine對指代所有白色的東西而不是“兔子”這個具體物件的擔心)
DeepMind的研究人員測量了他們的神經網路的形狀偏好,這是因為人類形狀偏好的相關研究尤其多。
來自認知心理學的刺激示例,DeepMind用它們測量深度神經網路的形狀偏好。這些圖像是由印第安那大學認知發展實驗室的Linda Smith慷慨提供的
DeepMind的研究人員所用的經典形狀偏好實驗是這樣進行的:給深度神經網路展示三個物體的照片,一個試驗物體、一個形狀匹配物體(跟試驗物體的形狀相同)、還有一個顏色匹配物體(跟試驗物體的顏色相同、形狀不同)。然後把形狀偏好定義為試驗物體和形狀匹配物體被網路劃分為同一類的情況出現的比例,從而進行測量。
實驗中用到的圖像就是印第安那大學認知發展實驗室的人類實驗中所用的圖像。
這個認知心理學實驗的概要,運用了匹配網路。匹配網路會把試驗圖片(左側)和圖像A或者B(上方中間或者上方右側)進行匹配。輸出(右下方)就取決於這個匹配網路的形狀偏好。
DeepMind團隊用他們的深度神經網路(匹配網路和一個基準Inception模型)進行了實驗,發現他們的網路對物體形狀的偏好比顏色或者材質的偏好強得多,就像人類一樣。換句話說,它們確實有“形狀偏好”。
這種結果就表明,匹配網路和Inception分類器中都用到對形狀的歸納偏好來消除錯誤的假設,讓研究者對這些網路解決一次性詞彙學習的方法有了一個明確的瞭解。
除了形狀偏向,DeepMind團隊還發現了一些有意思的事情:
他們發現形狀偏好在網路的早期訓練中逐漸出現。這讓人聯想到人類形狀偏好的出現:心理學家發現更小的小孩比大一些的小孩的形狀偏好要弱,成年人的形狀偏好最強烈。
他們發現選用不同的隨機種子做初始化和訓練會導致網路的偏好程度也有所不同。這說明當研究深度學習系統並做出結論時,研究的樣本數量需要很大才行,就像心理學家已經知道不能只研究單個物件就得出結論。
他們發現即便幾個網路的形狀偏好有很大區別,它們的一次性詞彙學習表現卻都差不多,說明不同的網路可以找到很多種同樣有效的方法解決複雜問題。
這種偏好在標準的神經網路架構中就存在,但以前沒有人認識到過。此次發現了這種偏好,表明了用人類創立的認知心理學闡釋神經網路解題方案的潛力。其它心理學領域的研究也有可能起到幫助,情景記憶文獻中的觀點可能可以幫助理解情景記憶架構,語義認知文獻中的方法可能可以幫助理解近期的概念形成模型,以上在內的許多心理學領域都有豐富的文獻,很有可能會給人類帶來強有力的新工具,幫助解決“黑箱”的問題,也讓人類更好地理解神經網路的各種行為。
論文地址:https://arxiv.org/abs/1706.08606
via
DeepMind Blog
,雷鋒網 AI 科技評論編譯