淘新聞

“黑化”的微軟聊天機器人 Tay 重生,納德拉談微軟是如何把它變“善良”的

今年春季的時候微軟在 Twitter 上發佈了一個人工智慧聊天機器人 Tay,與我們熟知的微軟小冰類似,但在和使用者開放對話後不到一天的時間裡,它就“變成”了一個熱愛希特勒、譏諷女權主義的機器人,最終由於不恰當的種族主義言論引發了激烈爭議。

隨後微軟很快就下線了 Tay,並宣佈對 Tay 的演算法進行調整,避免聊天機器人再發表任何不恰當的言論。

而就在近日,微軟已準備好推出升級版 Tay:Zo。

鑒於 Tay 引發的重大問題,Zo 對敏感的話題一般會很聰明的選擇避開,當用戶問它政治問題時,Zo 會回復稱:“在討論政治時,人們會發表許多可怕的言論,因此我選擇回避政治問題。”

目前,Zo 目前只出現在聊天應用 Kik 的平臺上,微軟這次對平臺的選擇很謹慎。不過隨著模型的成熟,預計 Zo 將會重新回到 Twitter、Facebook Messenger 和 Snapchat 等所有主流平臺。

眼看升級版 Tay 重新回到人們的視線,同時更換了新品牌名 Zo,那麼這半年間微軟是如何訓練 Tay 的呢?我們看看微軟 CEO 納德拉是怎麼回答的。

什麼時候保護人工智慧免受攻擊或反向工程變成了一個問題?

納德拉:

這是一個大問題!

我從 Tay 身上得到的最大收穫之一就是,我們需要打造出能夠抵禦惡意攻擊的人工智慧。

有個有趣的現象是,Tay 在 Twitter上引發巨大爭議,但我們在中國沒有遇到同樣的事情。聊天機器人在中國進行的社交對話是不同的,如果你把它置於美國的語料庫當中,結果就不一樣了。

當然,Tay 還遇到了集中攻擊,這些攻擊就像如今開發軟體要能經受住 DDOS 攻擊,你也要能夠經受住語料庫攻擊——這種攻擊試圖污染語料庫,對 AI 進行誤導,從而讓 AI 學習模型選中錯誤的東西。

我們正想方設法應對這些挑戰。

我們開發 Tay 是作為一個學習模型的原型產品。

我們也並沒有說自己想要推出某個完美無缺的東西,它不像 Windows 10 的發佈,它屬於那種研究專案,而不是用來賺錢的產品。

儘管有那種種爭議,但這個項目確實幫到了我們,也起到了很好的號召作用,讓我們更好地為自己所談論的設計原則打好基礎,負起更大的演算法責任,思考品質保證意味著什麼。以及思考你是基於公開語料庫發佈產品,還是先發佈到一個不同的語料庫中並進行觀察。

這些都是我們正在學習和改進的技術。

如何打造透明的、道德的、負責任的 AI?

納德拉:

我做的第一件事情,就是在微軟內部提出原則,讓開發者重視這些問題:

我們打造的機器智慧是在幫助人類嗎?是在增強人類嗎?

我看到微軟開發的任何一款人工智慧產品時,首先會問:

它增強了什麼?做了哪些賦權?用了哪些我們可以在演算法上負起責任的訓練方法?

這些都要求都可以具體落實。不過,我並不想簡單地把這些要求當成業績指標類。落實這些要求,在於我們的開發人員、設計師以及產品選擇對這些問題的敏感性。

一家公司想要提供優秀的用戶體驗,都要提到設計原則,那麼對於優秀的人工智慧,它的設計原則是什麼呢?

這個問題,我一直在思考。

訓練深度神經網路時,負起“演算法責任”意味著什麼?

納德拉:

以圖像識別為例。

如果我們的圖像識別 API 本身就存在一些偏見,這有可能是因為缺乏資料,或者是特徵選擇出了問題,又或者是我們構建的卷積神經網路偏離了設計。我完全認為,我們必須負起責任,就像我們為那些軟體漏洞擔負責任一樣。

人工智慧運作的參數最終還是由人類工程師定義的。

並不是說我們想要所有事情時時刻刻都做到完美,但如果有人發現某個地方存在錯誤,那麼我們就會對它進行重新訓練。

是否認為存在一種讓所有業務都擁有聊天機器人的設計?

納德拉:

我想我們會找到答案的。

我認為有些特定的業務和特定的業務流程,如買保險是非常適合聊天機器人的,這可以通過設計實現。

事實上,監管的要求是當你購買保險時,使用聊天機器人的效果往往要比自己通過移動應用或網站摸索好得多。

如何才能讓聊天機器人說的話聽上去更智慧?

納德拉:

這個問題可以分為多個層次,教導電腦學會人類語言是我們的終極任務之一。

這些任務需要一步一步地來做,在 AI 學會自由運用人類語言之前,首先要讓它理解你來我往的對話。只不過實現語言生成是一個通用人工智慧(AGI)問題,它並不是一個應用人工智慧問題。

研究者必須掌握一種通用人工智慧和通用學習模型,它要能充分理解人類知識和詞彙中的所有語義。

只要遇到歧義和錯誤,就需要思考如何讓人工介入進行調校,以及如何升級到由人來做出選擇。在我看來,這就是 AI 產品最講究的地方。

如果有一定比例會出現歧義和錯誤,那研究人員必須要有處理異常情況的能力,可是這首先要能夠檢測出異常的地方來。幸運的是,在人工智慧中,你擁有信心和概率分佈的支持。這種情況下必須利用所有這一切讓人類介入進來。

以客戶支援為例,我們也承認虛擬助理並不能夠回答所有問題。

此類任務可能需要涉及到讓真人客服參與進行處理,這時候聊天機器人就從主角變成了配角。

客服代表回答問題,然後虛擬助理藉由強化學習從中汲取經驗教訓。

所以,那樣的過程將會幫助我們做得越來越好。但是,要做到這一點,我們需要在通用學習技術上取得突破性進展。