淘新聞

能跟人類對話還不夠,機器人還得會用表情、手勢表達情緒|SIGGRAPH Asia 2016

機器會思考嗎?如果可以,機器能思考之後會跟人類的交互真的會更加順暢嗎?除了思想和語言能力之外,機器還需要達到什麼樣的能力才能與人交互更加自然有序?

從上個世紀中葉“讓機器去思考”這個概念被提出之後,研究者們都一齊向這個方向努力著,從最初的個人電腦到如今的AI熱,讓機器理解人類並與人類交互的研究熱度在當下的研究環境中已經達到了空前的巔峰,多數研究者不顧“機器人威脅論”也要研究如何讓機器人能夠更好的理解人類的行為,因為這種研究帶來的除了“威脅”之外還有更多的益處。

今日,Siggraph Asia 2016亞洲電腦圖像和互動技術展覽及會議在澳門舉行,南洋理工大學電腦工程和設計學院的教授Nadia Thalmann在會議上為大家做了一次“社交機器人及虛擬人類的行為建模”為主題的演講,在演講中她提到了社交機器人及虛擬人物在社會環境中與人互動所需要的挑戰,以及能給人類帶來什麼等等問題。

說起Nadia Thalmann教授很多雷鋒網關注機器人的老讀者應該都不陌生,今年年初的時候,她照著自己的樣子研發了一款模擬機器人,並因此而聞名。這個類人機器人名叫Nadine,在當時,Nadia表示這款機器人主要用於社交用途,是為了陪伴老人和兒童而生,未來也許可以解決由人口老齡化引起的勞動人口緊縮的問題。在這次的Siggraph Asia 2016上,Nadia Thalmann仍然大量的使用了Nadine作為演講實例。

目前對於社交機器人來說,更多的研究都集中在“讓機器人如何理解人類的語言”方面,這也是Nadine與這些機器人不同的地方,Nadine的研究方向是,除了能讓她理解人類的語言並和人類交流之外,還會有自己的表情和動作,並且這些表情和動作能夠表達她的情緒,同時,她也能夠通過識別人類的表情和動作來理解人類的情緒。這樣就大大的增加了機器人在社會環境中與人互動的能力。

在演講中,Nadia Thalmann教授為大家播放了一段視頻,演示了Nadine在與人交流過程中的動作識別和交流上的交互。

從視頻中可以看出,在動作方面,比如人在她面前丟了一本書,她就會立即做出反應,並告知人類:“你掉了一個東西(something)”,不過目前她也只能識別出這個動作本身,至於動作的內容(別如識別掉落的物體)她並不能進行識別。

而在語言方面,人類與其對話時,表現出不友好的一面,比如用粗俗的語言跟她對話,她也不會像Siri一樣機械地進行回答,而是會情緒化的對人類語言進行“反擊”,並“怒目而視”。

Nadia Thalmann說,對於機器人來說,給它加入動作識別及功能是非常重要的,因為一個真正的社交機器人應該能理解用戶的行為,並用以手勢、面部表情、目光等動作加以回應。

要達到以上的目標是非常難的,所以,Nadia Thalmann也在會上提出了社交機器人未來研發的三點挑戰:

讓機器能夠全面的感知用戶的行為,並對用戶的行為進行解釋分析,理解用戶的意圖。

做好利用局部傳感讓機器人在社交場合做出適合當時環境、語境的行為決策,而不是機械般的程式化。

多線交流(不只是和一個人對話,而是多人環境)的同步以及反映的即時性的提升。

這些研究重點將在未來會一一實現,目前Nadine機器人只能有二十多種表情,而且能夠識別的動作也有限,並且只能使用類似Kincet的體感設備來感知人的動作,未來在感測器等硬體方面還會有很大的提升空間。為了能夠早日完成以上有挑戰的研究點,Nadia Thalmann以及她的研究團隊做出了一些具體的任務規劃,來逐步完成:

第一階段:讓機器人能夠和人類對話並對人類的生活方面的某些資料進行長期監測。它能夠幫用戶做一些簡單的事情,並且根據你的行為特徵來分析一些對使用者自身有意義的資料,比如健康資訊,並且這些資訊會嵌入到智慧系統當中,當機器人跟你進行對話時就會將這些資訊透露給你,舉個例子,當你連續工作好幾天,沒有得到正常的休息,機器人就會提醒你:你已經很久沒睡了,應該休息一下。

第二階段:在第一階段的基礎上增添多模式交互的框架,該框架能夠使機器人能夠完全理解使用者的語言,並且在於人類聊天的時候,能夠進行面部表情、手勢等外部語言輔助的表達,並能夠識別人類的表情和手勢。

第三階段:有獨立的思想和情感,能夠基於人格和人類進行情感交互,比如能夠有信任、同情等這類的抽象情感,並且能幫助人類解決更高級的問題,能提出更具有說服力的決策意見,成為你生活中完全的助手。

這樣的目標量化對於完成真正的類人機器人的目標目前看起來貌似是可行的,在這其中就要做很多細緻的工作,比如從外觀開始做,研究一些適合機器人的3D列印專案,來給機器人做基礎;還有仿生科技的研究,能夠讓機器人的行為舉止不至於傾向“恐怖穀”,要更加的自然。以上屬於外觀的建模,除此之外還需要給機器人做情緒建模,這方面就複雜的多,涉及的知識點異常龐雜。

但拎出外觀或者內核都不是最難的,其中最難點,也就是Nadia Thalmann她們正在研究的,是如何將二者完美的結合,讓其語言和動作進行一個自然的交互狀態,這才是類人機器人未來發展的關鍵所在。機器人真的達到第三階段能夠對人類有多大的幫助還不太好說,但一定能給人類的生活帶來翻天覆地的變化。