您的位置:首頁>手機>正文

F8 2017 | 小紮也憂傷,識別直播殺人,AI 能做些什麼?

雷鋒網按:

在北京時間今天淩晨開幕的 Facebook 年度開發者大會 F8 上,創始人紮克伯格在開幕演講中,向 Facebook 直播謀殺的受害者表達了慰藉。此事在網路上傳播甚廣,其中一個爭議的焦點是 Facebook 在事發兩小時後才將視頻移除。在直播和各類視頻內容爆炸的年代,及時識別出使用者上傳的不良內容,同時又不損害用戶體驗,成為各大平臺面臨的一道技術難題。針對這個問題,人工智慧成為良策,但現在也沒有達到完美,國外媒體 Wired 就撰文進行了分析,雷鋒網對文章進行了編譯。

上周日,Steve Stephens 在 Facebook 上傳了一個 57 秒視頻,視頻中他殺害了一名男子後自殺。該視頻在他的 Facebook 主頁上掛了兩個小時後才被 Facebook 識別後刪除。但是這兩個小時已經足夠讓數千人在 Facebook 上分享這個視頻,讓各種協力廠商網站下載該視頻並重新上傳給他們的用戶。

整個事件重新燃起了一項關於社交媒體的激烈辯論:社交媒體公司究竟應該怎麼做才可以防止他們的網頁上出現不良內容?並且,一旦不良內容出現,就無法避免它被保存和傳播到網路的各個角落。所以社交媒體企業應該如何將不良內容直接扼殺在搖籃裡?

防止一個視頻在網路上公開的最佳方法就是在它第一次上傳時進行阻止。Facebook 可以通過很多步驟實現該方法,例如他可以堅持人工審查核准每一個視頻的上傳。但是這並不現實,因為這會使大批喜歡即時分享生活的用戶離開 Facebook,公司並不能承擔這樣的風險。

另一個方法是,Facebook 可以在不良視頻公佈時立刻刪除它,但是這又會出現另一個問題:即時精准定位和刪除圖像材料在技術上還無法實現。技術演算法還無法達到自動篩選並刪除的能力,而雇傭大量人員手動處理也並不現實。但如果 Facebook 授權演算法直接刪除視頻,一定會發生不可避免的錯誤。就算是 Facebook 可以根據其服務條款給予演算法這樣的權力,公司也會因為審查問題被指控。這樣的影響是巨大的,因為沒有人喜歡自己的視頻因為演算法的錯誤而被刪除,而用戶的不信任問題也是 Facebook 根本無法承擔的風險。

因此,Facebook 目前採用的是多管齊下的解決方法。任務前端是 Facebook 的使用者,公司根據使用者對視頻的流覽和標記來跟蹤不良視頻。利用一些人工智慧演算法,挑選出潛在的不良視頻(如兒童色☆禁☆情等)。此類視頻被標記後,會送到 Facebook 的內容審查部門,該部門有上萬人每天觀看數小時的視頻,人工決定視頻是否被刪除。這個系統還很不完善,但是目前,人工審查仍然比 AI 技術靠譜的多。

但是最終,AI 識別不良視頻會變得越來越有效,人類會與 AI 合作作業,而不是被AI 所代替。Facebook 人工智慧搜索的主管 Yann LeCun 說:“我認為,只要有足夠的資料訓練,我們是可以實現這一技術的。”儘管他沒有回答周日殺人視頻的處理細節,但是他表示 Facebook 未來會做的更好。對 Facebook 來說,用 AI 即時監控視頻,識別殺人兇手的技術完全可以實現,只是還不是現在。

上傳殺人視頻的 Stephens

現在還不是時候

理想情況下,Facebook 可以這樣解決 Stephens 的視頻:當他第一次上傳說明他想要殺人的視頻時,AI 軟體就應該立即“看過”該視頻,並將它標為優先順序別。接著優先順序的標識會觸發 Facebook 人工審核部門的警報,迅速開始人工審查視頻內容,發現直接危害,刪除該視頻,關閉 Stephens 的帳號,通知有關部門。

但是現實並不是這樣。根據 Facebook 全球運營副總裁 Justin Osofsky 昨天發表的聲明稱,最初上傳的視頻並沒有被標識,第二個視頻,也就是有謀殺者自己的視頻是在 Stephens 上傳超過一個半小時後才被標識了出來。Osofsky 說,只要有使用者將危險視頻標識出來,Facebook 的審查部門在23分鐘內就可以將該視頻從網站中刪除。

但是問題仍然是,如何讓這個程式迅速反應立即處理。人工智慧目前還無法識別出第一個視頻中的危險因素,甚至對第二個視頻中出現的謀殺者也無能為力。為了讓 AI 介入謀殺,AI 必須首先能夠處理 Stephen 的語言,分析他的語音語調,分辨他說到殺人時究竟是開玩笑還是真正想法。LeCun 說:“確實有這樣的技術,但是目前還不清楚將該技術整合進深度學習框架中後是否還能有效率的運行。並且由於缺乏人類的常識,這種系統會犯低級錯誤。”

Facebook 明白 AI 必須學習這個技術,所以公司在這方面投入巨大。LeCun 的團隊是繼穀歌團隊後在該領域進行前沿研究的第二大團隊。他的團隊已經開發了演算法説明電腦標識各種問題內容,比如兒童色☆禁☆情、裸☆禁☆體、產權侵害問題等。去年秋季, Facebook 總裁紮克伯格在 WIRED 的採訪中說到,目前網路上一半的標識都是由 AI 完成的,而非人工作業。“ 這是一個人類與 AI 並肩作戰的時代,AI 正在幫助人類解決超大體量的問題。同時,我們也在發展新技術,探討這種聯合可以做到什麼。”

但即使紮克伯格現在已經意識到了這一點,目前AI 與人工必須相互配合工作,Stephens 殺人視頻的例子正是一個鮮活的例子。本週二在三藩市的 F8 開發者會議上,紮克伯格直接回應了社會辯論:“我們要做的還很多。上周日的悲劇提醒著我們,我們會繼續努力,盡我們所能避免這樣的悲劇再次發生。”

訓練電腦識別暴力問題比識別裸☆禁☆體圖像要難得多,相當於識別假新聞的難度。這需要對背景線索和形式的複雜理解。

AI 可以做些什麼?

因為 Facebook 需要大量時間來訓練其神經網路來規範化這個過程,所以目前階段,Facebook 需要改變其審查過程來應對危機。在視頻殺人事件發生後的聲明中,Osofsky 說:“在一系列恐怖事件發生後,我們正在改善上報流程,確保使用者可以儘快向我們報告網站中存在的危險視頻。”

這意味著 Facebook 將簡化加速優先順序別審查內容的過程,增加更多人工審查員,使視頻審查過程更快。同時,人工審查員會繼續訓練 AI,但這需要花費大量時間,AI 需要大量暴力視頻的例子進行學習,才能有效地識別出危險視頻。所以第一件事情是收集足夠多得的正確標識的暴力視頻。這需要人工雇員不斷地流覽暴力視頻,標識暴力語言,這一過程將會比較漫長。

當考慮到 Facebook 的直播功能時,問題就更嚴重了。直播視頻更加難以控制,所以很多人直接建議 Facebook 關閉其直播功能。當然這是不現實的,Facebook 去年開發該功能的目的就是為了與其他直播網站相競爭,公司絕不會因此而放棄直播。另外,直播功能還引發了另一種形式的暴力事件。比如去年,黑人 Philando Castile 被員警射殺後,他的妻子用 Facebook 直播了射殺後的場景,還在直播中發出了全球範圍內的求救信號。

Lehigh 大學傳媒專業副教授 Jeremy Littau 說:“無論是好是壞,即時視頻或直播視頻終將存在下去。Facebook 必須面對這個現實。”

不過,Facebook 可以像廣播式網路的功能一樣,堅持對直播視頻進行一定的延遲處理。但那時正如上文所說,除非用人工或AI 來監控所有視頻,否則延遲直播也不會起到太大作用。

然而,有一件 Facebook 可以實現的事就是,控制協力廠商從 Facebook 上下載視頻的過程(與 Instagram 做法類似)。這樣可以阻止如 Live Leak 的協力廠商網站獲取並再次傳播 Stephens 的暴力視頻。這樣的小調整至少可以避免不良視頻在其他地方再次上傳,進入互聯網的永久無法刪除的記憶。

Via

wired.com

喜欢就按个赞吧!!!
点击关闭提示