代表人類科技未來的人工智慧技術正逐漸滲透到越來越多的垂直領域,但我們審核內容的方式仍然有些原始。擁有近20億用戶的科技巨頭Facebook正在努力扭轉這一局面。
從此前流出內部幻燈片來看(這些幻燈片展示了Facebook如何判斷哪些內容違反了其社區標準),Facebook仍然很大程度上依賴于其社區運營團隊來決定保留或刪除哪些帖子。
也就是說,儘管馬克·紮克伯格(Mark Zuckerberg)正努力將人工智慧技術推廣到所有領域,但在內容審核方面人類仍然佔據著主導地位。好在局面已經開始有所改變。
據雷鋒網瞭解,Facebook曾在今年3月份宣佈,將推出一套能夠識別出試圖自殺或自殘的使用者的AI系統。這套系統通過比對使用者的帖子和評論與其先前帖子的相似性來判斷其自殺的風險。如果系統判斷某條帖子具有自殺傾向,就會在其他用戶流覽這條帖子時,突出顯示“上報自殘”的選項。
值得注意的是,是否上報最終還是由人來決定的。AI無法判斷,它只能提供幫助。
Facebook在判斷我們上傳照片的內容時,已經表現得越來越出色,即使照片中沒有任何文字或標籤。早在今年二月份,Facebook就指出,用戶可以使用它基於AI的圖像識別工具來搜索照片,比如搜索上面有穿黑襯衫的人的照片。
AI在識別照片上的內容以及揣測帖子背後的意圖等方面的進步,對於人們識別每天發佈在Facebook上的有關暴力、虐待和威脅的內容,具有莫大説明。Facebook發言人表示,公司的初步目標是用自動化系統協助人類管理員。
雷鋒網好奇的是,既然AI系統可以識別照片中的內容以及帖子背後的意圖,那麼是否也可以用它來自動標記和刪除網站上的敏感內容呢?網路上這樣子的內容實在太多了。據雷鋒網瞭解,短短一個月內,Facebook就發現了五千五百萬起疑似性騷擾和色☆禁☆情報復的案例。
目前來看,AI系統還無法擔負這一重任。Facebook發言人坦承,其AI系統在理解語境方面還不夠智慧。
對於Facebook來說,某條帖子的語境對於判斷它是否應該被刪除至關重要。由於上下文間的關係往往比較隱晦,尤其是在語義本身比較模糊時,AI系統通常無法準確判斷。
在對待有關性和暴力的內容時,根據此前洩露出的Facebook內部文件,社區運營團隊在對待兩條敏感帖子時的處理方式完全不同。發佈“Little girl needs to keep to herself before daddy breaks her face”這樣的內容是被允許的,“#stab and become the fear of the Zionist”則不行。
理解這些判斷依據對人類來說尚且有些困難,人工智慧系統就更是無能為力了。
Facebook改變現狀的願望很強烈,而且已經在大力推動用人工智慧監測網站上的圖片和視頻內容了。
紮克伯格在二月份的公開信中說道:
“我們正在研究可以識別照片和視頻內容的AI系統,這套系統可以標記疑似內容,以便我們的團隊再次審核。這項研究仍處於早期階段,不過我們已經開始讓它監控部分內容了,而且它已經提供了我們團隊審核內容中的三分之一。”
這套系統是否可以用來監控我們發佈的文字及其語境還有待觀察,不過有一點可以確定,Facebook正在為這一目標而努力奮鬥。