歡迎關(guān)注“創(chuàng)事記”微信訂閱號(hào):sinachuangshiji
文/劉俊寰
來源:大數(shù)據(jù)文摘(ID:BigDataDigest)
視頻時(shí)代正在到來。
在全球范圍內(nèi),根據(jù)YouTube在2019年公布的數(shù)據(jù),其日活躍用戶數(shù)已經(jīng)突破了19億。
大量視頻內(nèi)容涌現(xiàn)的同時(shí),暴力、色情內(nèi)容也隨之進(jìn)入互聯(lián)網(wǎng),成為用戶視頻瀏覽中的“定時(shí)炸彈”。
在這個(gè)AI賦能一切的時(shí)代,人工智能似乎正在視頻內(nèi)容的審核中大展拳腳。
2018年,F(xiàn)acebook推出DeepText,利用深層神經(jīng)網(wǎng)絡(luò)架構(gòu)理解內(nèi)容;而YouTube早就推出了Content ID,監(jiān)測并刪除涉及色情和暴力等違規(guī)視頻,多年來在該技術(shù)上花費(fèi)了超過1億美元。甚至不少媒體都預(yù)言,AI將憑借著其對(duì)海量數(shù)據(jù)的組織能力,不久后會(huì)取代人工審核。
但事實(shí)真的如此嗎?
近日,知名海外科技媒體TheVerge到訪谷歌位于美國奧斯汀的人工內(nèi)容審核師團(tuán)隊(duì),報(bào)道了團(tuán)隊(duì)成員因?yàn)榇罅繉徍吮┝?nèi)容遭受的可怕精神創(chuàng)傷。
Youtube的視頻審核決不是一項(xiàng)簡單的工作。
目前,全球共有約5000萬YouTube獨(dú)立創(chuàng)作者,每分鐘上傳的視頻時(shí)長高達(dá)500小時(shí),這給視頻審核師們帶來了極大的工作壓力。
谷歌位于奧斯丁的審核師總數(shù)目前超過百人,他們主要負(fù)責(zé)審核具有暴力色情等極端視頻,同時(shí),審核團(tuán)隊(duì)還配備有數(shù)十名來自中東的低薪移民進(jìn)行工作上的協(xié)助。
為了保證效率,奧斯汀的內(nèi)容審核團(tuán)隊(duì)每人每天必須觀看5小時(shí)以上的暴力色情視頻,審核人員時(shí)薪為18.50美元,年薪約37,000美元,但近兩年沒有加薪。YouTube首席執(zhí)行官蘇珊·沃西基(Susan Wojcicki)向媒體透露,谷歌去年曾承諾將內(nèi)容審核師每人每天的工作量減少到4個(gè)小時(shí),但至今仍未被執(zhí)行。
由于長時(shí)間暴露在極端視頻之下,谷歌團(tuán)隊(duì)的審核師們被曝遭受著嚴(yán)重的心理創(chuàng)傷。盡管谷歌為審核師們提供了一流的醫(yī)療服務(wù)和福利,但是不少審核師還是會(huì)被檢測出罹患PTSD、長期焦慮等精神問題。
注:PTSD,全稱為創(chuàng)傷后應(yīng)激障礙,是指個(gè)體經(jīng)歷、目睹或遭遇到一個(gè)或多個(gè)涉及自身或他人的實(shí)際死亡,或受到死亡的威脅,或嚴(yán)重的受傷,或軀體完整性受到威脅后,所導(dǎo)致的個(gè)體延遲出現(xiàn)和持續(xù)存在的精神障礙。
視頻審核師每天都在看什么?
在文摘菌的印象中,審核師的工作就是看看用戶上傳到網(wǎng)站的視頻,大概就像是…每天刷刷短視頻就能輕松掙錢一樣,可以說是夢寐以求的工作了。
但不管是YouTube還是國內(nèi),視頻審核都沒有文摘菌想象的這么美好。
在知乎上,相關(guān)話題的瀏覽量已經(jīng)達(dá)到了167951次,其中網(wǎng)友@white舉例說道,“ISIS殺戮人質(zhì)的視頻讓我狼狽不堪,非洲人民兇殘的一面讓我感到害怕,美國黑人區(qū)發(fā)生的讓我感到惶恐,美國天黑時(shí)散發(fā)出恐怖的色彩!可能人類的本質(zhì)就是殺戮,被割喉的人瘋狂的掙扎,暗紅色的血液緩緩慢流動(dòng)出來,日本自殺深林中令人作嘔的尸體……”
同樣,作為YouTube的內(nèi)容審核師,他們的工作并沒有輕松到哪去。
YouTube的內(nèi)容審核師Peter告訴TheVerge,他每天負(fù)責(zé)的就是極端暴力(violent extremism)的視頻審核,這可以說是整個(gè)審核工作中最致郁的一個(gè)板塊,正如上文提到谷歌為審核團(tuán)隊(duì)制定了嚴(yán)格的工作計(jì)劃,他必須看足夠量的暴力色情視頻。
“每天你都會(huì)看到有人砍人,或者射殺親友,”Peter說,“你會(huì)覺得,這個(gè)世界很瘋狂,這會(huì)讓你感到不舒服,甚至不想繼續(xù)活下去。我們到底為什么要這樣對(duì)待彼此呢?”
在過去一年里,Peter和同事們的生活都受到了極大的影響。一位同事患上了神經(jīng)衰弱,還有一位同事因工作中的焦慮和抑郁而痛苦不堪,飲食和作息逐漸紊亂,最后患上了急性維生素缺乏癥,不得不住院接受治療。
不止是Peter和同事們,另一位視頻審核師Daisy曾負(fù)責(zé)Google視頻中的恐怖主義和兒童虐待內(nèi)容的審核,從事這項(xiàng)工作后,她曾一度難以和孩子交流互動(dòng)。在接受精神科專家診斷后,她被確診患有PTSD,至今仍在接受治療。
根據(jù)報(bào)道,審核師在申請(qǐng)工作的時(shí)候通常并不了解極端視頻會(huì)對(duì)身心造成怎樣的傷害,而就YouTube的審核師所透露的內(nèi)容來看,谷歌向應(yīng)聘者所說明的審核數(shù)量和工作要求往往是過低的。
雖然谷歌為全職審核師制定了相關(guān)的醫(yī)療保健標(biāo)準(zhǔn),他們可以休假數(shù)月,以解決嚴(yán)重影響工作與生活的心理問題,但這只是谷歌內(nèi)部被報(bào)道的情況,全球范圍內(nèi)還有更多未被報(bào)道的內(nèi)容審核師遭受了心理創(chuàng)傷后被公司無情忽視。
AI能拯救視頻審核師嗎?
AI參與視頻審核并非近幾年才有,最早2000年左右,就有公司在做這方面的嘗試。但那時(shí),視頻審核需要人為設(shè)定特征和規(guī)則,比如黃顏色皮膚面積分布情況。一直到深度學(xué)習(xí)得到發(fā)展后,視頻審核才終于變得“靈活”了。
但是,在視頻審核上,目前業(yè)內(nèi)普遍采用的仍然是“人機(jī)結(jié)合”的方式,并且人工在其中占據(jù)著重要比例。
YouTube的算法工程師向文摘菌透露,目前YouTube上大部分視頻仍需要經(jīng)過人工審核,被審核視頻一部分是AI檢測出來,一部分是用戶舉報(bào)的,但最終都需要專業(yè)的審核師把關(guān)決定是否違規(guī)。
根據(jù)愛奇藝算法工程師Leo的介紹,目前業(yè)內(nèi)有以下兩種比較常見的“人機(jī)配合”審核方式:
一種AI將相對(duì)確定的視頻進(jìn)行分類,然后對(duì)部分用戶做出推薦,觀察用戶反應(yīng),其中高熱視頻會(huì)人工率先審核;
另一種是AI將視頻標(biāo)記為“good”或“bad”,當(dāng)審核師遇到標(biāo)注有“bad”視頻時(shí)再細(xì)致地審核,這也提高了審核效率。
愛奇藝目前采取的是第二種模式。視頻會(huì)先經(jīng)過機(jī)審預(yù)判,然后再進(jìn)行人工一審和復(fù)審,其中機(jī)審結(jié)果主要作為參考輔助人工,另外還有視頻清查機(jī)制。
針對(duì)AI取代人工審核的說法,Leo認(rèn)為還為時(shí)過早,雖然AI在客觀視頻的審核上做得足夠好,但一旦涉及與語境語義相關(guān)的主觀內(nèi)容,就捉襟見肘了。
AI審核存在兩個(gè)技術(shù)難點(diǎn),一個(gè)是算法準(zhǔn)確率問題。在業(yè)內(nèi)有句話,“脫離數(shù)據(jù)集來談準(zhǔn)確率都是耍流氓”,這就是說,用數(shù)據(jù)集訓(xùn)練出來的AI模型并不都能匹配實(shí)際行為,還存在用戶行為偏差等諸多影響因素,即使AI審核的準(zhǔn)確率達(dá)到了99%,考慮到用戶上傳的視頻量,剩下1%的累計(jì)量也是驚人的。
而一旦出現(xiàn)疏漏,視頻網(wǎng)站將承受巨大的風(fēng)險(xiǎn)。
另一個(gè)難關(guān)就是對(duì)內(nèi)容的主觀判斷。簡單來說,不是所有露骨的內(nèi)容都是色情,也不是所有色情視頻都有裸露,再加上視頻內(nèi)容中涉及到的文字、語音等多方面情景混雜,對(duì)人來說較容易判斷,但對(duì)機(jī)器而言需要多個(gè)算法疊加。
Leo告訴我們,比如在處理音頻內(nèi)容時(shí),一方面需要利用ASR轉(zhuǎn)化成文本,另一方面需要對(duì)聲音分類,這就包括一些無意義的音頻,比如嬌喘聲。如果畫面中還出現(xiàn)了文字,需要借助OCR把文字從視頻中摳出來,但最終都要利用NLP,也就是文本理解。
因此,人工審核在整個(gè)審核領(lǐng)域仍然是至關(guān)重要的一環(huán)。愛奇藝配置的專業(yè)審核團(tuán)隊(duì)主要負(fù)責(zé)甄別用戶上傳視頻的內(nèi)容,將不符合國家法律法規(guī)、平臺(tái)標(biāo)準(zhǔn)的內(nèi)容篩除。
定義敏感內(nèi)容?AI:臣妾做不到啊
對(duì)AI審核而言,除去上述的準(zhǔn)確率和內(nèi)容主觀判定對(duì)AI而言仍然無解之外,對(duì)敏感內(nèi)容的界定本身尚未清晰也是一個(gè)不可忽視的重要原因。
在國內(nèi),違規(guī)內(nèi)容一般統(tǒng)一由廣電總局統(tǒng)一規(guī)范,視頻網(wǎng)站在規(guī)則界定上顯得被動(dòng),他們需要根據(jù)廣電總局指定的標(biāo)準(zhǔn)進(jìn)行嚴(yán)格的自審,甚至有些公司會(huì)成立專門的法務(wù)咨詢崗位,專門研究廣電總局的政策。
而在全球范圍內(nèi),更多的視頻網(wǎng)站承擔(dān)著自行定義敏感內(nèi)容的職責(zé)。但也正因?yàn)橛懈蟮闹鲃?dòng)性,他們就承擔(dān)更大的責(zé)任。想要全球范圍內(nèi)統(tǒng)一的審核標(biāo)準(zhǔn)無疑是一項(xiàng)非常棘手的工作,如果沒有考慮到當(dāng)?shù)匚幕蛩?,?yán)重情況下視頻網(wǎng)站會(huì)陷入與政府和民眾的苦戰(zhàn)中。
比如,2018年7月,印尼政府禁止了某流行的短音樂視頻制作應(yīng)用。
根據(jù)印尼媒體的報(bào)道,印尼政府禁止是因?yàn)樵搼?yīng)用程序包含了太多負(fù)面視頻,印亞公眾情緒也普遍反對(duì)青少年使用,因?yàn)橛行┮曨l會(huì)對(duì)青少年造成不良影響。其中一個(gè)視頻是這樣的:開始是一段舞蹈,隨后鏡頭猛然切到一具尸體,有關(guān)部門調(diào)查后發(fā)現(xiàn)這具尸體是拍攝者的親戚。
除了上述涉及死亡的視頻,世界范圍內(nèi)對(duì)以下內(nèi)容的視頻都格外謹(jǐn)慎:
煽動(dòng)暴力的宗教仇恨言論
假新聞和為政治目的而傳播
針對(duì)個(gè)人/組織的誹謗性語言
除了涉及到“視頻暴力”的內(nèi)容外,對(duì)“視頻色情”的界定同樣具有高度的主觀性和任意性。之前Instagram曾因允許“男性裸露乳頭”但禁止“女性裸露乳頭”,引起不少女性在該軟件上進(jìn)行抗議。
和Instagram相比,某些社交網(wǎng)站的規(guī)則顯得“寬松”了許多,他們?cè)试S在某些特殊情況下的裸體行為。
以不久前更新了內(nèi)容規(guī)則的Tumblr為例,從中可以看到一些有趣的說明:“被禁止的內(nèi)容包括人類生殖器的照片和視頻、女性展示乳頭,以及任何涉及性行為的媒介,包括插圖。例外情況包括裸體古典雕像和以裸體為特征的政治抗議行為。新的指導(dǎo)方針排除了文本,色情仍然是允許的。只要性行為沒有被明顯描繪?出來,以裸體為特征的插圖和藝術(shù)仍然是允許的,母乳喂養(yǎng)和產(chǎn)后照片同理?!?/p>
在這里也可以對(duì)比看一下Facebook、Reddit等在內(nèi)的全球流量較大的四家社交平臺(tái)關(guān)于“色情”和“裸露”的相關(guān)規(guī)則:
可以看出,基于不同的價(jià)值觀、服務(wù)的用戶群體和他們的文化敏感性,就必須為他們提供專屬的規(guī)則和例外。也就是說,由于內(nèi)容具有的主觀性,想要一勞永逸地創(chuàng)建全球性的內(nèi)容標(biāo)準(zhǔn)是非常困難是難以實(shí)現(xiàn)的。
在內(nèi)容審核工作中,AI能干啥?
盡管有諸多限制和不足,但仍不妨礙AI審核已是大勢所趨。
目前AI在內(nèi)容審核方面除了能評(píng)估和檢測垃圾郵件、辱罵留言等極端文本內(nèi)容外,在某些社交平臺(tái)上,AI還能攔截違規(guī)圖像,甚至可以針對(duì)以情境理解為基礎(chǔ)的騷擾和欺凌進(jìn)行排查。
但是,在利用AI進(jìn)行內(nèi)容審核還要注意以下三個(gè)方面:
對(duì)內(nèi)容的審核需要文化意識(shí)和對(duì)相關(guān)社區(qū)“標(biāo)準(zhǔn)”的語境理解。盡管AI可以執(zhí)行預(yù)調(diào)節(jié),幫助減少人工審核的工作量,但人工參與仍是不可缺少的環(huán)節(jié)。
AI面臨著公眾不信任,特別是可能存在無意識(shí)的人類或技術(shù)偏見。此外,算法可能對(duì)違規(guī)內(nèi)容起不到檢測作用。針對(duì)此,一方面要定期分析并調(diào)整算法,另一方面,利益相關(guān)者應(yīng)保證AI的透明度。
由于格式多樣性和內(nèi)容復(fù)雜度,用戶生成的視頻內(nèi)容越來越難以分析,它們需要被解釋為一個(gè)整體,以此來鑒定是否違規(guī)。為了更好地了解用戶行為,及時(shí)更新違規(guī)有害內(nèi)容的定義,平臺(tái)和服務(wù)提供商之間最好能夠共享數(shù)據(jù)集,這有利于利益相關(guān)者獲得更好的文化意識(shí)和語境理解。
在理想情況下,如果AI能完全做到上述幾點(diǎn),就行了嗎?
讓我們?cè)俅位氐絻?nèi)容審核上,當(dāng)AI審核實(shí)現(xiàn)了最大程度地優(yōu)化,更大幅度地提升了審核師的工作效率,審核師團(tuán)隊(duì)的心理問題似乎仍然懸而未決。
在采訪過程中文摘菌也了解到,除了視頻審核團(tuán)隊(duì),為了設(shè)計(jì)出更加精確可用的審核算法,算法工程師們?nèi)粘R残枰^看大量的暴力色情視頻,也因此不可避免的受到同樣的影響。技術(shù)的進(jìn)步盡管無人可擋,但被媒體和大眾寄予厚望的AI,其成長也注定承載著個(gè)人犧牲。
作為技術(shù)洪流中的觀看者,我們沒有權(quán)利也沒有能力去改變審核師或者算法工程師的工作,但至少我們可以給予這個(gè)群體更多的關(guān)注。就像Daisy所說:“我們需要更多的人參與到這項(xiàng)工作中,但我們更需要改變整個(gè)系統(tǒng)和工作結(jié)構(gòu),去支持這些人,為他們提供處理問題的工具和資源,否則問題只會(huì)變得更糟?!?/p>
相關(guān)報(bào)道:
https://www.theverge.com/2019/12/16/21021005/google-youtube-moderators-ptsd-accenture-violent-disturbing-content-interviews-video