聲音鑒黃師飽受摧殘,AI聲音鑒黃師為何沒幫上忙?

更新時間:2018-12-12 14:36:05    閱讀:1737

在蘋果商店的社交App中,有超過1/10的應(yīng)用主打聲音社交功能,由此催生出了一個新興職業(yè)——聲音鑒黃師。

微信圖片_20181212143020.jpg


人民對性的態(tài)度向來很奇怪,父母和長輩期待子女能無師自通,教育者三緘其口,最后少男少女通過其他渠道實現(xiàn)了對性的初級摸索,當(dāng)然這個摸索過程就很曲折了,文字,圖片,視頻和音頻遍地開花,“學(xué)習(xí)資料”越來越方便傳播。


食也性也,但傳播色情內(nèi)容卻有極大的負(fù)外部效應(yīng),懵懂少男少女極易受其蠱惑,鑒黃師的重要性可想而知。在蘋果商店的社交App中,有超過1/10的應(yīng)用主打聲音社交功能,由此催生出了一個新興職業(yè)——聲音鑒黃師。聲音鑒黃師是一個讓身心飽受摧殘的職業(yè),一位女性聲音鑒黃師稱,“一個人平均一天需要鑒定4000條信息,24小時輪班監(jiān)控,各種葷段子、曖昧語音,有時(聽到)惡心想吐?!?/p>


微信圖片_20181212143044.jpg


由于這份工作實在是太過于枯燥,很多男生都受不了,因此聲音鑒黃師多為女性且離職率高。一般枯燥且重復(fù)率高的工作都是AI的拿手好戲,那么AI有沒有辦法實現(xiàn)聲音鑒黃呢?


聲音鑒黃之殤,AI難以克服雞尾酒效應(yīng)


視頻,圖片和語音是色情內(nèi)容常見的三種形式,多數(shù)公司的鑒黃都是立足于視頻和圖片,比如阿里的阿里綠網(wǎng)、騰訊的萬象優(yōu)圖等等。有人可能會疑問,這幾年科大訊飛、百度、騰訊等公司先后對外公布語音識別準(zhǔn)確率均達(dá)到“97%”,那為什么在AI語音鑒黃上那么難?


這是因為社交平臺的語音環(huán)境十分復(fù)雜,機(jī)器很難從龐大雜亂的語音中揪出涉黃涉暴人員,而這就不得不提雞尾酒效應(yīng)了。所謂雞尾酒效應(yīng)是指,在雞尾酒會嘈雜的人群中,盡管周圍噪聲很大,兩人可以順利交談,你們似乎聽不到談話內(nèi)容以外的各種噪音。這是因為我們的大腦對聲音都進(jìn)行了某種程度的預(yù)判,然后才決定聽或不聽。


用特瑞斯曼的注意衰減理論來解釋就是,當(dāng)人的聽覺注意集中于某一事物時,意識將一些無關(guān)聲音刺激排除在外,而無意識卻監(jiān)察外界的刺激,一旦一些特殊的刺激與己有關(guān),就能立即引起注意的現(xiàn)象。


但是機(jī)器卻不具備這樣意識和無意識,因此難以實現(xiàn)在嘈雜環(huán)境下的語音識別,這樣看來AI語音鑒黃貌似已經(jīng)走進(jìn)了死胡同。


實際上,已有公司在解決雞尾酒效應(yīng)上做出了努力。今年4 月,Google曾在博客上發(fā)文稱,谷歌研究人員開發(fā)出了一種深度學(xué)習(xí)系統(tǒng),可識別和分離出嘈雜環(huán)境中的個體聲音。


微信圖片_20181212143215.jpg


研究人員從YouTube上10萬段“講座和談話”視頻中提取了近2000小時的視頻片段,然后混合音頻與人工背景噪聲,創(chuàng)造“雞尾酒派對”。訓(xùn)練技術(shù)人員將混合音頻進(jìn)行拆分,谷歌的系統(tǒng)能夠分辨出哪個音頻源在給定的時間內(nèi)屬于哪張人臉,并為每個揚聲器創(chuàng)建單獨的語音軌跡。


但Google的技術(shù)集中在視頻處理上,主要是對數(shù)段聲音的分離,而人工聲音鑒黃僅僅依靠聲音,有所不同。前不久,阿里AI語音反垃圾服務(wù)上線公測,它可以通過聲紋識別技術(shù),識別語音中存在的涉黃、廣告等違規(guī)信息,不管是中日英俄等語言,還是東北,四川,廣東的方言,甚至連無意義的呻吟聲都可以輕松判別。


具體辦法是,對那些有語義的內(nèi)容,系統(tǒng)先將語音識別轉(zhuǎn)成文字,然后再將這些文字跟文本反垃圾模型或關(guān)鍵詞庫比對,判斷是否涉黃,對那些無語義的聲音,通過聲紋也能識別出來。但有一點值得注意的是,在語音識別的過程中,識別是哪種語言比內(nèi)容更難,機(jī)器翻譯也存在這樣的問題,因此還需要大量數(shù)據(jù)來進(jìn)行訓(xùn)練學(xué)習(xí)。


做好嘈雜環(huán)境的語音識別,難點是如何將雜音與人聲分離。但對于聲音鑒黃而言,一開始并不知道哪一個音源涉黃,很難說誰是噪音,這需要機(jī)器具有全局觀。而上面提到的技術(shù),聲音分離或者將語音識別轉(zhuǎn)成文字都只是基本,由于尚未在語音復(fù)雜的環(huán)境下試驗過,因此這個結(jié)果嘛……退一萬步講,社交黑話也并不是那么好破譯的。


社交黑話難解,語音識別障礙重重


時代要拋棄你,它只會讓你看不懂,而我們也不能指望人工智能聽懂。


就像你爹媽當(dāng)初看不懂你的那句簽名:”ァ亊實證明,鱤綪桱淂起fеηɡ雨,卻桱囨起平啖;伖綪桱淂起平啖,卻桱囨起fеηɡ雨。ヤ”(沒亂碼),新一代社交黑話崛起一般人也很難看懂,比如XSWL(笑死我了,相當(dāng)于一連串哈哈哈),NSS(暖說說,指幫點贊評論轉(zhuǎn)發(fā)說說,增進(jìn)感情),CQY(處Q友的縮寫,想在QQ上找朋友的意思)。


微信圖片_20181212143234.jpg


當(dāng)然這也還算好的,無非就是縮寫。除了縮寫,還有一些只能強(qiáng)記的詞語。比如養(yǎng)火(互發(fā)消息三天出現(xiàn)小火花,互發(fā)消息超過三十天出現(xiàn)大火花,養(yǎng)火就是經(jīng)常聯(lián)系的意思),歐洲(想要什么就得到什么的人)……


估計研究人員在錄入數(shù)據(jù)時就陣亡了,畢竟這玩意看上去也不算有章可循。值得注意的是,當(dāng)人們在說話的時候,如果省略一兩個字不說,懂得的人自然也懂,但機(jī)器不一定能識別人們甚至為了混淆視聽,會多語夾雜,這就給機(jī)器識別增添了難度。


這種輸入標(biāo)準(zhǔn)的不統(tǒng)一,是導(dǎo)致語音識別錯誤率高的首要原因。我們常用的鼠標(biāo)和鍵盤雖然看似簡單,但它具備統(tǒng)一的輸入標(biāo)準(zhǔn)和精準(zhǔn)的視覺反饋這兩點,而這正是語音識別技術(shù)不具備的,也是困擾現(xiàn)階段AI鑒黃的一大挑戰(zhàn)。


毫不意外,現(xiàn)階段的聲音鑒黃師依然是以人為主。早在互聯(lián)網(wǎng)發(fā)展早期,黃色內(nèi)容主要是圖片和文字,靠人工就可以凈化網(wǎng)絡(luò)環(huán)境的目的,但是隨著互聯(lián)網(wǎng)帶來的數(shù)據(jù)爆炸,人工已經(jīng)遠(yuǎn)遠(yuǎn)不能勝任。


雖然聲音鑒黃以人為本,但這并不意味著AI鑒黃師沒有價值。它能在特定的場景實現(xiàn)鑒定也無疑算是一種進(jìn)步,而現(xiàn)階段它所呈現(xiàn)的問題,也無疑是技術(shù)發(fā)展過程中難以避免的陣痛。


全球經(jīng)濟(jì)學(xué)家和咨詢公司的主流研究課題,總少不了人工智能會引發(fā)的失業(yè)規(guī)模,但是中國的互聯(lián)網(wǎng)已經(jīng)跑出了一條獨特的路線,因此針對中國的研究少之又少。聲音鑒黃師作為互聯(lián)網(wǎng)發(fā)展過程中的獨特產(chǎn)物,顯然會存在相當(dāng)長一段時間,而現(xiàn)行的人工智能鑒黃也多為輔助人。


一句正確但無用的話是,可以想見未來AI鑒黃會占據(jù)主流,但這個未來應(yīng)該以哪個時間節(jié)點為基準(zhǔn),誰也無法預(yù)料。


智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出vb深淺。重點關(guān)注領(lǐng)域:AI+醫(yī)療、機(jī)器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機(jī)交互等。


該內(nèi)容為非商業(yè)目的的轉(zhuǎn)載分享,不代表本站觀點,本文版權(quán)屬其著作權(quán)人所有。若侵犯了您的正當(dāng)權(quán)益,請立即聯(lián)系我們刪除。

閃電配音

掃碼免費試音
企業(yè)微信

免費試音

幫我推薦

價格計算

在線下單

開具發(fā)票

不招主播

確認(rèn)提交

全網(wǎng)全品類皆可配 頂配好聲音

點我咨詢
錯誤