亚洲全黄无码一级在线看_国产剧情久久久性色_无码av一区二区三区无码_亚洲成a×人片在线观看

當(dāng)前位置: 首頁(yè) > 科技新聞 >

AI軟件克隆你的聲音,全球詐騙案件已屢次得逞

時(shí)間:2020-04-08 14:54來(lái)源:網(wǎng)絡(luò)整理 瀏覽:
在2月28號(hào)剛于舊金山結(jié)束的RSA大會(huì)上,一家名為Pindrop的專門檢測(cè)語(yǔ)音詐騙的初創(chuàng)公司再次向業(yè)內(nèi)發(fā)出警告:網(wǎng)絡(luò)詐騙份子已經(jīng)開(kāi)始借助AI


AI軟件克隆你的聲音,全球詐騙案件已屢次得逞


在2月28號(hào)剛于舊金山結(jié)束的RSA大會(huì)上,一家名為Pindrop的專門檢測(cè)語(yǔ)音詐騙的初創(chuàng)公司再次向業(yè)內(nèi)發(fā)出警告:網(wǎng)絡(luò)詐騙份子已經(jīng)開(kāi)始借助AI軟件克隆聲音進(jìn)行詐騙了!

Pindrop的CEO Vijay Balasubramaniyan表示:“Pindrop在過(guò)去一年中調(diào)查了大約十二起類似的案件,都是欺詐者使用AI軟件“克隆”某人的聲音以進(jìn)行詐騙。同時(shí),我們還看到了Deepfake音頻作為針對(duì)公眾人物的工具出現(xiàn)。如果你是家公司的CEO或者你在YouTube上有很多視頻,騙子就極有可能用它來(lái)合成你的聲音。”

并且,雖然Pindrop只看到了少數(shù)這樣的案件,但涉案金額很高。Pindrop估算涉及的詐騙金額可能高達(dá)1700萬(wàn)美元。

來(lái)自矽谷的警告消息又一次將AI的安全性問(wèn)題帶到了輿論的風(fēng)口浪尖。毫無(wú)疑問(wèn),自從AI成為全球技術(shù)發(fā)展的主流以來(lái),DeepFake的問(wèn)題就一直是人們關(guān)心的重點(diǎn)。在之前的文章中,小探深度討論了關(guān)于人臉識(shí)別的安全問(wèn)題(點(diǎn)擊這里查看)。而今天我們要討論的AI語(yǔ)音合成的問(wèn)題,則可能比人臉識(shí)別更加危險(xiǎn)。

AI聲音合成,一面“天使”一面“魔鬼”

語(yǔ)音合成技術(shù)現(xiàn)在已經(jīng)非常成熟了。例如高德導(dǎo)航里的各種明星語(yǔ)音包,“林志玲為您導(dǎo)航祝您好心情”、“郭德綱前方有落石車碎人心碎”、“你鎮(zhèn)定一下羅永浩要開(kāi)始導(dǎo)航了”,基本上能夠達(dá)到以假亂真的效果。大部分時(shí)候用戶也分不出來(lái)到底是明星自己錄的,還是合成的語(yǔ)音。當(dāng)然這種場(chǎng)景中,語(yǔ)音合成只是為了提升用戶體驗(yàn)做的一個(gè)小功能。不僅沒(méi)有對(duì)用戶造成損失,反而讓用戶開(kāi)車的時(shí)候擁有更好的體驗(yàn)。

但是下面這個(gè)故事就不是這樣了。2018年Charlie Warzel,Buzzfeed的科技記者,受了前密西根大學(xué)社交媒體責(zé)任中心CTO Aviv Ovadya言論的影響,做了一件想想都非常后怕的事情。他使用AI合成軟件模仿了自己的聲音,然后打電話給他媽媽,結(jié)果他媽媽愣是沒(méi)聽(tīng)出來(lái)。世界上最熟悉你自己聲音的人是誰(shuí)?可能不是你自己,因?yàn)槟阕约郝?tīng)到的聲音和別人聽(tīng)到的是有區(qū)別的。最熟悉你聲音肯定是你的母親。

既然身邊最熟悉的人都被這樣“偽裝”騙了,那只要使用這種軟件不就擁有了“變身”的超能力了嗎?

事實(shí)上,利用AI語(yǔ)音合成冒充熟人進(jìn)行電信詐騙的案例這幾年時(shí)常發(fā)生,并且涉及金額都非常的巨大。

根據(jù)《華爾街日?qǐng)?bào)》2019年報(bào)導(dǎo),英國(guó)某能源公司高管在一個(gè)小時(shí)之內(nèi)通過(guò)匈牙利供應(yīng)商向一詐騙犯轉(zhuǎn)賬24萬(wàn)美元,約175萬(wàn)元人民幣,僅僅是因?yàn)樵p騙犯通過(guò)AI技術(shù)仿造了其母公司CEO的聲音。該高管表示,在整個(gè)通話過(guò)程中,老板輕微的德國(guó)口音都展現(xiàn)得淋漓盡致,該高管完全沒(méi)有任何的懷疑,直到被要求再次轉(zhuǎn)賬時(shí)才發(fā)覺(jué)了事件異常。

在報(bào)案調(diào)查后,警方只能發(fā)現(xiàn)該筆轉(zhuǎn)賬流動(dòng)到了墨西哥等地區(qū),但是具體嫌疑犯的身份始終無(wú)法確定。這個(gè)案件帶來(lái)的損失目前只能由保險(xiǎn)公司承擔(dān)。這位受害者后來(lái)在一封電子郵件中寫道,雖然“老板”的要求相當(dāng)奇怪,但聲音如此逼真,他覺(jué)得自己別無(wú)選擇,只能服從。

美國(guó)網(wǎng)絡(luò)安全公司Symantec的研究人員表示,他們發(fā)現(xiàn)至少有三起公司高管的聲音被人模仿以用于電信詐騙。雖然Symantec拒絕透露這些受害公司的名稱,也不愿透露上述英國(guó)能源公司是否是其中之一,但它指出,其中一起案件的損失總計(jì)達(dá)數(shù)百萬(wàn)美元。

雖然有種種風(fēng)險(xiǎn),但技術(shù)的發(fā)展一點(diǎn)也沒(méi)有慢下來(lái)。目前,許多矽谷巨頭和人工智能初創(chuàng)企業(yè)都在開(kāi)發(fā)這種語(yǔ)音合成軟件,用以模仿人的聲音節(jié)奏和語(yǔ)調(diào),并被用來(lái)制作令人信服的演講。

幾個(gè)月前,Resemble團(tuán)隊(duì)發(fā)布了一個(gè)名為Resemblyzer的開(kāi)源工具,該工具使用人工智能和機(jī)器學(xué)習(xí)來(lái)通過(guò)獲取語(yǔ)音樣本的高級(jí)表示并預(yù)測(cè)它們是真實(shí)的還是生成的來(lái)檢測(cè)深度偽造。而在AI語(yǔ)音合成屆早已成名已久的Lyrebird,其開(kāi)發(fā)出的AI合成軟件更是可以在合成語(yǔ)音中模擬出說(shuō)話人的感情。

AI技術(shù)被濫用,它的工作原理是什么?

無(wú)數(shù)的研究表明,重現(xiàn)人們講話的韻律只需要一個(gè)小的數(shù)據(jù)集。像Resemble和Lyrebird這樣的商業(yè)系統(tǒng)僅需要幾分鐘的音頻樣本,而百度最新的Deep Voice實(shí)現(xiàn)等復(fù)雜的模型可以從3.7秒的樣本中復(fù)制語(yǔ)音。

斯坦福大學(xué)網(wǎng)絡(luò)政策中心研究員、曾任奧巴馬和特朗普政府時(shí)期白宮網(wǎng)絡(luò)安全政策高級(jí)主管的Andrew Grotto(安德魯·格羅托)表示:“罪犯將使用任何能讓他們以最低成本實(shí)現(xiàn)目標(biāo)的工具。也許這是一項(xiàng)在10年前聽(tīng)起來(lái)很新奇的技術(shù),但是現(xiàn)在任何有想法的非專業(yè)罪犯都可以使用。”目前市面上的AI語(yǔ)音合成軟件的工作原理是將一個(gè)人的聲音分解成不同的組成部分,比如音軌或音節(jié),然后將這些組成部分重新排列,形成具有相似語(yǔ)音模式、音調(diào)和音色的新語(yǔ)音。除了借助這種新技術(shù),騙子們還依賴于最常見(jiàn)的詐騙技巧來(lái)提高他們的效率,利用時(shí)間壓力,比如臨近的截止日期,或者社會(huì)壓力,比如安撫老板的愿望,來(lái)讓受害人打消任何疑慮。在某些情況下,犯罪分子會(huì)瞄準(zhǔn)公司會(huì)計(jì)或財(cái)務(wù)的負(fù)責(zé)人,因?yàn)樗麄冎肋@些人有能力立即匯款。

除了進(jìn)行詐騙,DeepFake音頻還存在向公眾傳遞負(fù)面信息的風(fēng)險(xiǎn)。RSA大會(huì)演講現(xiàn)場(chǎng),Pindrop的CEO向公眾演示了一款合成公眾人物聲音的AI系統(tǒng),這項(xiàng)技術(shù)通過(guò)在網(wǎng)上搜索特朗普之前的錄音來(lái)模仿他的聲音,耗時(shí)不到一分鐘,并用美國(guó)總統(tǒng)特朗普的聲音說(shuō)了一些笑話。如果這項(xiàng)技術(shù)被用于仿造領(lǐng)導(dǎo)人物的聲音,并用到犯罪事件中,無(wú)疑可能非常危險(xiǎn),甚至給國(guó)家安全帶來(lái)危害。

AI聲音合成如此猖獗,應(yīng)該如何防范?

雖然風(fēng)險(xiǎn)重重,但語(yǔ)音模擬技術(shù)的發(fā)展勢(shì)不可擋。例如,Google已經(jīng)為自動(dòng)識(shí)別DeepFake語(yǔ)音的研究項(xiàng)目提供了資金和資源的幫助。但Google也開(kāi)發(fā)了一些世界上最具說(shuō)服力的語(yǔ)音人工智能,包括它的Duplex服務(wù),它可以用電腦生成的栩栩如生的聲音,打電話給餐廳預(yù)定座位。

卡內(nèi)基國(guó)際和平基金會(huì)(Carnegie Endowment for International Peace)矽谷辦公室主任Charlotte Stanton則提醒業(yè)界:“在商業(yè)領(lǐng)域,人們有很強(qiáng)的的意愿想要制造出好的技術(shù)產(chǎn)品,但一定要平衡,避免它被用于非法途徑。所以,研究人員在研發(fā)像AI語(yǔ)音合成技術(shù)這樣強(qiáng)大的技術(shù)時(shí)需要更加謹(jǐn)慎,很明顯,AI語(yǔ)音合成已經(jīng)到了可以被濫用的地步?!?/p>

幸運(yùn)的是,人工智能開(kāi)發(fā)人員正在努力構(gòu)建能夠檢測(cè)和打擊Deepfake音頻的解決方案。例如,Pindrop公司已經(jīng)開(kāi)發(fā)出一種人工智能算法,可以從DeepFake的音軌中辨別真實(shí)的語(yǔ)言。它是通過(guò)檢查說(shuō)話時(shí)單詞的實(shí)際發(fā)音,以及這些發(fā)音是否與真實(shí)人類的說(shuō)話模式相匹配,因?yàn)槿祟惖穆曇魺o(wú)法象機(jī)器偽裝那樣標(biāo)準(zhǔn)和快速。

Pindrop還預(yù)測(cè)到,也許有一天音頻安全服務(wù)會(huì)象數(shù)據(jù)安全服務(wù)一樣有巨大的市場(chǎng)。該公司CEO表示:“會(huì)有一些公司建立檢測(cè)這些安全漏洞的機(jī)制。如果網(wǎng)上出現(xiàn)了偽造的音頻,那么這個(gè)機(jī)制就會(huì)開(kāi)始保護(hù)你的聲音數(shù)據(jù)?!?/p>

除了Pindrop等小公司。矽谷科技巨頭也積極的致力于尋找檢測(cè)Deepfake音頻的方案。例如,谷歌在去年年初與GNI合作,發(fā)布了一系列合成語(yǔ)音,其中包含由其深入學(xué)習(xí)的文本到語(yǔ)音(TTS)模型所說(shuō)的數(shù)千個(gè)短語(yǔ),來(lái)自英文報(bào)紙文章68種不同的合成語(yǔ)音,并涵蓋了各種區(qū)域口音。該數(shù)據(jù)庫(kù)提供給了2019 ASVspoof挑戰(zhàn)的參與者使用,該競(jìng)賽旨在開(kāi)發(fā)針對(duì)假語(yǔ)音的對(duì)策,特別是可以創(chuàng)建區(qū)分真實(shí)和計(jì)算機(jī)生成的語(yǔ)音的系統(tǒng)。

同時(shí),DeepFake音頻的潛在威脅也可能會(huì)改變用戶的行為,使用戶在向互聯(lián)網(wǎng)上傳聲音時(shí)更加謹(jǐn)慎。Pindrop調(diào)查的詐騙案例中就有這樣一位受害者,他幾乎沒(méi)有在任何社交平臺(tái)上公開(kāi)過(guò)自己的聲音,僅僅是因?yàn)檎偌瘑T工開(kāi)會(huì)時(shí)的講話被竊取,就成為了犯罪分子的目標(biāo)。這樣的案例不禁會(huì)讓人聯(lián)想:“既然這么謹(jǐn)慎的人都會(huì)存在被詐騙的風(fēng)險(xiǎn),那么我們干脆就不要在公眾平臺(tái)上表露自己的任何生理特征,包括聲音和長(zhǎng)相。這實(shí)在太恐怖了!”

不敢想像,如果我們的公眾社交平臺(tái)上面看不到任何超出文字以外的更生動(dòng)的表達(dá),那么幾十年來(lái)的科技和信息發(fā)展不就白費(fèi)了嗎?這無(wú)疑是對(duì)多年來(lái)為人類科技文明進(jìn)化做出貢獻(xiàn)的科技工作者的侮辱。

小探相信,隨著AI不斷的發(fā)展,我們所面對(duì)的DeepFake威脅將會(huì)越來(lái)越多。因此,無(wú)論是視頻或音頻,建立一個(gè)完善的安全審核機(jī)制是非常有必要的!

推薦內(nèi)容