7 月 10 日消息,DeepFake 當(dāng)下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱(chēng),模型生成的各種信息相對(duì)可以輕松繞過(guò)各種企業(yè)機(jī)構(gòu)的識(shí)別系統(tǒng),因此也有許多黑產(chǎn)圍繞 DeepFake 而展開(kāi),當(dāng)下如何更精準(zhǔn)辨識(shí) DeepFake 生成的內(nèi)容成為難題。
IT之家曾報(bào)道,加拿大滑鐵盧大學(xué)的兩名研究人員 AndreKassis 與 UrsHengartner 研發(fā)了新型語(yǔ)音 DeepFake 軟件,成功欺騙語(yǔ)音認(rèn)證系統(tǒng)概率高達(dá) 99%,該軟件使用機(jī)器學(xué)習(xí)軟件,只需要 5 分鐘的人聲錄音,就可以模擬出非常逼真的人聲。
用戶通過(guò)語(yǔ)音認(rèn)證注冊(cè)之后,會(huì)要求用戶重復(fù)一個(gè)特定的短語(yǔ)或者句子。
系統(tǒng)會(huì)根據(jù)用戶的聲音提取聲紋(語(yǔ)音指紋),并將其存儲(chǔ)在服務(wù)器。
如果您將來(lái)嘗試進(jìn)行身份驗(yàn)證,系統(tǒng)將提示您說(shuō)出不同的短語(yǔ),并從中提取的特征將與系統(tǒng)中存儲(chǔ)的語(yǔ)音指紋進(jìn)行比較,以確定是否應(yīng)授予訪問(wèn)權(quán)限。
對(duì)于這一新型語(yǔ)音 DeepFake 軟件,其他安全研究人員紛紛開(kāi)始應(yīng)對(duì),亞馬遜的研究人員嘗試檢查語(yǔ)音樣本,來(lái)判斷樣本的真實(shí)性。
而 Kassis 與 Hengartner 打造出一個(gè)方法來(lái)繞過(guò)上述亞馬遜的機(jī)制,該方法可辨識(shí)出合成語(yǔ)音中的標(biāo)記,并自動(dòng)移除這些具有 AI 特征的段落,令系統(tǒng)無(wú)法區(qū)分。
另一方面,專(zhuān)門(mén)開(kāi)發(fā)語(yǔ)音身份認(rèn)證安全機(jī)制的 Pindrop 則認(rèn)為這一機(jī)制并不穩(wěn)妥,即“雖然攻擊方可以移除生成的語(yǔ)音片段中具有 AI 特征的段落,但防守方可以同時(shí)從多角度來(lái)判斷音頻文段的真實(shí)性,例如檢測(cè) IP 地址、要求提供特定的語(yǔ)音信息等”,因此依然可以檢測(cè)出使用 DeepFake 的攻擊者。
但研究人員 Pindrop 同時(shí)指出,現(xiàn)有用來(lái)對(duì)抗 Deekfake 語(yǔ)音的系統(tǒng)有許多缺陷,打造安全系統(tǒng)的唯一方式是像黑客一樣思考。他同時(shí)建議那些只仰賴(lài)語(yǔ)音進(jìn)行身份認(rèn)證的企業(yè),應(yīng)該部署額外的認(rèn)證措施,以防止企業(yè)受到詐騙,導(dǎo)致經(jīng)濟(jì)損失。
標(biāo)簽: