(相關(guān)資料圖)
眼見耳聽也不一定為真!近期,利用人工智能(AI)換臉換聲詐騙的典型案例沖上熱搜,引發(fā)了社會對于AI新型詐騙的關(guān)注與警覺。
伴隨著AI技術(shù)應(yīng)用的逐步成熟以及應(yīng)用門檻的降低,通過換臉換聲以假亂真實施詐騙成了不法分子作案的新趨勢。AI新型詐騙就是喬裝后的“狼外婆”,詐騙團(tuán)伙如同一只只變色龍在人群中悄然潛伏,搜集個人隱私數(shù)據(jù)和行為習(xí)慣。待到作案時機成熟,便采用人工智能技術(shù)將自己的形象置換成受害人身邊熟人,連聲音也模擬得惟妙惟肖。騙子披上數(shù)字偽裝后,受害者難以辨別對話對象的真?zhèn)?,被假象蒙蔽,造成個人財產(chǎn)的損失。
AI新型詐騙手段極具迷惑性,對公眾的防范意識提出了更高的要求,視頻驗證的方式已不再萬無一失。這提醒我們,個人反詐意識需要與AI技術(shù)的發(fā)展同步升級。
在日常生活中,除了要注意個人信息保護(hù),不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻外,還要增強網(wǎng)絡(luò)信息的全渠道核實意識。尤其是涉及財務(wù)往來,僅從網(wǎng)絡(luò)渠道核實容易掉入騙子的圈套,務(wù)必要通過電話、見面等多渠道核實確認(rèn)無誤后再進(jìn)行轉(zhuǎn)賬。如不慎被騙或遇可疑情形,請注意保護(hù)證據(jù)立即報警。
除了公眾個人的防范,政府和技術(shù)監(jiān)管部門也應(yīng)當(dāng)加強對人工智能技術(shù)的監(jiān)管,提出針對AI新型詐騙的有效應(yīng)對措施。國家互聯(lián)網(wǎng)信息辦公室近期發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》對數(shù)據(jù)合規(guī)性、生成內(nèi)容合法性提出進(jìn)一步要求。對于社會中出現(xiàn)的技術(shù)濫用問題,需要進(jìn)一步制定更加嚴(yán)格的法律法規(guī)來規(guī)范,如明確劃定違法行為的責(zé)任和懲罰措施,以及提出維護(hù)公民隱私和安全的具體措施。
科技企業(yè)也理應(yīng)加強內(nèi)部監(jiān)管,技術(shù)研發(fā)方面需要加強自律和倫理規(guī)范。在對外輸出AI技術(shù)應(yīng)用時,須遵循道德和法律的底線,確保技術(shù)的合法使用。主動配合相關(guān)部門,和社會各界加強合作,共同打造一個安全可靠的AI技術(shù)生態(tài),加強跨領(lǐng)域的合作與交流,共同研究和應(yīng)對技術(shù)的潛在風(fēng)險。同時,加強投資和支持安全技術(shù)的研發(fā),共同打擊AI換臉和換聲技術(shù)濫用行為,為行業(yè)健康有序發(fā)展付出努力。
加強公眾的防騙意識和教育也是非常重要的一環(huán)。公眾需要進(jìn)一步了解AI換臉和換聲技術(shù)的原理和風(fēng)險,提高對網(wǎng)絡(luò)詐騙和個人信息安全的警惕性,培養(yǎng)大眾的科技素養(yǎng),不輕易相信和傳播AI生成式等未經(jīng)證實的信息。(本文來源:經(jīng)濟(jì)日報 作者:張 倩)
標(biāo)簽: