你好,游客 登錄 注冊 搜索
背景:
閱讀新聞

人工智能和區塊鏈能否用于對抗Deepfake?

[日期:2019-10-09] 來源:企業網D1Net  作者:Michael Baxter [字體: ]

Deepfake是一種能輔助視頻剪輯的人工智能技術,這種剪輯可以幾乎不費吹灰之力就能制作出相當逼真的效果。而如今的Deepfake越來越頻繁地發布假新聞,那么解決它的方法是什么?可以使用人工智能和區塊鏈對抗Deepfake嗎?

 
大多數人都聽說過網絡釣魚軟件,很多人可能會收到公司總經理或首席執行官的一封電子郵件,要求轉移或支付一些資金。出于企業管理者的要求,很多員工并不總是冷靜進行思考和判斷,很可能會遵守指令并因此蒙受損失。如今,越來越多的人意識到了這種危險,并且通常都會檢查電子郵件的真實性。但是,如果工作人員接到管理者打來的電話,并且也是其熟悉的聲音和節奏,那么產生可疑的可能性就大大降低。而現在,在Deepfake的一種變體軟件中,可以逼真地模仿企業管理者的聲音。那么對此如何應對?可以使用人工智能或區塊鏈與Deepfake開展斗爭嗎?還是對員工進行更多的培訓?三位行業專家為此分享了自己的觀點。
 
根據《華盛頓郵報》的一篇報道,網絡犯罪分子使用了人工智能軟件來騙取了一家英國能源公司22萬美元(19.4萬英鎊)的資金。該公司首席執行官接到了他認為是其母公司管理者的電話,并按他的要求轉移了這筆巨款。
 
而Deepfake的另一個例子后果雖然不那么嚴重,但卻有著更為嚴重的影響。一個名為Ctrl Shift的YouTube視頻創作者采用Deepfake在AMC電視連續劇Better Call Saul中的一個場景中模擬美國總統唐納德·特朗普和其女婿賈里德·庫什納的聲音。
 
那么組織如何應對Deepfake的威脅?
 
Faculty公司數據科學家Alexander Adam博士表示,Deepfake采用人工智能技術處理音頻要比視頻難得多。
 
他解釋說:“人耳對聲波非常敏感,聲波的頻率范圍非常廣,因此產生人類語音要求人工智能算法處理大量聲波。相比之下,人眼只能以每秒30幀左右的速度感知數據。這意味著Deepfake視頻中的錯誤與音頻相比并不明顯。
 
為應對DeepFake應該培訓員工
 
ESET公司網絡安全專家Jake Moore表示企業需要將重點放在培訓人員上。
 
他說:“在不久的將來,我們將看到機器學習的網絡犯罪大量增加。我們已經看過Deepfake模仿名人和公眾人物的視頻,但是為了創建令人信服的材料,網絡犯罪分子使用在公共領域提供的素材。隨著計算能力的提高,我們發現創建視頻和聲頻變得更加容易,人們將面臨更加可怕的風險。
 
為了幫助減少這些風險,企業應該從提高認識和教育員工開始,然后引入第二層保護和驗證,這是很難偽造的,例如采用一次性的密碼生成器(OTP設備)。雙因素身份驗證是一種功能強大、成本低廉且簡單的技術,它可以添加額外的安全層,以保護企業的資金不流入這些網絡犯罪分子的帳戶。
 
在人們了解它之前,Deepfake帶來的威脅將更具說服力,因此企業需要考慮盡快投資檢測Deepfake的軟件。但是企業應該把重點放在培訓員工上,而不是僅僅依靠軟件。”
 
區塊鏈對Deepfake的回應
 
普華永道公司的專家、技術領先者和解決方案架構師Kevin Gannon說:“當涉及到信息技術領域時,新興的技術脫穎而出,并將提供一定程度的安全性、批準和驗證。很多企業通常宣稱區塊鏈可以提高可見性和透明度,一旦做某事,可以了解是誰做的以及何時做的,當擁有數字身份的用戶想要做某事時,可以提示他們提供身份證明,然后才可以授予某項(例如資金)訪問權限。從另一個角度來看,可以通過區塊鏈應用程序來證明視頻、音頻文件的實際真實性,在應用程序中可以將某些文件的散列(假設的證明)與原始文件進行比較。盡管這不是靈丹妙藥,但與往常一樣,以正確的方式采用和應用該技術是關鍵。從安全性的角度來看,更開放的數據機制(如公共分類帳)具有更大的攻擊面,因此不能假定固有的保護。
 
但在批準過程中加強安全協議,其中智能合同也可以發揮作用,可以加強這樣的過程。此外,在技術層面上,通過在進程中應用多SIG(多重簽名)事務可以意味著即使一個身份被破壞,也可以提供多個身份來獲得最終批準。”
 
人工智能和Deepfake
 
Alexander Adam博士對于如何使用人工智能對抗Deepfake進行了分析。他說,“機器學習算法非常適合識別大數據中的模式。機器學習可以通過使用分類技術來提供一種從真實音頻中檢測假音頻的方法,其分類技術通過向算法顯示大量的Deepfake和真實音頻并教會區分兩者之間的頻率差異開展工作。例如,通過在音頻頻譜圖上使用圖像分類,可以教會機器學習模型‘發現差異’。但是現在還沒有現成的解決方案。
 
其部分原因是,模擬音頻的Deepfake并未像模擬視頻Deepfake一樣受到威脅。音頻Deepfake并不完美,如果它是針對某人認識的特定人物量身定制的,那么應該能夠分辨出兩者之間的區別。也就是說,電話的干擾或外部背景噪聲可能會掩蓋這種情況。而且,由于媒體對Deepfake視頻的關注度很高,因此人們可能不太了解音頻Deepfake的潛在風險。
 
但是我們預計,在未來幾年中,惡意音頻Deepfake的創建和使用將會增加,并且會變得更加復雜。這是因為網絡攻擊者可能對機器學習模型有更好的了解,以及如何將在一個模型上使用的知識轉移給另一個模型并快速進行訓練。因此人們需要注意的是,隨著Deepfake生成的內容變得越來越好,檢測方法也需要隨之進行改進。”
收藏 推薦 打印 | 錄入:admin | 閱讀:
本文評論   查看全部評論 (0)
表情: 表情 姓名: 字數
點評:
       
評論聲明
  • 尊重網上道德,遵守中華人民共和國的各項有關法律法規
  • 承擔一切因您的行為而直接或間接導致的民事或刑事法律責任
  • 本站管理人員有權保留或刪除其管轄留言中的任意內容
  • 本站有權在網站內轉載或引用您的評論
  • 參與本評論即表明您已經閱讀并接受上述條款
草莓视频黄下载,草莓视频黄下载apP,草莓视频免费安装下载软件,草莓视频免费无限看污app