FTC稱音頻Deepfakes背後的技術正變得越來越好

cnbeta 發佈 2020-01-30T18:24:33+00:00

一群專家在本周在FTC的一個研討會上表示,儘管音頻Deepfakes是一個日益嚴重的問題,但該技術也有一些合理的合法用途。

據外媒The Verge報導,語音克隆技術的飛速發展使得人們很難分辨合成語音中的真實聲音。一群專家在本周在FTC的一個研討會上表示,儘管音頻Deepfakes(可以欺騙人們放棄敏感信息)是一個日益嚴重的問題,但該技術也有一些合理的合法用途。

FTC訴訟技術與分析部門副總監Laura DeMartino表示:「人們多年來一直在模仿聲音,但就在最近幾年,這項技術已經發展到可以使用很小的音頻樣本大規模克隆聲音的地步。」FTC在其首個有關音頻克隆技術的公開研討會上,邀請了來自學術界、政府、醫學和娛樂界的專家來強調該技術的含義和潛在危害。

FTC發言人Juliana Gruenwald Henderson在研討會結束後表示,冒名頂替者是該機構收到的第一類投訴。她在一封電子郵件中說:「在得知機器學習技術正在迅速改善語音克隆的質量之後,我們開始組織這個研討會。」

司法部計算機犯罪和智慧財產權部門的Mona Sedky表示,Deepfakes(包括音頻和視頻)使犯罪分子可以匿名交流,從而更容易進行詐騙。Sedky表示,以交流為重點的犯罪歷來對罪犯的吸引力較小,因為要實現這一目標既困難又費時。她說道:「這很難令人信服地擺姿勢。但是,藉助強大的Deepfakes音頻和匿名工具,您可以與世界各地的人們進行匿名通信。」

Sedky表示,音頻克隆可以被武器化,就像網際網路可以被武器化一樣。「這並不意味著我們不應該使用網際網路,但是可能會有我們可以做的事情,在前端的事情,可以融入到該技術中,從而使聲音的武器化變得更加困難。」

波士頓兒童醫院增強通信計劃主任John Costello表示,音頻克隆技術在失去聲音的患者中有實際應用。他們能夠「存儲」音頻樣本,隨後可用於創建其聲音的合成版本。「許多人想確保自己的聲音聽起來很真實,因此,在他們失去聲音之後,對於他們從未想過的東西,他們希望能夠'說出'那些聲音並聽起來像他們自己的,」他說道。

美國電視和廣播藝術家聯合會電影演員協會的Rebecca Damon說道,對於配音演員和表演者來說,音頻克隆的概念提出了一系列不同的問題,包括同意和補償使用他們的聲音。她說,配音演員可能會在聽到聲音的地方承擔合同義務,或者可能不想以與他們的信仰不符的方式使用他們的聲音。

她補充說,對於廣播新聞記者來說,未經許可濫用或複製他們的聲音有可能影響他們的信譽。 Damon表示:「很多時候,人們對新技術感到興奮和衝動,然後不一定會考慮所有應用。」

儘管人們經常談論社交媒體及其傳播音頻和視頻Deepfakes的能力,但大多數參加研討會的成員都認為,最直接的音頻擔憂是關注對於大多數消費者來說,是通過電話。

國防高級研究計劃局(DARPA)的顧問Neil Johnson表示:「社交媒體平台是前線,這是傳遞消息,鎖定消息並進行傳播的地方。」 產生聲音的文本到語音應用程式具有廣泛而有價值的應用。但Johnson舉了一個英國公司的例子,該公司被勒索約22萬美元,因為有人在詐騙中模仿了CEO的聲音。

佛羅里達大學赫伯特·韋特海姆工程學院的Patrick Traynor表示,圍繞電話騙局和音頻deepfakes的複雜性可能會繼續改善。他說道:「最終,這將是使我們到達目的地的多種技術的結合,」以打擊和檢測合成或偽造的聲音。Traynor補充說,確定呼叫者是否是他們所說的人的最好方法是一種久經考驗的方法:「掛斷並回電。除非是可以重新轉接電話的國家行為者或非常非常老練的黑客組織,否則很可能是弄清楚您是否正在與自己以為的人交談的最好方法。」

關鍵字: