Root Nation文章技術什麼是 deepfake,它有多危險以及如何識別它

什麼是 deepfake,它有多危險以及如何識別它

-

今天我們將討論 deepfake,它現在已經變得普遍且相當普遍。 由於這項技術,信息操縱達到了一個新的水平。

新年賀詞廣播時,你看到伊麗莎白女王在桌子上跳舞了嗎? 或者聽過金正恩關於民主的演講,或者欽佩薩爾瓦多·達利,談論他的死訊(為什麼他不相信)?

所有這些令人驚嘆的視頻都有一個共同點——它們都是假的。 Deepfake 是一種以視頻、音頻和照片的形式創建和發布虛假信息的技術。 遇到此類材料變得越來越容易,因此我們為您準備了有關在 Internet 上創建、識別和搜索 deepfake 視頻的說明。

另請閱讀: 明天的區塊鏈:用簡單的話來說加密貨幣行業的未來

Deepfake - 它是什麼?

Deepfake(Deepfake)實際上是一種照片、視頻或音頻材料,不是真的,假的,也就是假的。 Deepfake(深度學習“深度學習”和假“假”兩個詞的組合)使用人工智能 (AI) 進行深度學習,以在視頻和其他數字媒體材料中創建一個人與另一個人的相似之處。 它是由基於真實語音、聲音、視頻或照片樣本拼接在一起的算法創建的。 該算法從許多不同的地方獲取選定的信息,然後將其組合成一種材料。 結果,基於不同真實數據的組合創建了一些新的(錯誤的)。

Deepfake

但這還不是全部。 Deepfake 還可以從頭開始“繪製”照片,例如通過創建從未存在過的角色的面孔。

這些行動的目的是什麼? 除其他外,Deepfake 被用於在互聯網上傳播不正確的信息(例如,關於政治人物或事件)、盜竊(例如,偽造語音命令)和製作色情內容(名人電影 - deepfake 色情內容)。 它也可以用於教育和娛樂目的。

另請閱讀: 關於量子計算機 簡單來說

Deepfake - 它是如何工作的?

一般來說,有兩種方法可以創建 deepfake 材料。 第一種方法使用兩種算法。 首先,第一個(編碼器)尋找兩個圖像(要組合成一個)的共同特徵,然後第二個(解碼器)可以將它們傳輸到新創建的圖像。 例如,如果我們想創建一個演員會像我們一樣移動的視頻,編碼器會從我們正在跳舞的視頻中獲取動作,而解碼器已經將我們的臉替換為演員的臉,並讓他重現我們的動作. 這裡的關鍵是複製到新圖像的選定動作(例如,動作、手勢、面部表情)。

- 廣告 -

第二種方法是通過生成對抗網絡 (GAN),其中兩種算法協同工作。 第一個被稱為生成器,因為它使用一般信息創建圖像(例如,人的圖像),結合其顯著特徵(人有身體、臉、眼睛)。 第二種算法是一個鑑別器,它評估生成器提供給它的圖像是否真實。

Deepfake

隨著時間的推移,這兩種算法都變得更加先進,因此它們可以自我學習和改進。 如果生成器的訓練方式使鑑別器無法識別假照片(認為它是真實的),則該過程完成。

在 GitHub 上可以找到大量仿冒軟件,這是一個腳本、程序和代碼的開源社區。 其中一些程序純粹用於娛樂目的,因此不禁止創建 deepfake,但是,其中許多程序也可用於犯罪目的。

許多專家認為,未來隨著技術的發展,deepfake 將變得更加複雜,並可能對社會造成更嚴重的威脅,涉及乾預選舉、製造政治緊張和犯罪活動。

另請閱讀:

Deepfake 的威脅——從什麼時候開始存在?

2017年,此類虛假信息首次出現。 那麼用戶就是一個別名 deepfake 在 Reddit 上發表了幾部名人參與的色情電影,包括斯嘉麗·約翰遜、蓋爾·加朵和泰勒·斯威夫特。 此後,這個行業發展迅速,因為幾乎任何人都可以拍攝 deepfake 電影。

https://youtu.be/IvY-Abd2FfM

近年來,深度偽造技術發展得如此之快,以至於現在越來越難以確定它是偽造的視頻還是真人的真實記錄。 一個例子可以是帶有伊麗莎白二世信息的視頻或巴拉克奧巴馬的演講,這些視頻很快在許多不同的網站上發布。 帶有美國前總統聲明的視頻解決了互聯網上發布的錯誤信息和虛假新聞可能造成的全球威脅。 在 BuzzFeedVideos 頻道發布的素材中,美國導演兼演員喬丹·皮爾成為了美國第 44 任總統的代言人。 然而,目前人工智能已經能夠根據應該出現在假電影中的人的檔案錄音來產生聲音。

此類先進技術在未來可能成為網絡犯罪分子和互聯網欺詐者手中的危險工具。 重要政客發布虛假演講視頻可能會在國際層面造成真正的損害。 此類基於 deepfake 技術的電影可能會引發外交衝突和醜聞,從而影響輿論和人們的行為。

另一個潛在威脅是成人內容,它一直在虛擬空間中產生最多的流量。 難怪 deepfake 技術如此迅速地席捲互聯網。 根據荷蘭網絡安全公司 Deeptrace 的一份報告,使用 deepfake 技術製作的偽造視頻中有 96% 是此類主題的內容。 大多數情況下,電影明星、運動員,甚至政治家和政府代表的形像都被用於製作此類材料。

另請閱讀: 為什麼太空任務不能在任何時候飛行:什麼是發射窗口?

- 廣告 -

如何製作深度偽造?

如果有人可以製作 deepfake 視頻,那麼它們也可以在家製作嗎? 肯定是的,但它們的質量當然不會完美。 創建這樣的視頻需要大量的計算資源和強大的顯卡。 我們通常在家用電腦中擁有的那些是不夠的,開發過程本身可能會持續數週。 電影的質量也有很多不足之處 - 會有明顯的錯誤,嘴巴的動作可能與聲音不符,“舊”內容與“新”內容重疊的可見地方。

但是,如果我們想稍微“修飾”一張照片或製作一個簡短的 deepfake 視頻,則可以將其程序直接下載到智能手機上。 這個非常易於使用的程序將在幾分鐘內消除外觀缺陷,將您變成選定的名人或讓您的狗用人聲說話。

另請閱讀:

如何識別deepfake?

專業的 deepfake 視頻越來越難被發現。 起初,算法在基本行為(例如眨眼)方面存在問題,很快就可以確定這部電影是假的。 此錯誤現已修復。 假人物眨眼,動作自然,說話流利。 然而,有時他們仍然存在自然眼球運動的問題。

Deepfake

那麼,如何識別深度偽造? 以下是您在觀看視頻時應注意的事項:

  • 聲音是否跟上嘴巴的動作? 有時它們並不完全匹配,視頻中的人移動嘴唇時會出現相對於聲音的延遲,或者發音不正確。
  • 各種看似不自然的現象。 除其他外,我們在這裡談論的是整個身體或頭部相對於軀幹的位置,物體上的不正確反射光,珠寶中的不正確反射光等。 不自然的膚色也可能表明這部電影是假的。
  • 音頻和視頻質量。 它們之間的差異將有助於檢測深度偽造。 通常配樂質量較差。
  • 圖像不規則。 大多數情況下,它們出現在身體和頭部的交界處。 當名人的頭部“粘”在另一個身體上時,頸部區域可能會出現模糊。 有時會出現跳幀(間歇性)和幀錯誤(不同的光線角度、類型或方向)。
  • 在視頻期間更改主題標籤也可能意味著我們有一個 deepfake 視頻。

從 deepfake 的角度來看資料的時候,也值得依靠自己的感覺。 有時我們會覺得有些事情是“錯誤的”。 尤其是當屏幕上描繪的人的情緒與面部表情或語調向我們顯示的不匹配時,就會發生這種情況。 這也表明該視頻可能是偽造的。

也很有趣:

如何保護自己免受深度偽造?

為避免深度虛假騙局,專家建議遵循以下步驟:

  • 與親人(例如家人或同事)一起創建一個秘密詞或口號,他們將通過視頻或錄音來證明情況的真實性。 這將使您能夠快速驗證情況的虛假性並避免例如敲詐勒索。
  • 就永遠不會通過消息(例如社交網絡或短信)詢問的信息列表與親戚或同事達成一致。 必須將危險的真實程度告知所有相關方。
  • 實施多因素身份驗證通道來驗證每個請求。 如果通信以短信開始,那麼確認信息最安全的方式是通過預先約定的安全通信渠道以對話的形式聯繫信息的發送者。
  • 不斷提高安全能力,例如以員工安全和網絡犯罪培訓的形式。 提高對 deepfake 是什麼以及如何應對這種威脅的認識。
  • 支持和開發信息和通信技術 (ICT) 環境中的安全系統。

在哪裡可以遇到 deepfake?

假材料可以在任何可以接觸到大量受眾的地方找到,即潛在的 deepfake 受眾。 Facebook, Instagram、TikTok 和其他社交媒體網站上充斥著這種東西。

這些不僅是令人驚嘆的視頻,而且是“精緻”的照片和錄音。 一些真實的名人資料有時完全充滿了 deepfake 的東西!

這不是唯一可以找到 deepfake 的地方。 智能手機的應用程序也基於此技術,它允許您為照片添加鬍鬚和鬍鬚或其他特殊效果(例如,老化幾十年)。 因此,您從朋友那裡收到的最後一張照片可能有點“欠缺”。

也很有趣:

Deepfake 電影不僅是色情的

使用 deepfake 可以是正面的,也可以是負面的。 Deepfake 電影可以很有趣也可以很有趣。 這裡要提一下伊麗莎白女王在新年致辭中在桌子上跳舞的視頻。 這也是我們在智能手機上使用 deepfake 應用程序進行的大多數照片修改的目的。 它應該是有趣和有趣的。

Deepfake 材料還可以起到教育作用,例如,“復活”已經死去的藝術家、歌手或音樂家。 一些博物館,特別是佛羅里達州的薩爾瓦多·達利博物館,使用這項技術,遊客可以“展示”藝術家本人的作品,與他們交談甚至拍照。

Deepfake 技術用於語音生成器——專為失去說話能力的人設計的設備。 多虧了他們,這些人仍然可以用自己的聲音與我們交談。 Val Kilmer 因喉癌而失去的聲音,是在《壯志凌雲:特立獨行》中模仿的。

不幸的是,我們也有很多使用深度偽造的負面例子。 政治就是一個例子,這種虛假信息可能會產生深遠的全球影響,例如詆毀公眾人物、影響股市、經濟或選舉結果,甚至是戰爭中的戰爭行為。 精心準備的記錄更容易操縱公眾輿論。 技術的不斷發展將使真假鑑別變得更加困難。 因此,這是朝著社會信任下降和信息混亂邁出的一步。

正如我們已經提到的,Deepfake 視頻在色情行業很普遍。 大多數情況下,這些變化包括用名人或電影明星的臉替換色情女演員/演員的臉,當然,未經他們的同意。

另請閱讀: 載人航天任務:為什麼返回地球仍然是一個問題?

Deepfake 是對我們所有人的真正威脅

Deepfake 不僅是演員和政客的問題。 任何人都可能受到虛假內容的影響。 敲詐和敲詐的元素可以是捏造的視頻,我們在其中犯罪或陷入模棱兩可的境地——要么你付錢,要么我們揭露。 如果您從事商業工作,您必須了解使用 deepfake 在其交易對手中抹黑公司的風險。

Deepfake

操縱材料數量的增加也會影響社會對所提供信息的信任和信心。 當在法庭上作為證據的電影可能是虛假的,而新聞報導的事件不存在時,你怎麼能相信任何事情?

Deepfake

允許您創建角色與其他人非常相似的惡意圖像、錄音或電影的技術是來自網絡犯罪分子的新威脅級別。 特別是考慮到在社交網絡中,他們可以獲取幾乎無限的源材料資源來創建深度偽造。

機器學習軟件可以搜索 Facebook ABO Instagram,例如,捕捉潛在“演員”的有趣照片或視頻。 在此基礎上,可以創建一個非常清晰的人的聲音、圖像和視頻,但帶有特別創建的虛假訴求,模擬例如遇到嚴重麻煩 - 作為綁架或事故的受害者。 在下一階段,將生成發送給“受害者”親屬的虛假求助請求,例如財務請求。

另請閱讀: 詹姆斯韋伯太空望遠鏡:要觀察的 10 個目標

與 deepfake 的鬥爭

虛假信息的流動是如此之大,以至於許多社交網絡都決定與 deepfakes 作鬥爭。 Facebook і Twitter 嘗試偵測虛假影片並自動刪除它們。大型企業(包括 Microsoft 或亞馬遜)正在投資能夠偵測虛假內容的軟體。科學家們也在研究解決這個問題的方法。

然而,在智能手機應用程序足以製作一部假電影的情況下,與 deepfake 作鬥爭就像與風車作鬥爭。 也沒有法律規範可以確定以這種方式操縱信息或使用他人形象的後果。

Deepfake

Deepfake 越來越流行,越來越難將其與真假區分開來。 這是由於技術的改進可以更好地模仿人類的動作和手勢。 Deepfake 可以用於良好的目的,例如創建教育材料或幫助喉部手術後失去聲音的人,但它們也是黑客、敲詐者和網絡巨魔的工具。

因此,如果您再次在互聯網上看到精彩的視頻,請首先檢查它是否有時被修改或偽造。 也許你所看到的從來都不是現實!

另請閱讀:

但是,不要忘記烏克蘭正在發生戰爭。 如果你想幫助烏克蘭對抗俄羅斯佔領者,最好的辦法就是通過捐贈給烏克蘭武裝部隊 拯救生命 或通過官方頁面 NBU.

Yuri Svitlyk
Yuri Svitlyk
喀爾巴阡山脈之子、不為人知的數學天才、“律師”Microsoft,實用的利他主義者,左右
- 廣告 -
註冊
通知有關
客人

0 留言
嵌入式評論
查看所有評論