Pentagon wykorzystuje AI by bronić się przed deepfake'ami

Technologie sztucznej inteligencji, opracowane przez startup DeepMedia, są wykorzystywane przez Departament Obrony USA do wykrywania deepfake'ów. Chodzi szczególnie o takie deepfake'i, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego.

Generatywne technologie sztucznej inteligencji sprawiły, że tworzenie realistycznych deepfake'ów jest łatwiejsze niż kiedykolwiek. Mają one imitować głos i wizerunek prawdziwej osoby, aby oszukać nieświadomego widza. W kontekście bezpieczeństwa narodowego deepfakes mogą być wykorzystywane do oszukiwania personelu wojskowego lub wywiadowczego w celu ujawnienia poufnych informacji wrogowi USA udającemu zaufanego kolegę.

Pentagon niedawno przyznał kontrakt startupowi DeepMedia z Doliny Krzemowej na wykorzystanie technologii wykrywania deepfake opartych na sztucznej inteligencji. Opis zamówienia stwierdza, że firma ma zapewnić „szybkie i dokładne wykrywanie deepfake w celu przeciwdziałania rosyjskiej i chińskiej wojnie informacyjnej”.

„Zostaliśmy zakontraktowani do zbudowania algorytmów uczenia maszynowego, które są w stanie wykryć syntetycznie generowane lub zmodyfikowane twarze lub głosy w każdym głównym języku, w różnych rasach, grupach wiekowych i płciach, i rozwinąć tę sztuczną inteligencję w platformę, którą można zintegrować z całym Departamentem Obrony USA”- powiedział Rijul Gupta, dyrektor generalny i współzałożyciel DeepMedia.

„Istnieją również niebezpieczeństwa wobec poszczególnych członków Departamentu Obrony, tak szeregowców jak i oficerów, z najwyższego lub najniższego szczebla, pod których można się podszywać przedstawiając ich wygląd bądź głos, do uzyskania ściśle tajnych informacji przez naszych przeciwników" - powiedział Gupta.

„Nasza sztuczna inteligencja może faktycznie pobrać audio lub wideo, automatycznie wyodrębnić twarze i głosy z tego fragmentu treści, a następnie sprawdzić twarz, głos lub oba za pomocą naszych algorytmów wykrywania” - zapewnił Gupta. „Nasze algorytmy wykrywania zostały przeszkolone na milionach zarówno prawdziwych, jak i fałszywych próbek w 50 różnych językach i były w stanie określić z 99,5% dokładnością, czy coś jest prawdziwe, czy też zostało w jakiś sposób zmanipulowane przy użyciu sztucznej inteligencji” - dodał.

Współzałożycielka i dyrektor operacyjna DeepMedia, Emma Brown, zauważyła, że wojna Rosji z Ukrainą stanowi kluczowy przykład znaczenia wielojęzycznego wykrywania deepfake. „W zeszłym roku na początku wojny na Ukrainie był deepfake prezydenta Zełenskiego, który rzekomo polecił obrońcom złożyć broń. Jedynym sposobem, w jaki można było to wykryć w tym momencie, było to, że lingwiści stwierdzili, że akcent wypowiadanych słów jest zły.”

DeepMedia zostało również niedawno zaproszone przez rząd Japonii do dyskusji na temat etycznej sztucznej inteligencji i regulacji technologii sztucznej inteligencji. Firma poinformowała, że omówiła integrację technologii DubSync z japońskimi systemami rządowymi, aby umożliwić komunikację w czasie rzeczywistym z sojusznikami wojskowymi, a także platformę DeepID DeepMedia, aby w pełni uwierzytelnić komunikację i udaremnić potencjalne ataki deepfake ze strony przeciwników.

Źródło

Skomentuj artykuł: