Doskonalenie metod dezinformacji. Deepfakes próbują zmienić bieg wojny

Eksperci w dziedzinie dezinformacji i uwierzytelniania treści od lat martwią się możliwością szerzenia kłamstw i chaosu za pomocą deepfake, zwłaszcza, że stają się one coraz bardziej realistyczne. Ogólnie rzecz biorąc, deepfake znacznie się poprawiły w stosunkowo krótkim czasie.

W trzecim tygodniu rosyjskiej wojny na Ukrainie Wołodymyr Zełenski pojawił się na nagraniu, ubrany w ciemnozieloną koszulę, przemawiając powoli i z rozmysłem, stojąc za białym podium prezydenckim z herbem swojego kraju. Gdy mówił, z wyjątkiem głowy, ciało ukraińskiego prezydenta prawie się nie poruszało. Jego głos był zniekształcony i prawie chropowaty, kiedy wydawał się tłumaczyć Ukraińcom, by poddali się Rosji.

„Proszę, abyście odłożyli broń i wrócili do swoich rodzin”, wydawał się mówić po ukraińsku w klipie, który szybko został zidentyfikowany jako deepfake. „Ta wojna nie jest warta umierania. Sugeruję, abyś żył dalej i zamierzam zrobić to samo” - przekonywała postać na filmie. 

Pięć lat temu nikt nawet nie słyszał o deepfake'ach, przekonująco wyglądających, ale fałszywych plikach wideo i audio stworzonych za pomocą sztucznej inteligencji. Teraz są wykorzystywane do wpływania na przebieg wojny. Oprócz fałszywego wideo Zelesnky'ego, które stało się popularne w zeszłym tygodniu, pojawiło się inne szeroko rozpowszechnione wideo deepfake, przedstawiające rosyjskiego prezydenta Władimira Putina, który rzekomo ogłasza pokój w wojnie na Ukrainie. 

Eksperci zwracają uwagę, że deepfake znacznie poprawiły swą jakość w stosunkowo krótkim czasie. Dzieje się tak dlatego, że pokazują prędkość światła, z jaką zaawansowana technologicznie dezinformacja może teraz rozprzestrzeniać się na całym świecie. W miarę jak stają się coraz bardziej powszechne, filmy deepfake utrudniają odróżnienie faktów od fikcji, a tym bardziej podczas wojny, która toczy się w Internecie i jest pełna dezinformacji. Nawet zły deepfake grozi dalszym „zamuleniem” wody. 

- Jeśli coś widzisz i nie możesz już w to uwierzyć, wszystko staje się fałszywe. To nie tak, że wszystko stanie się prawdą. Po prostu tracimy zaufanie do wszystkiego i do wszystkich

twierdzi Wael Abd-Almageed, profesor nadzwyczajny na Uniwersytecie Południowej Kalifornii i dyrektor założycielski szkolnego Laboratorium Inteligencji Wizualnej i Analizy Multimedialnej.  

W 2019 roku pojawiły się obawy, że deepfake wpłyną na wybory prezydenckie w USA w 2020 roku. Ale tak się nie stało. Siwei Lyu, dyrektor laboratorium wizji komputerowej i uczenia maszynowego na Uniwersytecie w Albany, uważa, że dzieje się tak, ponieważ prawdziwie skutecznej technologii „jeszcze nie było”. Po prostu nie było łatwo zrobić dobrego deepfake'a, który wymaga wygładzenia oczywistych oznak, że film został zmodyfikowany (takich jak dziwnie wyglądające drgania wizualne wokół ramki twarzy osoby) i sprawienia, by brzmiał jak osoba „podrabiana”. Teraz łatwiej jest tworzyć lepsze deepfake, ale co być może ważniejsze, okoliczności ich użycia są inne. 

Zdaniem ekspertów fakt, że są one teraz wykorzystywane do wywierania wpływu na ludzi podczas wojny, jest szczególnie zgubny, ponieważ zamieszanie, które sieją, może być niebezpieczne. W normalnych okolicznościach, twierdzi Lyu, deepfake mogą nie mieć większego wpływu poza przyciąganiem zainteresowania i zdobywaniem wyświetleń w Internecie. „Ale w krytycznych sytuacjach, podczas wojny lub narodowej katastrofy, kiedy ludzie naprawdę nie potrafią myśleć bardzo racjonalnie i mają bardzo krótki czas uwagi i widzą coś takiego, wtedy staje się to problemem”. Szczególnie teraz gaszenie dezinformacji stało się bardziej złożone podczas wojny na Ukrainie. 

Inwazji Rosji na ten kraj towarzyszy zalew informacji w czasie rzeczywistym, które trafiają na platformy społecznościowe, takie jak Twitter, Facebook, Instagram i TikTok. Wiele z nich jest prawdziwych, ale niektóre są fałszywe lub mylące. 

Abd-Almageed i Lyu używają algorytmów do wykrywania deepfake. Rozwiązanie Lyu, śmiało nazwane DeepFake-o-meter, pozwala każdemu przesłać film, aby sprawdzić jego autentyczność, chociaż zauważa, że uzyskanie wyników może zająć kilka godzin. 
Istnieją jednak problemy z automatycznym wykrywaniem i staje się ono coraz trudniejsze w miarę ulepszania deepfake. 

W Stanach Zjednoczonych istnieje pewne ustawodawstwo, które ma rozwiązać ten problem, takie jak kalifornijska ustawa uchwalona w 2019 r. zabraniająca rozpowszechniania oszukańczych nagrań wideo lub audio kandydatów politycznych w ciągu 60 dni od wyborów. 
Zdaniem ekspertów poleganie na platformach firm takich jak Google, Facebook, Twitter prawdopodobnie nie wystarczy. I nic tak naprawdę może nie okazać się tak skuteczne jak przenikliwy ludzki wzrok. 

Źródło

Skomentuj artykuł: