Deepfake są coraz lepsze. Jak rozpoznać zdjęcia generowane przez AI?

Midjourney, DALL-E, DeepAI to programy tworzące realistyczne zdjęcia za pomocą sztucznej inteligencji. Powodują one zalew podróbek w mediach społecznościowych. Które obrazy są prawdziwe, a które nie? Jak można to rozpoznać?

Tworzenie zwodniczo prawdziwych obrazów jeszcze nigdy nie było tak proste: Wystarczy połączenie internetowe i narzędzie współpracujące ze sztuczną inteligencją. W ciągu kilku sekund powstają fotorealistyczne zdjęcia, które wielu z nas postrzega jako prawdziwe. I właśnie dlatego tak szybko rozprzestrzeniają się w sieciach społecznościowych i często są wykorzystywane specjalnie do dezinformacji.

Tylko kilka ostatnich przykładów, które stały się znane w sieci: Władimir Putin rzekomo aresztowany, Donald Trump również rzekomo aresztowany czy Elon Musk rzekomo trzymający się za ręce z Mary Barą, CEO General Motors.

Wszystko to są obrazy stworzone przez sztuczną inteligencję (AI), przedstawiające wydarzenia, które nigdy nie miały miejsca.

Wydarzenia takie, jak rzekome spektakularne pościgi samochodowe czy aresztowania znanych osób, w tym Putina albo Trumpa, mogą być dość szybko zweryfikowane przez użytkowników sprawdzających renomowane źródła medialne. Bardziej problematyczne są obrazy przedstawiające osoby i tematy, które nie są tak dobrze znane.

Tak było w przypadku rzekomego kataklizmu, który wstrząsnął północno-zachodnim Pacyfikiem w 2001 roku.To trzęsienie ziemi nigdy się nie wydarzyło; zdjęcia, które zostały udostępnione na Reddit są wygenerowane przez AI.

Wobec takich obrazów coraz trudniej jest sklasyfikować, co naprawdę się stało, a co nie. Narzędzia AI  rozwijają się bowiem błyskawicznie. Obecnie (kwiecień 2023) programy takie, jak Midjourney, Dall-E i DeepAI mają swoje problemy, zwłaszcza z wizerunkami ludzi. Oto sześć wskazówek od zespołu DW Fact Check, jak wykryć manipulacje.

1. Powiększ i zbadaj dokładnie
Pierwszą wskazówką jest dokładne przyjrzenie się. Aby to zrobić, poszukaj wersji zdjęcia o możliwie wysokiej rozdzielczości i powiększ szczegóły obrazu. Powiększenie ujawni wszelkie niezgodności, błędy lub klony obrazu, które mogły pozostać niezauważone na pierwszy rzut oka.

2. Poszukaj pochodzenia obrazu
Jeśli nie jesteś pewien, czy zdjęcie jest prawdziwe, czy sztucznie wygenerowane, spróbuj dowiedzieć się więcej o pochodzeniu obrazu. Czasami inni użytkownicy dzielą się swoimi odkryciami w komentarzach pod zdjęciem, co prowadzi do źródła lub pierwszego postu zdjęcia.
Ponadto pomocne może być odwrotne wyszukiwanie zdjęcia: Aby to zrobić, prześlij je do narzędzi takich jak Google reverse image search, TinEye lub Yandex, co dość często prowadzi do większej liczby informacji o fotografii, a czasem i o jej pochodzeniu.

3. Zwróć uwagę na proporcje ciała
Nierzadko zdarza się, że zdjęcia generowane przez AI wykazują rozbieżności w proporcjach: Dłonie mogą być zbyt małe lub palce zbyt długie. Albo głowa i stopy nie pasują do reszty ciała.

4. Uważaj na typowe błędy AI
Głównym źródłem błędów w programach obrazujących AI takich, jak Midjourney czy DALL-E, są obecnie ręce. Raz po raz ludzie mają szósty palec.

5. Czy zdjęcie wygląda na sztuczne i wygładzone?
Szczególnie aplikacja Midjourney tworzy wiele zdjęć, które wydają się wyidealizowane, czyli zbyt dobre, by mogły być prawdziwe. Kieruj się tutaj swoim przeczuciem: czy tak idealny, estetyczny obraz z nieskazitelnymi ludźmi może być prawdziwy?
Najwyraźniej programy AI często tworzą wyidealizowane obrazy, które wyglądają perfekcyjnie i mają się podobać. Jest to właśnie słabość programów, ponieważ dzięki temu niektóre podróbki są dla nas rozpoznawalne.

6. Zbadaj tło obrazu
Czasami tło zdjęcia zdradza manipulację. Tutaj również obiekty mogą być zdeformowane, jak na przykład latarnie. W kilku przypadkach programy AI klonują ludzi i obiekty i wykorzystują je dwukrotnie. I nierzadko zdarza się, że tło obrazów AI jest rozmyte. Ale nawet to rozmycie może zawierać błędy.

Wniosek: Wiele obrazów generowanych przez AI może obecnie nadal być zdemaskowanych jako fałszywe przy odrobinie badań. Ale technologia jest coraz lepsza i błędy będą prawdopodobnie rzadsze w przyszłości.

Czy detektory AI, takie jak Hugging Face, mogą pomóc w wykrywaniu manipulacji? Według naszych ustaleń, detektory dostarczają wskazówek, ale nic więcej. Eksperci, z którymi rozmawialiśmy, raczej odradzają ich stosowanie, twierdząc, że narzędzia te nie są w pełni rozwinięte. Nawet autentyczne zdjęcia są uznawane za fałszywe i odwrotnie.

Na pytanie, co jest prawdziwe, a co nie, aplikacje wykrywające nie zawsze potrafią rzetelnie odpowiedzieć. – To wyścig technologiczny ze sztuczną inteligencją – mówi Antonio Krüger, badacz AI na Uniwersytecie Kraju Saary, w wywiadzie dla DW. I dodaje: „Myślę, że musimy przyzwyczaić się do tego, że właściwie nie można ufać żadnemu zdjęciu w internecie”.
 

Źródło

Skomentuj artykuł: