Ciemna strona AI: deepfake porn. Jak się przed tym chronić?

Narzędzia sztucznej inteligencji mogą teraz nakładać twarz dowolnej osoby na nagie ciało lub manipulować istniejącymi zdjęciami, aby wyglądały, jakby dana osoba nie miała na sobie ubrań. W ubiegłym roku celem generowanych przez sztuczną inteligencję obrazów pornograficznych były zarówno prominentne kobiety, takie jak Taylor Swift, jak i uczennice szkół średnich.

Podczas gdy pornografia z zemsty, czyli udostępnianie zdjęć o charakterze seksualnym bez zgody, istnieje prawie tak długo, jak Internet, rozprzestrzenianie się narzędzi sztucznej inteligencji oznacza, że każdy może stać się celem tej formy nękania, nawet jeśli nigdy nie zrobił ani nie wysłał nagiego zdjęcia. 

Dla kogoś, kto odkrywa, że on lub jego dziecko stało się obiektem porno typu deepfake, doświadczenie to jest zazwyczaj przerażające i przytłaczające, twierdzi Goldberg, który prowadzi nowojorską firmę C.A. Goldberg Law, reprezentującą ofiary przestępstw seksualnych i nękania w Internecie. 

Istnieją jednak kroki, które ofiary tej formy nękania mogą podjąć, aby chronić siebie i swoich bliskich. Goldberg twierdzi, że w przypadku osób będących celem generowanych przez sztuczną inteligencję obrazów seksualnych pierwszym krokiem – jakkolwiek sprzecznym z intuicją – powinno być zrobienie zrzutu ekranu.

„Odruchową reakcją jest usunięcie tego z Internetu tak szybko, jak to możliwe” – twierdzi Goldberg. „Ale jeśli chcesz mieć możliwość złożenia zawiadomienia o popełnieniu przestępstwa, potrzebujesz dowodów”.

Następnie osoby takie mogą wyszukać formularze udostępniane przez platformy takie jak Google, Meta i Snapchat, aby zażądać usunięcia obrazów o charakterze erotycznym. Organizacje non-profit, takie jak StopNCII.org i Take It Down, mogą również ułatwić usuwanie takich obrazów na wielu platformach jednocześnie, chociaż nie wszystkie witryny współpracują z tymi grupami.

Ponadpartyjna grupa amerykańskich senatorów wysłała w sierpniu list otwarty, w którym wezwała prawie tuzin firm technologicznych, w tym X i Discord, do przyłączenia się do programów.

Walka z obrazami o charakterze jednoznacznie seksualnym i deepfake'ami, bez zgody, spotkała się z rzadkim ponadpartyjnym poparciem. Grupa nastolatków i rodziców, którzy zostali dotknięci pornografią generowaną przez sztuczną inteligencję, zeznawała niedawno na przesłuchaniu na Kapitolu, gdzie republikański senator Ted Cruz przedstawił projekt ustawy, który uznałby publikowanie takich zdjęć za przestępstwo i wymagałby od platform mediów społecznościowych ich usuwania po powiadomieniu ofiar.

Jak twierdzi CNN na razie ofiary deepfake porn są w USA pozostawione samym sobie w poruszaniu się po mozaice praw stanowych. W niektórych miejscach nie ma przepisów karnych zabraniających tworzenia lub udostępniania jawnych deepfake'ów dorosłych. Sytuacja ta jednak w najbliższym czasie ma się zmienić.
 

Źródło

Skomentuj artykuł: