Sztuczna inteligencja "położy" media społecznościowe?

Z powodu deepfejków i fake newsów coraz mniej możemy ufać temu, co jest zamieszczone w sieci. Ludzie wrócą więc do kontaktów osobistych. W tej sytuacji przyszłość mediów społecznościowych stoi pod znakiem zapytania - uważa ekspert od AI dr Tomasz Michalak z IDEAS NCBR.

Sztuczna inteligencja jest na wyciągnięcie ręki i każdy może przygotować za jej pomocą materiały, które wyglądają jak przygotowane przez profesjonalistów - teksty, zdjęcia, nagrania dźwiękowe, materiały wideo. Odbiorcom też coraz łatwiej pomylić materiał pochodzący z wiarygodnych źródeł z materiałem spreparowanym przez sztuczną inteligencję. Zaczynać może się niewinnie. Od udostępnienia w mediach społecznościowych wspaniałych “zdjęć” nieistniejących rajskich ptaków z komentarzem “natura nie przestaje nas zadziwiać” czy potraktowanie na serio deepfejkowego nagrania celebryty, któremu włożono w usta jakieś absurdalne wypowiedzi.

Trzeba jednak brać też pod uwagę, że sztuczna inteligencja może być używana celowo w złej wierze, aby wyrządzić szkody - czy to pojedynczym osobom, instytucjom czy całym społecznościom. Zdarzają się już sytuacje, że twarz dowolnej osoby wmontowywana jest zamiast twarzy aktorki do filmu dla dorosłych. Albo można sobie wyobrazić, że ktoś opublikuje w ostatnich dniach kampanii wyborczej realistycznie wyglądający obraz AI rozszalałego polityka wyrywającego się policji i zestawi to z fikcyjnym, choć nieźle napisanym “newsem” na ten temat wygenerowanym przez chatbot.

Ekspert od sztucznej inteligencji dr Tomasz Michalak z IDEAS NCBR komentuje: 

"Już od pewnego czasu obserwujemy, zmniejszoną aktywność użytkowników platform społecznościowych, na co wskazują np. badania kanadyjskie. Moim zdaniem, eksplozja możliwości AI i rozwój deepfejków spowoduje, że w ciągu kilku kolejnych lat będzie się to nasilać. Być może do tego stopnia, że użytkownicy kompletnie stracą do nich zaufanie. Jeżeli nie całkowicie, to chociaż jako do rzetelnego źródła informacji. Niestety, szkody, jakie zostaną wyrządzone w międzyczasie, mogą być niesłychane".

"AI może być niestety użyta do poprawy jakości fake newsów i ataków dezinformacyjnych na platformach społecznościowych - choćby ze strony Rosji. Naszym zadaniem jako naukowców, jest opracowanie jeszcze lepszych modeli AI, które są w stanie zwalczać te bardzo niebezpieczne zjawiska”

zwraca uwagę dr Michalak.

I opowiada o bocie opracowanym przez firmę MIM Solutions. Ten bot AI - działający na platformie X (d. Twitter) reaguje automatycznie na dezinformację ze strony rosyjskiej dotyczącą imigrantów ukraińskich w Polsce. AI nie tylko wychwytuje nieprzyjazne posty, ale w ciągu sekund reaguje na nie - przywołując wiarygodne linki. To walka na modele sztucznej inteligencji. Jeśli jako Polska nie będziemy inwestowali w sztuczną inteligencję, przegramy ten wyścig. Moim zdaniem nie możemy też liczyć pod tym względem na globalne korporacje. Te nie będą zainteresowane naszymi lokalnymi problemami i nie możemy oczekiwać, że stworzą dla nas dedykowane rozwiązania AI - komentuje dr Michalak.

Jego zdaniem ze względu na powstające zagrożenie deepfejków - ludzie wrócą do kontaktów osobistych, bo nie będą mogli ufać mediom społecznościowym. '

"Powróci znaczenie osobistych spotkań, np. polityków z wyborcami, bo nie będzie można ufać temu, co jest zamieszczone online. To stawia pod znakiem zapytania przyszłość mediów społecznościowych w takiej formie, jaką znamy" - uważa badacz z IDEAS NCBR.

Zwraca uwagę na zjawisko, jakim jest ścieranie się autorytetu dziennikarskiego i mediów mainstreamu z mediami społecznościowymi w internecie. Ocenia, że wydawcy czy agencje medialne ze względu na oszczędności - ale i zmieniające się tempo publikowania - ograniczają liczbę fact checkerów i również tu spadają szanse, by potwierdzić, czy jakieś wydarzenia na pewno miały miejsce.

„Na szczęście – dodaje dr Michalak - powstaje coraz więcej firm czy organizacji, które zajmują się fact-checkingiem. Istnieją badania pokazujące, że te wysiłki przynoszą wymierne efekty i mają sens. Tym niemniej, wyniki te dotyczą przeszłości kiedy możliwości i popularyzacja technologii deepfejk były nieporównywalnie mniejsze.”

Rozmówca PAP powołuje się również na nowy przykład przestępstw z użyciem deepfejków. I tak w Hongkongu pracownik instytucji finansowej dostał zlecenie od zarządu firmy, by wykonać przelew na kwotę odpowiadającą 25 mln dol. Miał wątpliwości, więc poprosił o kontakt z zarządem. Odbyła się telekonferencja, podczas której zarząd w obecności świadków potwierdził chęć przelewu. Kwotę przelano i wtedy okazało się, że mail od zarządu był spreparowany, a podczas rozmowy on-line jedyną prawdziwą osobą był pracownik instytucji finansowej. Twarze innych uczestników rozmowy były wygenerowane cyfrowo, podobnie jak ich głosy - to były deepfejki.

“Rozwój technologiczny zaczyna zjadać sam siebie. Przyzwyczailiśmy się, że nowe technologie pozwalają nam efektywniej wykonywać naszą pracę, robić rzeczy coraz szybciej. Tymczasem, może się wkrótce okazać, że rozmowy online lub przez telefon nie wystarczą, bo po drugiej stronie ekranu czy słuchawki może być deepfejk" 

– uważa dr Michalak.

PAP zapytała badacza, czy warto wprowadzić procedury uwierzytelniania treści w mediach - np. podpisy cyfrowe, znaki wodne czy skróty dokumentów potwierdzające oryginalność materiału - tekstu, zdjęć czy nagrań wideo - aby odbiorcy mogli szybko sprawdzić wiarygodność źródła. 

"Prace nad rozwojem tego typu technologii już trwają. To świetny pomysł i bardzo ważny kierunek badań - odpowiada ekspert. - Pytanie, czy wszyscy będą chcieli z tego korzystać. Są grupy społeczne, które czerpią informacje wyłącznie z mediów społecznościowych w swoich bańkach informacyjnych. Pytanie, czy takie znaki wodne spełnią swoją rolę również i u takich odbiorców. Niestety obawiam się, że część osób, które są obecnie bardziej podatne na dezinformacje, może nie ufać znakom wodnym wystawionym przez instytucje publiczne”.

“Powinniśmy w miarę możliwości zaznajamiać się z możliwościami, jakie dają nowe technologie, bo ich wpływ na życie będzie coraz bardziej bezpośredni, widoczny. Jeśli miałbym coś radzić czytelnikom, to bądźmy jeszcze bardziej uważni na treści, które widzimy na ekranach komputerów czy smartfonów” - podsumowuje naukowiec.

Źródło

Skomentuj artykuł: