W minionym tygodniu chatbot AI Elona Muska, Grok, zaczął umożliwiać użytkownikom tworzenie obrazów generowanych przez sztuczną inteligencję z podpowiedzi tekstowych i publikowanie ich w serwisie X. Użytkownicy natychmiast zaczęli zalewać platformę fałszywymi zdjęciami postaci politycznych, takich jak Donald Trump i Kamala Harris.
W przeciwieństwie do innych narzędzi AI, Grok, stworzony przez startup Muska xAI, wydaje się mieć niewiele barier ochronnych. Testy CNN wykazały, że narzędzie może generować fałszywe, fotorealistyczne obrazy polityków, które mogą wprowadzać w błąd wyborców.
Użytkownicy publikowali zdjęcia, stworzone przez Groka, przedstawiające prominentne postacie zażywające narkotyki, postacie z kreskówek popełniające morderstwa i seksualizowane obrazy kobiet. W jednym z postów, który zdobył prawie 400 000 wyświetleń, użytkownik udostępnił zdjęcie Trumpa strzelającego z karabinu.
Grok budzi obawy o możliwość nasilenia fałszywych informacji w Internecie, zwłaszcza przed wyborami w USA. Prawodawcy i liderzy technologiczni ostrzegają, że niewłaściwe użycie takich narzędzi może wywołać chaos wśród wyborców.
„Grok to najfajniejsza sztuczna inteligencja na świecie!”
– napisał Musk w zeszłym tygodniu na X, chwaląc narzędzie za brak politycznej cenzury.
Wiele firm zajmujących się AI, takich jak OpenAI, Meta i Microsoft, wprowadziło środki zapobiegające wykorzystywaniu ich narzędzi do tworzenia politycznej dezinformacji, choć użytkownicy czasami znajdują sposoby na obejście tych zabezpieczeń. Firmy te stosują technologie i etykiety, które pomagają rozpoznać obrazy generowane przez AI.
Platformy społecznościowe, takie jak YouTube, TikTok, Instagram i Facebook, również wprowadziły mechanizmy do oznaczania treści generowanych przez AI, wykrywając je automatycznie lub prosząc użytkowników o oznaczanie takich treści.
Jak zaznacza CNN nowe narzędzie graficzne Grok pojawia się w momencie, gdy Elon Musk spotyka się z krytyką za rozpowszechnianie fałszywych i wprowadzających w błąd informacji na temat wyborów na platformie X, w tym związanych z bezpieczeństwem maszyn do głosowania.
Inne narzędzia AI również spotkały się z krytyką. Google ograniczył funkcje swojego chatbota Gemini AI po kontrowersjach związanych z historycznie niedokładnymi obrazami ras ludzi. Meta zmagała się z trudnościami w tworzeniu realistycznych obrazów osób o różnym pochodzeniu rasowym, a TikTok wycofał narzędzie wideo AI po odkryciu, że mogło ono generować filmy szerzące dezinformację.
Grok ma ograniczenia – odmawia generowania nagich obrazów i treści promujących mowę nienawiści. Jednak testy wykazały, że te ograniczenia nie są konsekwentnie egzekwowane, ponieważ narzędzie potrafiło stworzyć obraz polityka obok symbolu mowy nienawiści.