Facebook i Instagram bronią się przed oszustwami. Oznaczą fałszywe obrazy AI

Wielkie koncerny technologiczne zamierzają się bronić przed zalewającymi media społecznościowe „deepfake'ami”. Ma to niewątpliwie związek z rozpoczynającą się w Stanach Zjednoczonych kampanią prezydencką. Koncern Meta poinformował, że wprowadzi system, który będzie wykrywać i oznaczać obrazy generowane przez AI innych firm.

Nowa technologia zostanie wdrożona na platformach Facebook, Instagram i Threads. Meta już teraz oznacza obrazy AI generowane przez własne systemy. Firma ma nadzieję, że nowa technologia, którą wciąż rozwija, stworzy impuls dla całej branży w walce z fałszerstwami sztucznej inteligencji.

Jednak eksperci są sceptyczni. Ich zdaniem nie da się do końca wyeliminować fałszerstw i system ochronny, jeśli powstanie, będzie do obejścia. 

Kierownictwo Mety przyznało, że jej narzędzie nie będzie działać w przypadku audio i wideo - mimo że są to media, na których skupia się większość obaw związanych z podróbkami sztucznej inteligencji. Firma twierdzi także, że zamiast aktywnie walczyć z fałszerstwami audio i wideo po prostu poprosi użytkowników o oznaczanie własnych postów z wykorzystaniem AI, grożąc karą gdy do tej prośby się nie dostosują. 

Już teraz niektórzy eksperci ds. sztucznej inteligencji twierdzą, że obecnie niemal niemożliwe jest przetestowanie tekstu, który został wygenerowany przez narzędzia takie jak ChatGPT.

W poniedziałek Rada Nadzorcza Meta skrytykowała firmę za jej politykę dotyczącą zmanipulowanych mediów, nazywając ją „niespójną, pozbawioną przekonującego uzasadnienia i niewłaściwie skoncentrowaną na tym, jak treść została stworzona”.

Krytyka była reakcją na orzeczenie w sprawie nagrania wideo prezydenta USA Joe Bidena. Na wideo, o którym mowa, zmontowano istniejące nagranie prezydenta z wnuczką tak, aby wyglądało, że dotykał ją w niewłaściwy sposób.

Meta od stycznia przyjęła procedurę jasnego sygnalizowania kiedy reklamy polityczne wykorzystują cyfrowo zmienione obrazy lub filmy.

 

 

Źródło

Skomentuj artykuł: