Jak oszukuje nas AI. Zbadano twarze

Białe twarze wygenerowane przez sztuczną inteligencję wydają się ludziom bardziej realne niż twarze prawdziwych osób - wykazało badanie naukowców z Australijskiego Uniwersytetu Narodowego. Nie dotyczy to jednak wizerunków osób o innych kolorach skóry.

Na łamach „Psychological Science” opisali oni zaskakujące wyniki swojego najnowszego eksperymentu: twarze generowane przez najnowsze modele sztucznej inteligencji wydają się oglądającym je osobom bardziej realistyczne niż twarze prawdziwych ludzi. Efekt ten dotyczy jednak wyłącznie twarzy białych, a przyczyną rozbieżności jest to, że algorytmy AI szkolone są w przeważającej większości właśnie na obrazach osób białych.

To duży problem i zagadnienie, nad którym należy się pochylić, ponieważ taka przewaga jednej grupy społecznej w uczeniu sztucznej inteligencji „może mieć poważne konsekwencje dla osób kolorowych, ostatecznie wzmacniając uprzedzenia rasowe w internecie” – uważa dr Amy Dawel, główna autorka artykułu.

„Ten problem jest już zauważalny w obecnych modelach sztucznej inteligencji, które są wykorzystywane do tworzenia profesjonalnie wyglądających zdjęć głowy. W przypadku osób kolorowych sztuczna inteligencja uparcie zmienia ich kolor skóry i oczu na barwy charakterystyczne dla ludzi białych” 

wyjaśnia naukowczyni.

Poza tą kwestią badanie zespołu dr Dawel dotyka też innego ważnego zagadnienia: „hiperrealizm” sztucznej inteligencji sprawia, że ludzie często nie zdają sobie sprawy, że są oszukiwani.

„Co ciekawe, osoby, które uznały, że twarze stworzone przez sztuczną inteligencję są prawdziwe, najczęściej - paradoksalnie - miały największą ze wszystkich uczestników pewność, że ich ocena jest prawidłowa – opowiada współautorka publikacji Elizabeth Miller. - Oznacza to, że dajemy się łatwo oszukiwać, ale wcale nie dopuszczamy do siebie myśli, że jesteśmy oszukiwani”.

Dalsza analiza pozwoliła badaczkom odkryć, dlaczego twarze wygenerowane przez AI tak łatwo mogą nas zmylić.

„Nadal istnieją istotne fizyczne różnice między obrazami sztucznej inteligencji a prawdziwymi ludzkimi twarzami, ale ludzie mają tendencję do błędnego ich interpretowania. Na przykład wygenerowane białe twarze są zwykle bardziej proporcjonalne niż te realne, co większość z nas błędnie odczytuje za oznakę człowieczeństwa” – mówi dr Dawel.

„Zresztą w dłuższej perspektywie i tak nie moglibyśmy opierać się na tych różnicach, gdyż technologia sztucznej inteligencji rozwija się tak szybko, że one prawdopodobnie wkrótce znikną” - zaznacza.

Badaczka argumentuje, że wszystko to może mieć poważne konsekwencje dla rozprzestrzeniania się dezinformacji i kradzieży tożsamości, w związku z czym należy już teraz podjąć odpowiednie działania.

„Technologii sztucznej inteligencji nie można zatajać; nie może być tak, że tylko firmy technologiczne wiedzą, jak dokładnie ona działa i powstaje. AI musi być bardziej przejrzysta, żeby badacze i społeczeństwo mogli zidentyfikować problematyczne kwestie, zanim staną się poważnym kłopotem” – twierdzi dr Dawel.

Jej zdaniem podnoszenie świadomości społecznej może odegrać znaczącą rolę w ograniczaniu zagrożeń stwarzanych przez AI.

 „Biorąc pod uwagę, że już teraz ludzie nie są w stanie wykryć, które twarze są prawdziwe, a które nie, społeczeństwo potrzebuje narzędzi, które umożliwią bezbłędne identyfikowanie oszustów korzystających z tego typu technologii”

podkreśla autorka artykułu.

Dodaje, że kluczową rolę powinno odgrywać edukowania społeczeństwa w kwestii zachowania odpowiedniego sceptycyzmu wobec obrazów, które oglądają w internecie.

Źródło

Skomentuj artykuł: