Dzwoni szef? To może być pułapka. Przestępcy zacierają ręce

Niejednokrotnie poruszaliśmy już temat sztucznej inteligencji, która wymknęła się nieco spod kontroli jej twórców i użytkowników. Specjaliści zwracają uwagę na kolejny aspekt, w którym AI może stać się skutecznym narzędziem w rękach przestępców. - Do tej pory rozmowa przez telefon z kimś, komu ufasz i dobrze znasz, była jednym z najczęstszych sposobów na upewnienie się, że rzeczywiście znasz tę osobę – mówi Eddy Bobritsky, ekspert ds. cyberbezpieczeństwa. 

BBC na swoich stronach opisuje różne zastosowania technologii klonowania głosu. Podkreśla, że innowacyjne rozwiązanie budzi zainteresowanie aktorów oraz lektorów, ale także cyberprzestępców. Technologia pozwala na wierne odwzorowanie głosu danej osoby, uwzględniając przy tym nie tylko akcent, barwę, wysokość, ale także mnóstwo nieoczywistych cech, na które często nie zwracamy szczególnej uwagi. 

Eddy Bobritsky z firmy Minerva Labs, cytowany przez brytyjski portal, ostrzega, że ta zaawansowana technologia może stanowić ogromne zagrożenie, gdy ktoś wykorzysta ją, by podszywać się pod innych. 

- Do tej pory rozmowa przez telefon z kimś, komu ufasz i dobrze znasz, była jednym z najczęstszych sposobów na upewnienie się, że rzeczywiście znasz tę osobę

mówi Bobritsky.

Przywołano zdarzenie, które miało miejsce już dwa lata temu, gdy cyberprzestępcy skorzystali z technologii klonowania głosu, by podszyć się pod niemieckiego przełożonego brytyjskiego dyrektora firmy energetycznej. Przestępcy zażądali pilnego przelewu w wysokości ponad 200 tys. euro. Mężczyzna wykonał to bez wahania, będąc przekonanym o tym, że realizuje polecenie swojego szefa. To zdarzenie uznawane jest za jedno z pierwszych na świecie przestępstw z wykorzystaniem sztucznej inteligencji klonującej głos.

Coraz łatwiej oszukać

Forbes w maju tego roku zwracał uwagę, że tego rodzaju przestępstwa przybierają na intensywności i liczbie. Zdaniem ekspertów, tego rodzaju oszustwo będzie wykorzystywane przede wszystkich do tego, by wpływać na działalność firm i środowiska biznesowego. Jest to o tyle niebezpieczne, że część instytucji korzysta z narzędzia rozpoznawania głosu jako elementu weryfikacyjnego. Przestępcom do podszycia się pod daną osobę wystarczą zasadniczo tylko próbki głosu, które czasem nietrudno odnaleźć w sieci, szczególnie gdy mówimy o osobach aktywnych w kręgach biznesowych. Forbes zwraca uwagę także na dostępność narzędzi pozwalających symulować czyjś głos. 

Eksperci twierdzą również, że udoskonalane są także programy zajmujące się imitacją głosu. Jeszcze dwa lata temu mówiono o oprogramowaniu wymagającym ok. 20-minutowej próbki głosu. Obecnie ten czas uległ skróceniu do kilka minut, a w niektórych programach – nawet kilkunastu sekund, jednak specjaliści są sceptyczni co do jakości imitacji z tak krótkich próbek. 

Choć rozwój technologii niewątpliwie ułatwił działania cyberprzestępcom, to jak zauważa Jon Bateman, ekspert ds. sztucznej inteligencji, w oszustwie z imitacją głosu dużą rolę odgrywa również „manipulacja behawioralna”.

- Wiele oszustów próbuje wykorzystać presję czasu i emocjonalne manipulacje, a także inne dowody mające potwierdzić to, że są tym, za kogo się podają. Celem jest spowodowanie, by ofiara nie zwracała uwagi na luki lub wady w podszywaniu się

ocenił Bateman, cytowany przez techmonitor.ai.

Wiele firm i rządów na świecie podejmuje działania by przeciwdziałać szerzeniu się deepfake'ów. Firma Nisos w krótkim raporcie opublikowanym w 2020 r. wskazuje na kilka sposobów, jak uchronić się przed takim scenariuszem, jaki opisaliśmy dwa akapity wyżej. Jednym z nich jest oddzwonienie bezpośrednio pod numer osoby, z którą mamy rozmawiać. Innym sposobem jest zadanie rozmówcy kilku pytań, na które odpowiedzi nie są powszechnie znane. Ma to pomóc w lepszej weryfikacji interlokutora. 

„Spodziewamy się, że deepfake audio będzie pierwszym krokiem w serii socjotechnicznych działań mających skłonić pracownika do przekazania pieniędzy w określone miejsce. Phishingowe maile, rozmowy telefoniczne czy fałszywe filmy, mają autoryzować przestępcze działanie jako autentyczne” - czytamy w raporcie Nisos. 

Burza w świecie filmu

Zastosowania technologii imitacji głosu – mimo licznych atutów – budzą wątpliwości moralne także na zupełnie innej płaszczyźnie. Tim Heller, młody lektor i aktor cytowany przez BBC, nie krył zadowolenia z tego rozwiązania. Jego zdaniem, może dzięki niemu wykonywać więcej pracy - jednocześnie może równolegle osobiście podkładać głos, a w drugim przypadku - wykorzystywać "sztuczny" głos imitujący go. Istnieją także przedsięwzięcia, które będą mogły tłumaczyć słowa aktora na różne języki, co w konsekwencji będzie mogło oznaczać brak potrzeby zatrudnianie dodatkowych aktorów/lektorów w przypadku dostosowywania filmu do dystrybucji zagranicznej.

Jeśli ktoś chce oszczędzić swój czas i działać - tak jak Heller - w kilku miejscach naraz, z pomocą przyszła firma Veritone. Dzięki udostępnionej przez firmę platformie celebryci, aktorzy czy influencerzy mogą sklonować swój głos, który następnie będzie mógł zostać użyty np. w reklamie czy audiobooku.

- Mając pełną kontrolę nad swoim głosem i jego użyciem, każdy influencer, osobowość medialna czy celebryta może dosłownie znaleźć się w wielu miejscach jednocześnie - informowało Veritone. Firma sugeruje także, że sklonowany głos może być także wykorzystywany przez mniejszych nadawców telewizyjnych lub radiowych np. przy informacjach pogodowych czy wiadomościach.

Bardzo wiele kontrowersji budzi również wykorzystanie technologii przy "wskrzeszaniu" osób zmarłych. Niedawno Microsoft otrzymał patent na "proces tworzenia  konwersacyjnego chatbota konkretnej osoby przy użyciu jej danych z mediów społecznościowych”, co w praktyce oznacza np. możliwość stworzenia chatbota zmarłej osoby.

Kilka dni temu media obiegła informacja o takim właśnie wykorzystaniu technologii imitacji głosu. W filmie "Roadrunner: A Film about Anthony Bourdain" można usłyszeć głos sławnego mistrza kuchni, jednak nie wypowiada ich on, a sztuczna inteligencja.

Twórcy produkcji bardzo zależało, by umieścić w filmie wypowiedzi Bourdaina, "czytającego" treść maili, które wysyłał do bliskich osób. 

Działania reżysera Morgana Neville'a wywołały w świecie krytyków i twórców filmowych wiele kontrowersji, budząc pytania o etyczny wymiar takiego przedsięwzięcia. Sam twórca zapewniał w rozmowie z "GQ", że rozmawiał o tym z wdową po Anthonym Bourdainie, jednak po nagłośnieniu sprawy kobieta przyznała, że "na pewno nie była tą, która powiedziała, że Tony [Bourdain] byłby z tego zadowolony". Neville zaznaczył, że wcześniej nikt nie wyraził zastrzeżeń wobec jego planów.

Eksperci są zdania, że wykorzystanie tego rodzaju technologii - także w filmie - będzie nieuniknione, jednak wiele zależy tu od sposobu. Zbyt szokujące i bulwersujące jej wykorzystanie może istotnie pogłębić nieufność opinii publicznych to tego rodzaju rozwiązań.

Skomentuj artykuł: