Dzięki sztucznej inteligencji można tworzyć głosy łudząco podobne do naturalnych, a podróbki audio wykorzystują przestępcy. Organy bezpieczeństwa w Niemczech ledwo nadążają.
Pewnego dnia Corinna Busch z Neuss odebrała telefon z zastrzeżonego numeru. Po drugiej stronie roztrzęsiony głos jej syna oznajmił: „Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi”. Tak opowiada o tym Corinna Busch – czytamy na portalu tagesschau.de prowadzonym przez publicznego nadawcę ARD, w ramach którego działa Südwestrundfunk (SWR).
Głos bez wątpienia brzmiał jak głos jej syna – relacjonuje Busch w rozmowie z dziennikarzami SWR. Rzekomy „policjant” powiedział jej przez telefon, że jej syn jest w areszcie i że zwolni go za kaucją, po czym się rozłączył. Zszokowany mąż Corinny Busch, Wolf Busch, zadzwonił do syna, który – jak się okazało – nie był na posterunku policji, ale w domu.
Ponieważ głos brzmiał łudząco prawdziwie, Buschowie są przekonani, że ktoś podrobił głos ich syna za pomocą sztucznej inteligencji (AI). Jednak śledczy nie byli w stanie ustalić, czy przestępcy faktycznie wykorzystali AI, tak samo jak nie byli w stanie znaleźć sprawców.
Obecnie istnieje kilka usług online, które ułatwiają „klonowanie głosów” przy użyciu sztucznej inteligencji, informuje Tasnim Rödder z SWR. Badania przeprowadzone przez program śledczy SWR „Vollbild” wykazały, że przestępczy używają tej technologii do kradzieży tożsamości czy oszukańczych telefonów w „nagłych” sytuacjach.
Federalne Ministerstwo Spraw Wewnętrznych stwierdziło w odpowiedzi na pytanie dziennikarzy SWR, że organy bezpieczeństwa stoją codziennie przed „różnorodnymi i złożonymi wyzwaniami” związanymi z rozwojem technologicznym.
Zapytanie SWR skierowane do biur śledczych (LKA) w 16 landach pokazuje, że rodzina Busch nie jest odosobnionym przypadkiem. W samej Nadrenii Północnej-Westfalii popełniono ponad 8000 przestępstw w związku z telefonami i sztuczkami „na wnuczka” – wykazują statystyki kryminalne niemieckiej policji za 2022 rok. Większości z tych spraw nie udało się rozwiązać.
Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu nie jest rejestrowana, informuje Federalny Urząd Policji Kryminalnej w odpowiedzi na pytanie SWR. Nie jest też rejestrowane, ile z tych przestępstw zostało popełnionych przy pomocy sztucznej inteligencji.
Postęp technologii AI niepokoi śledczych: LKA w Hesji wskazuje, że fałszerstwa audio jeszcze rok lub dwa lata temu były wyzwaniem dla przestępców. Jednak teraz istnieją już częściowo darmowe strony internetowe, dzięki którym możliwe jest osiągnięcie „dobrych wyników” poprzez tworzenie nagrań wysokiej jakości.
Firma technologiczna McAfee przeprowadziła ankietę online wśród około 7000 osób z siedmiu krajów na temat fałszowania dźwięku przy użyciu sztucznej inteligencji. Nieco ponad 1000 respondentów pochodziło z Niemiec. 22 procent stwierdziło, że oni sami lub ich znajomi doświadczyli już oszustw audio z wykorzystaniem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 procent.
Z ankiety wynika też, że AI potrafi klonować głosy z 95-procentową dokładnością. Jeden z takich programów pochodzi z amerykańskiego start-upu ElevenLabs. Pod koniec kwietnia firma wydała wersję z niemieckimi głosami. ElevenLabs twierdzi, że liczba jej użytkowników wzrosła od zera do ponad miliona w ciągu pięciu miesięcy.
Także redakcja „Vollbild” przetestowała klonowanie głosu. Z pomocą ElevenLabs i programu open-source, zespół redakcyjny był w stanie sklonować głos autorki podcastów Ariany Baborie. Przeżyła szok, gdy skonfrontowano ją z wynikiem: „Bardzo trudno było mi zdać sobie sprawę, że to nie byłam naprawdę ja” – powiedziała, gdy usłyszała własnego klona.