Była metoda „na wnuczka”, teraz są oszustwa związane z klonowaniem głosu przez AI
Miliony ludzi mogą paść ofiarą oszustw wykorzystujących sztuczną inteligencję do klonowania ich głosu, ostrzegł brytyjski Starling Bank. Pożyczkodawca, twierdzi, że oszuści są w stanie wykorzystać sztuczną inteligencję do odtworzenia głosu danej osoby na podstawie zaledwie trzech sekund dźwięku znalezionego na przykład w filmie, który dana osoba opublikowała w Internecie.
Oszuści mogą następnie zidentyfikować znajomych i członków rodziny danej osoby i użyć sklonowanego przez sztuczną inteligencję głosu do przeprowadzenia rozmowy telefonicznej z prośbą o pieniądze. Tego typu oszustwa mają potencjał, aby „złapać miliony” – ostrzegł Starling Bank w środowym komunikacie prasowym.
Dotknęły one już setki osób. Według ankiety przeprowadzonej wśród ponad 3000 dorosłych, którą bank przeprowadził we współpracy z Mortar Research w zeszłym miesiącu, ponad jedna czwarta respondentów stwierdziła, że w ciągu ostatnich 12 miesięcy padła ofiarą oszustwa polegającego na klonowaniu głosu przez sztuczną inteligencję.
Badanie wykazało również, że 46% respondentów nie było świadomych istnienia takich oszustw, a 8% wysłałoby tyle pieniędzy, o ile poprosiłby przyjaciel lub członek rodziny, nawet jeśli uważaliby, że rozmowa wydaje się dziwna.
„Ludzie regularnie publikują w Internecie treści, które zawierają nagrania ich głosu, nawet nie wyobrażając sobie, że czyni ich to bardziej podatnymi na oszustów”
– powiedziała Lisa Grahame, dyrektor ds. bezpieczeństwa informacji w Starling Bank.
Bank zachęca ludzi do uzgodnienia ze swoimi bliskimi „bezpiecznej frazy” – prostej, losowej frazy, która jest łatwa do zapamiętania i różni się od innych haseł – której można użyć do weryfikacji tożsamości przez telefon.
Pożyczkodawca odradza udostępnianie bezpiecznej frazy w tekście, co może ułatwić oszustom znalezienie informacji, ale jeśli zostanie udostępniona w ten sposób, wiadomość powinna zostać usunięta, gdy druga osoba ją zobaczy.
W miarę jak sztuczna inteligencja staje się coraz bardziej biegła w naśladowaniu ludzkich głosów, rosną obawy o jej potencjał do szkodzenia ludziom, na przykład poprzez pomaganie przestępcom w uzyskiwaniu dostępu do ich kont bankowych i rozpowszechnianie dezinformacji.
Na początku tego roku OpenAI, twórca chatbota generatywnej sztucznej inteligencji ChatGPT, zaprezentował swoje narzędzie do replikacji głosu, Voice Engine, ale nie udostępnił go publicznie na tym etapie, powołując się na „potencjał niewłaściwego wykorzystania syntetycznego głosu”.