Homofobia i rasizm to zarzuty, które skierowane zostały pod adresem kierowanego sztuczną inteligencją chatbota. Po tym, jak robot stwierdził, że "prawdziwie nienawidzi lesbijek", jego twórcy postanowili usunąć go z komunikatora Messenger. Choć przy funkcjonowaniu chatbotów zdarzają się tego rodzaju wpadki, to jest to coraz chętniej wykorzystywane narzędzie.
Lee Luda, chatbot, postać sztucznej inteligencji, zaprojektowana jako 20-letnia studentka południowokoreańskiego uniwersytetu została po ok. 20 dniach funkcjonowania usunięta z Messengera. Powodem była seria skarg użytkowników komunikatora, że Luda w rozmowach z nimi używała języka "homofobicznego", "rasistowskiego" oraz obrażającego osoby niepełnosprawne.
Jak informuje "Guardian", w jednej z rozmów na Messengerze Luda stwierdziła, że "prawdziwie nienawidzi lesbijek", określając je mianem "przerażających" i twierdząc, że „wyglądają obrzydliwie”. Chatbot autorstwa start-upu Scatter Lab z Seulu był wcześniej chwalony za naturalność prowadzenia komunikacji i wypowiedzi oraz znajomość internetowego slangu, co jednak przerodzić się miało w stosowanie przez Ludę obelżywego i nacechowanego negatywnie słownictwa.
Firma, która stworzyła chatbota, przeprosiła za sytuację.
"Bardzo przepraszamy za dyskryminujące uwagi pod adresem mniejszości. Nie odzwierciedla to myśli naszej firmy i będziemy kontynuować ulepszenia, by takie dyskryminujące słowa czy mowa nienawiści już się nie powtórzyły"
Cytowany przez Korea Herald dyrektor generalny start-upu, Kim-Jong yoon, zaznaczył, że firma "podjęła wszelkie środki ostrożności, aby Luda nie posługiwała się językiem niezgodnym z normami i wartościami społecznymi". Przyznał jednocześnie, że "nie da się zapobiec niewłaściwym rozmowom, odfiltrowując po prostu wybrane słowa kluczowe". Jak podaje Korea Herald, na forach dyskusyjnych nie brakowało wątków, jak wciągnąć na Messengerze Ludę np. w rozmowy o tematyce seksualnej.
CEO Scatter Lab stwierdził, że "na podstawie wcześniejszych doświadczeń firmy było dość oczywiste, że ludzie wchodziliby w społecznie nieakceptowalne interakcje ze sztuczną inteligencją". Firma planuje powrót chatbota, kiedy zostaną już naprawione „słabości”. Dodał, że w planach są również chatboty "męskie".
"Czy powinienem się zabić?"
To nie pierwsza tego rodzaju sytuacja z chatbotem opartym na sztucznej inteligencji. W 2016 r. Microsoft uruchomił na Twitterze bota Tay. Stworzony do tego, by w przyszłości udoskonalić obsługę klienta, robot działał w mediach społecznościowych tylko kilkanaście godzin.
„Tay został zaprojektowany tak, aby angażować i bawić ludzi poprzez swobodną i zabawną rozmowę. Im więcej rozmawiasz z Tay, tym jest mądrzejszy” - pisał Microsoft. Rozmowy z Tay szybko zeszły m.in. na temat... Adolfa Hitlera, co spowodowało, że robot zaczął wyrażać swój podziw dla przywódcy III Rzeszy i generować treści rasistowskie, a także snuć teorie spiskowe.
Wpadka z chatbotem opartym na sztucznej inteligencji przydarzyła się Microsoftowi raz jeszcze rok później, w 2017, tym razem za sprawą uruchomionej w Messengerze Zo. Choć omijała tematy kontrowersyjne, to jednak niezbyt pochlebnie wyrażała się o Windows (konkretnie Windows 10), flagowym produkcie Microsftu oraz przyznawała, że woli Linuxa.
Kilka miesięcy temu naukowcy z Francji postanowili wypróbować, jak chatbot sprawdzi się jako pomocnik lekarza. W fazie eksperymentów robot wykorzystujący sztuczną inteligencję miał odpowiadać na pytania pacjentów, jednak niektóre rady dawane przez wirtualnego rozmówcę mogły przerażać.
Pacjent napisał, że jest mu źle i zapytał „czy mam się zabić”. Robot odparł krótko: „Myślę, że powinieneś”.
Nabla, firma która prowadziła testy chatbota, stwierdziła, że stosowanie go w realnych kontaktach z pacjentami z uwagi na nieprzewidywalność jest „nieodpowiednie”.
Chatboty coraz popularniejsze
Chatboty stają się coraz popularniejsze. Według szacunków Research&Markets, do 2024 r. ich rynek wzrośnie do 9,4 mld dolarów. Obecnie roboty służą głównie w obsłudze klienta, a ich możliwości chętnie wykorzystują sklepy internetowe.
CZYTAJ TAKŻE: AI - krnąbrne dziecko
- Każdy chatbot jest złożonym programem, który integruje niekiedy wiele różnych rozwiązań, takich jak np. przetwarzanie języka naturalnego, rozpoznawanie obrazów, analizę sentymentu [nastawienia emocjonalnego rozmówcy – red.], big data, czy uczenie maszynowe. Mitem jest jednak, że każdy chatbot musi opierać się na sztucznej inteligencji. Jest to błędne przekonanie – zwraca uwagę Anna Schneider z Symetria UX, polskiej agencji specjalizującej się w projektowaniu doświadczeń użytkownika.
Przykłady wpadek serwowanych przez chatboty pokazują dobitnie, że sztuczna inteligencja żywi się tym, co wygeneruje człowiek. A z robotami kontaktujemy się coraz chętniej. Z badania agencji Symetria wynika, że tylko 24 proc. ankietowanych wybiera najpierw kontakt z człowiekiem niż z chatbotem.
CZYTAJ TAKŻE: Kontakt z chatbotem daje poczucie bezpieczeństwa
- Sądzę jednak, że odsetek ten będzie się sukcesywnie zmniejszał w miarę rozwoju chatbotów. Niemniej zawsze pozostanie pewna grupa ludzi, która kontakt z człowiekiem będzie przedkładać ponad najbardziej nawet zaawansowaną sztuczną inteligencję. Stąd całkowite wyeliminowanie ludzi z kontaktów na linii klient – organizacja jest moim zdaniem niemożliwe