OpenAI uruchomiło właśnie tryb głosowy w ChatGPT. To spory krok technologiczny dla sztucznej inteligencji i tych, którzy z niej korzystają. Innowacja ta jednak jest tak udana, że firma ostrzega, iż ludzie mogą stać się od niej emocjonalnie zależni.
Każdy z nas miewa chwilę, że ma dość wszystkiego, także towarzystwa innych ludzi. Ich wady sprawiają, że dosyć często irytujemy się i najchętniej porozmawialibyśmy z kimś nam życzliwym i przyjaznym zamiast nich. Okazuje się, że jest „ktoś”, kto może z nami porozmawiać niezależnie od naszego złego humoru czy pory dnia. To właśnie nowy tryb głosowy w ChatGPT. Według jego twórców jest on tak dobry, że ludzie mogą zacząć zbytnio polegać na nim w kwestii towarzystwa, co może, jak ostrzega firma, prowadzić do „uzależnienia”. Niebezpieczeństwo jest tym większe, że sztuczna inteligencja w tym nowym trybie ma ciepły, ludzko brzmiący głos.
Jak poinformował portal CNN Business to ostrzeżenie w stosunku do użytkowników płatnej wersji ChatGPT pojawiło się w czwartkowym raporcie OpenAI na temat przeglądu bezpieczeństwa, który przeprowadził dla narzędzia – które zaczęło być udostępniane w zeszłym tygodniu.
Jak poinformował portal „zaawansowany tryb głosowy ChatGPT brzmi niezwykle realistycznie. Reaguje w czasie rzeczywistym, potrafi dostosować się do przerywania, wydaje dźwięki, które ludzie wydają podczas rozmów, takie jak śmiech lub „hmms”. Może również ocenić stan emocjonalny mówcy na podstawie jego tonu głosu.”
OpenAI jednak szybko zaniepokoiło się tym, że użytkownicy, którzy będą długo rozmawiać z trybem głosowym ChatGPT w języku „wyrażającym wspólne więzi” z narzędziem, po prostu się od niego emocjonalnie uzależnią.
Umożliwienie użytkownikom rozmowy z AI przy użyciu głosu, a nie tylko tekstu, przynosi zarówno szereg korzyści, jak i wyzwań, w tym ryzyko emocjonalnego zaangażowania się w relację z cyfrowym rozmówcą. Niewątpliwą zaletą trybu głosowego ChatGPT jest wprowadzenie bardziej naturalnego sposobu komunikacji z AI. Rozmowa jest dla wielu osób łatwiejsza i szybsza niż pisanie. Jest to szczególnie korzystne dla osób starszych oraz tych z trudnościami w komunikacji pisemnej. Poza tym głos ma zdolność „wyrażania emocji”, co może sprawić, że rozmowy z AI będą bardziej ludzkie i pełne empatii. Dzięki intonacji i tempu mowy, ChatGPT może lepiej dostosować odpowiedzi do nastroju użytkownika, co zwiększa jakość interakcji.
Istnieją jednak także i wady tego trybu komunikacji z użytkownikiem. Na pierwszy plan wyłaniają się ograniczenia technologiczne. Mimo postępów w technologii rozpoznawania mowy, nadal istnieją ograniczenia w tej dziedzinie. Błędy w rozpoznawaniu słów, akcentów lub dialektów mogą prowadzić do nieporozumień i frustracji użytkownika. W trybie głosowym trudniej jest przetwarzać i analizować złożone informacje, które mogą wymagać od użytkownika przemyślenia lub powrotu do wcześniejszych wypowiedzi. Komunikacja tekstowa lepiej nadaje się do dłuższych, bardziej skomplikowanych dyskusji.
Jednym z kluczowych wyzwań, które pojawiają się wraz z wprowadzeniem trybu głosowego, jest wspomniane wyżej ryzyko emocjonalnego zaangażowania się użytkowników w relacje z AI, czyli to co można by określić jako „iluzję relacji”. Głos powoduje nowy wymiar interakcji, który może sprawiać, że AI wydaje się bardziej ludzkie. Użytkownicy mogą więc zacząć postrzegać AI jako przyjaciela lub powiernika, co może prowadzić do „iluzji rzeczywistej relacji”. To z kolei, jak ostrzega twórca ChatGPT może wpłynąć na ich emocje, poczucie samotności, a nawet zdrowie psychiczne. W przeciwieństwie do ludzkich relacji, AI nie ma zdolności do empatii ani prawdziwego zrozumienia uczuć użytkownika. Może to prowadzić do sytuacji, w których użytkownik oczekuje wsparcia emocjonalnego od AI, którego ta nie jest w stanie zapewnić. W dłuższej perspektywie może to pogłębiać poczucie osamotnienia lub rozczarowanie. Długotrwałe rozmowy z AI w trybie głosowym mogą prowadzić do zatarcia granic między rzeczywistością a fikcją.
Co by jednak nie mówić o oszałamiających postępach AI w „rozumieniu” naszej mowy i nastroju, jest to tylko maszyna, która nie ma prawdziwych emocji i nie może wejść z nami w żadne osobowe relacje. Ludzie samotni mogą zechcieć od czasu do czasu z nią „porozmawiać” czy dowiedzieć się czegoś jednocześnie na przykład gotując. Jednak to nie zastąpi nigdy prawdziwej relacji z drugim człowiekiem. Ludzie z problemami emocjonalnymi, rzeczywiście mogą mieć kłopot z uzależnieniem się od AI, jednak przede wszystkim powinni szukać pomocy u specjalisty-człowieka a nie ograniczonego i niedoskonałego programu.
Oczywiście, jeśli puścimy wodze fantazji, możemy sobie wyobrazić maszyny- psychoterapeutów w odległej przyszłości. Jednak, przynajmniej na razie, nikt nie zastąpi dobrego, empatycznego psychologa, który zajmuje się nami i naszymi problemami z prawdziwą życzliwością i profesjonalizmem.
Tak więc rozumiem, że intencją twórców AI jest stworzenie bardziej „ludzkich” programów. Jednak również i naszym, jako ludzi, celem, powinno być stanie się bardziej ludzką istotą, tzn. przyjazną i otwartą na innych. Wtedy nikt nie będzie szukał „pocieszenia” w maszynach.