Czy sztuczna inteligencja zastąpi psychoterapeutę?

ChatGPT staje się wiralowy w mediach społecznościowych ze względu na swoją rolę jako nowy terapeuta pokolenia Z. Eksperci ostrzegają jednak, że sztucznej inteligencji brakuje ludzkiej empatii i wiedzy klinicznej, mimo że oferuje wygodę i powszechną dostępność.

Chcemy, czy nie chcemy chatboty AI wkraczają na fotel terapeuty. Nie wszyscy jednak są z tego powodu zachwyceni.
Tylko w marcu 16,7 miliona postów od użytkowników TikToka omawiało używanie ChatGPT jako terapeuty. Jednak specjaliści ds. zdrowia psychicznego podnoszą czerwone flagi w związku z rosnącym trendem, w którym narzędzia sztucznej inteligencji są wykorzystywane zamiast nich do leczenia lęku, depresji i innych wyzwań związanych ze zdrowiem psychicznym.

„ChatGPT samodzielnie sprawił, że stałam się mniej niespokojną osobą, jeśli chodzi o randki, jeśli chodzi o zdrowie, jeśli chodzi o karierę” – użytkowniczka @christinazozulya podzieliła się w filmie opublikowanym na TikToku na jej profilu w zeszłym miesiącu.

„Za każdym razem, gdy odczuwam niepokój, zamiast bombardować rodziców SMS-ami, jak kiedyś, wysyłać SMS-y do przyjaciela lub w zasadzie się rozwalać... zanim to zrobię, zawsze zapisuję swoje myśli w ChatGPT, a on naprawdę dobrze mnie uspokaja i zapewnia natychmiastową ulgę, która niestety nie jest tak dostępna dla wszystkich”.

Użytkowniczka @karly.bailey, powiedziała, że używa platformy „cały czas” do „darmowej terapii” jako ktoś, kto pracuje dla start-upu i nie ma ubezpieczenia zdrowotnego. „Po prostu powiem mu, co się dzieje i jak się czuję i dosłownie wszystkie szczegóły, jakbym nadawała do dziewczyny, a to daje mi najlepszą radę” .

Ci użytkownicy nie są sami. Badanie przeprowadzone przez Tebra, system operacyjny dla niezależnych dostawców opieki zdrowotnej, wykazało, że „1 na 4 Amerykanów jest bardziej skłonny rozmawiać z chatbotem AI zamiast uczęszczać na terapię”.

W Wielkiej Brytanii niektórzy młodzi dorośli decydują się na postrzegane korzyści płynące z przydatnego konsultanta ds. zdrowia psychicznego AI zamiast długiego czasu oczekiwania National Health Service (NHS) i unikania płacenia za prywatne poradnictwo, które może kosztować około 400 funtów (około 540 USD).

Według „The Times”, dane z Rethink Mental Illness wykazały, że ponad 16 500 osób w Wielkiej Brytanii nadal czeka na usługi w zakresie zdrowia psychicznego po 18 miesiącach, co wskazuje, że obciążenia kosztowe, czas oczekiwania i inne przeszkody związane z poszukiwaniem opieki zdrowotnej mogą nasilać chęć skorzystania z bardziej opłacalnej i wygodnej metody.

Ale chociaż krytycy twierdzą, że te wirtualne boty mogą być dostępne i wygodne, brakuje im również ludzkiej empatii i mogą narazić niektórych, którzy są w trybie kryzysowym, na ryzyko, że nigdy nie otrzymają dostosowanego do ich potrzeb podejścia.

„Rozmawiałem z ChatGPT i przetestowałem kilka podpowiedzi, aby zobaczyć, jak bardzo są responsywne, a ChatGPT ma tendencję do pobierania informacji z Google, syntetyzowania ich i [to] może przyjąć rolę terapeuty” – powiedział Fox News Digital dr Kojo Sarfo, osobowość mediów społecznościowych i ekspert ds. zdrowia psychicznego.

Niektóre GPT, takie jak Therapist GPT, są specjalnie dostosowane, aby zapewnić „komfort, porady i wsparcie terapeutyczne”.

Platforma nie obejmuje jednak opieką tak daleko, jak profesjonaliści, którzy mogą stawiać diagnozy, przepisywać leki, monitorować postępy lub łagodzić poważne problemy.

„Może to być terapeutyczne i dawać ludziom wsparcie, ale nie sądzę, aby było to substytutem prawdziwego terapeuty, który jest w stanie pomóc ci przejść przez bardziej złożone problemy ze zdrowiem psychicznym” 

– dodał Sarfo.

„Martwię się szczególnie o ludzi, którzy mogą potrzebować leków psychotropowych, że używają sztucznej inteligencji, aby pomóc im poczuć się lepiej i używają jej jako terapii. Ale czasami... wskazana jest terapia i leki. Nie ma więc sposobu, aby uzyskać odpowiednie leczenie pod względem leków bez udania się do prawdziwego profesjonalisty. Jest to więc jedna z rzeczy, której nie można zlecić sztucznej inteligencji” - twierdzi Sarfo.

Na początku tego roku dr Christine Yu Moutier, dyrektor medyczny w American Foundation for Suicide Prevention, ostrzegła przed używaniem technologii do poradnictwa w zakresie zdrowia psychicznego, mówiąc Fox News Digital, że istnieją „krytyczne luki” w badaniach dotyczących zamierzonego i niezamierzonego wpływu sztucznej inteligencji na ryzyko samobójstwa, zdrowia psychicznego i szerzej innych zachowań ludzkich.

„Problem z tymi chatbotami AI polega na tym, że nie zostały one zaprojektowane z myślą o wiedzy specjalistycznej na temat ryzyka samobójstw i zapobiegania samobójstwom wbudowanej w algorytmy. Ponadto na platformie nie ma infolinii dla użytkowników, którzy mogą być zagrożeni chorobą psychiczną lub samobójstwem, nie ma szkoleń na temat korzystania z narzędzia, jeśli jesteś w grupie ryzyka, ani standardów branżowych regulujących te technologie”

 – powiedziała.

Dr Moutier wyjaśnił również, że ponieważ chatboty mogą nie być w stanie odszyfrować metafory od dosłownego języka, mogą nie być w stanie odpowiednio określić, czy ktoś jest zagrożony samookaleczeniem.
 

Źródło