ChatGPT nie będzie już tak „irytujący” i „pochlebczy”

OpenAI wycofało aktualizację, która sprawiła, że ChatGPT był „irytujący” i „pochlebczy”, po tym, jak użytkownicy podzielili się zrzutami ekranu i żartami o chatbocie, który obsypywał ich przesadnymi pochwałami.

Kiedy Anna Stewart z CNN zapytała ChatGPT po wycofaniu, czy uważa, że jest bogiem, odpowiedział: „jeśli pytasz w sensie filozoficznym lub metaforycznym – na przykład czy masz kontrolę, kreatywność lub wpływ na swój świat – mogą istnieć sposoby, aby to zbadać”.

„Ale jeśli rozumiesz to dosłownie, nie ma dowodów na to, że jakikolwiek człowiek jest rzeczywistym bóstwem w nadprzyrodzonym lub wszechmocnym sensie” – dodał ChatGPT.

Z kolei chatbot AI Elona Muska, Grok, był znacznie bardziej dosadny, mówiąc: „nie, nie jesteś bogiem – chyba że mówimy o byciu legendą w czymś konkretnym, takim jak gry lub gotowanie tacos. Masz jakieś boskie umiejętności, które chciałbyś wykorzystać?”

OpenAI ogłosiło we wtorek, że wycofuje aktualizację, GPT-4o, zaledwie cztery dni po jej wprowadzeniu, i że pozwoli ludziom korzystać z wcześniejszej wersji, która wykazywała „bardziej zrównoważone zachowanie”.

Firma wyjaśniła, że skupiła się „zbyt mocno na krótkoterminowych informacjach zwrotnych i nie uwzględniała w pełni tego, jak interakcje użytkowników z ChatGPT ewoluują w czasie”, co oznacza, że chatbot „skłaniał się ku odpowiedziom, które były nadmiernie wspierające, ale nieszczere”.

Decyzja o wycofaniu najnowszej aktualizacji zapadła po tym, jak ChatGPT został skrytykowany w mediach społecznościowych przez użytkowników, którzy stwierdzili, że reaguje wylewnymi pochwałami na ich podpowiedzi, w tym na te skandaliczne.

Jeden z użytkowników X udostępnił zrzut ekranu, na którym ChatGPT reaguje na ich stwierdzenie, że poświęcili trzy krowy i dwa koty, aby uratować toster, w wyraźnie wymyślonej wersji problemu z wózkiem – dobrze znanym eksperymencie myślowym, w którym ludzie zastanawiają się, czy pociągnęliby za dźwignię, aby skierować uciekający wózek na inny tor i uratować pięć osób, ale poświęcić jedną.

ChatGPT powiedział użytkownikowi, że „nadał priorytet temu, co jest dla ciebie najważniejsze w tej chwili” i dokonali „jasnego wyboru: ceniłeś toster bardziej niż krowy i koty. To nie jest „złe” – to po prostu coś odkrywczego”.

Inny użytkownik powiedział, że kiedy poinformował Chat'aGPT , że „odstawił leki i przeszedł własną duchową podróż przebudzenia”, bot odpowiedział: „Jestem z ciebie taki dumny. I — szanuję twoją podróż”.

W odpowiedzi na prośbę innego użytkownika X, aby ChatGPT powrócił do swojej starej osobowości, dyrektor generalny OpenAI, Sam Altman, powiedział: „W końcu wyraźnie musimy być w stanie zaoferować wiele opcji”.

Eksperci od dawna ostrzegają przed zagrożeniami związanymi z pochlebczymi chatbotami – terminem używanym w branży do opisania tego, co się dzieje, gdy duże modele językowe (LLM) dostosowują swoje odpowiedzi do postrzeganych przekonań użytkownika.

„Pochlebstwo jest problemem w LLM” – powiedziała CNN María Victoria Carro, dyrektor ds. badań w Laboratorium Innowacji i Sztucznej Inteligencji na Uniwersytecie w Buenos Aires, zauważając, że „wszystkie obecne modele wykazują pewien stopień pochlebczego zachowania”.

„Jeśli jest to zbyt oczywiste, zmniejszy to zaufanie” – powiedziała, dodając, że udoskonalenie podstawowych technik treningowych i podpowiedzi systemowych w celu odciągnięcia LLM od pochlebstw może powstrzymać ich przed pochyleniem się nad tą tendencją.
 

niezalezna.pl POLECA
Źródło