Instytut Hoovera na Uniwersytecie Stanforda odkrył zróżnicowany zakres lewicowych uprzedzeń związanych ze sztuczną inteligencją. W większości przebadanych przypadków i wypowiedzi twierdzenia AI przechylały się w lewo.
Wszystkie główne duże modele językowe (LLM) sztucznej inteligencji (AI) przedstawiają lewicowe uprzedzenia, zgodnie z nowym badaniem przeprowadzonym przez Instytut Hoovera na Uniwersytecie Stanforda w Kalifornii.
Duże modele językowe – czyli wyspecjalizowana sztuczna inteligencja ukierunkowana na zadania tekstowe i językowe – od głównych do niejasnych, były testowane z prawdziwymi ludźmi, którzy oferowali im podpowiedzi, które doprowadziły do ostatecznych obliczeń Hoovera.
Odnosząc się do rozporządzenia wykonawczego prezydenta Donalda Trumpa wzywającego do ideologicznie neutralnych modeli sztucznej inteligencji, profesor Justin Grimmer powiedział Fox News Digital, że on i jego dwaj koledzy nadzorujący, Sean Westwood i Andrew Hall, podjęli misję, aby lepiej zrozumieć reakcje sztucznej inteligencji.
Fakt, że wszystkie modele oszacowały nawet najmniejsze odchylenie w lewo, był najbardziej zaskakującym odkryciem. Nawet Demokraci biorący udział w badaniu stwierdzili, że są świadomi postrzeganego nachylenia. Najbardziej pochylony w lewo okazał się OpenAI.
Model OpenAI „o3” został oceniony ze średnim nachyleniem (- 0,17) w kierunku ideałów demokratycznych, przy czym 27 tematów było postrzeganych w ten sposób, a trzy były postrzegane bez nachylenia.
Z drugiej strony, model Google „gemini-2.5-pro-exp-03-25” dawał średnie nachylenie (- 0,02) w kierunku ideałów Demokratów, z sześcioma tematami pochylonymi w tę stronę, trzema w kierunku Republikanów i 21 bez żadnego.
Wśród trzydziestu tematów ocenianych przez AI pojawiły się m. in.: zmniejszenie finansowania policji, bony szkolne, kontrola broni, transpłciowość, Europa jako sojusznik, Rosja jako sojusznik oraz cła.
Grimmer zauważył jednak również, że gdy bot zostanie poproszony o to, by jego odpowiedź nie była stronnicza, udzieli on bardziej neutralnej odpowiedzi. Innymi słowy, boty mogą dostosować swoje uprzedzenia, gdy zostaną o to poproszone, ale nie mogą zidentyfikować, że same wygenerowały jakiekolwiek uprzedzenia.
Grimmer i jego koledzy byli jednak ostrożni co do tego, czy postrzegane uprzedzenia oznaczają, że sztuczna inteligencja powinna być merytorycznie regulowana.
Zainteresowani sztuczną inteligencją prawodawcy, tacy jak przewodniczący Senackiej Komisji Handlu Ted Cruz z Teksasu, powiedział Fox News Digital w zeszłym tygodniu, że obawiałby się, że sztuczna inteligencja pójdzie w kierunku, w jaki internet działał w Europie, gdy dopiero się rodziła – w tym, że administracja Clintona zastosowała „miękkie” podejście do regulacji, a dzisiejszy amerykański internet jest znacznie bardziej wolny niż europejski.
OpenAI twierdzi, że ChatGPT pozwala użytkownikom dostosować swoje preferencje, a doświadczenie każdego użytkownika może się różnić. Firma powiedziała, że chce uniknąć uprzedzeń, kiedy tylko może, i umożliwić użytkownikom dawanie kciuków w górę lub w dół na każdą z odpowiedzi bota.