Ponad 2 lata po ChatGPT media wciąż zmagają się z błędami AI

Niedokładna lista lektur opracowana przez sztuczną inteligencję, opublikowana niedawno przez dwie amerykańskie gazety, pokazuje, jak łatwo wydawcom jest nadal umieszczać materiały opracowane przez AI i niesprawdzone przez dziennikarzy.

„Chicago Sun-Times” i „Philadelphia Inquirer” opublikowały w zeszłym tygodniu letnią wkładkę do czytania wyprodukowaną przez King Features, spółkę zależną Hearst Newspapers, która dostarcza tym gazetom licencjonowane treści. Podczas gdy wkładka zawierała prawdziwe teksty autorów, polecane książki były w większości fałszywe. Ostatecznie odkryto, że dziennikarz stworzył listę za pomocą ChatGPT i nie sprawdził jej pod kątem faktów.

„Czasami używam sztucznej inteligencji jako tła, ale zawsze najpierw sprawdzam materiał” – powiedział autor wkładki.

„Tym razem tego nie zrobiłem i nie mogę uwierzyć, że to przegapiłem, ponieważ jest to tak oczywiste. Żadnych wymówek” - dodał dziennikarz.

Uruchomienie ChatGPT przez OpenAI ponad dwa lata temu zapoczątkowało gorączkę złota AI, co spowodowało zalew narzędzi opartych na sztucznej inteligencji, których celem jest pomoc ludziom w znajdowaniu informacji w Internecie bez przeszukiwania list linków. Ale ta wygoda ma swoją cenę, ponieważ chatboty AI nadal oferują nieprawidłowe lub spekulacyjne odpowiedzi.

Redakcje gazet przyjęły chatboty oparte na sztucznej inteligencji z pewnym niepokojem, zdając sobie sprawę, że technologia ta otwiera nowe możliwości, a także potencjalne spore błędy – a wszystko to w obliczu obaw, że sztuczna inteligencja może doprowadzić do utraty miejsc pracy i pochłonąć źródła przychodów serwisów informacyjnych.

Nieprzyjęcie tej technologii oznacza jednak ryzyko, że zostaniesz w tyle, ponieważ inni wykorzystują sztuczną inteligencję do przeczesywania ogromnych zbiorów danych, inkubowania pomysłów i pomagania czytelnikom w poruszaniu się po skomplikowanych narracjach.

Incydent z wkładką ilustruje niezliczone sposoby, w jakie błędy sztucznej inteligencji mogą być wprowadzane do produktów informacyjnych. Większość dodatków, które „Sun-Times” opublikował w tym roku – od łamigłówek po poradniki – pochodziła od Hearsta, powiedziała CNN Tracy Brown, dyrektor ds. partnerstwa w Chicago Public Media, spółce macierzystej „Sun-Times”. Jednak niezależnie od tego, czy jest to wkładka, czy pełnometrażowa historia, redakcje muszą ostrożnie korzystać ze sztucznej inteligencji, podkreśla Brown.

Właśnie dlatego, że sztuczna inteligencja jest podatna na błędy, redakcje muszą utrzymywać „podstawowe standardy i wartości, które od dawna kierują ich pracą” – powiedział CNN Peter Adams, starszy wiceprezes ds. badań i projektowania w News Literacy Project. Obejmuje to przede wszystkim przejrzystość w zakresie korzystania ze sztucznej inteligencji.

Associated Press – uważana przez wielu w branży informacyjnej za złoty standard praktyk dziennikarskich, biorąc pod uwagę sposób, w jaki wykorzystała sztuczną inteligencję do tłumaczeń, podsumowań i nagłówków – unikała gaf, zawsze uwzględniając ludzki mechanizm ochronny. Amanda Barrett, wiceprezes AP ds. standardów, powiedziała CNN, że wszelkie informacje zebrane za pomocą narzędzi sztucznej inteligencji są uważane za niesprawdzony materiał źródłowy, a reporterzy są odpowiedzialni za weryfikację informacji wytworzonych przez sztuczną inteligencję.

AP sprawdza również, czy jego partnerzy zewnętrzni mają podobne zasady dotyczące sztucznej inteligencji.

Mimo to, jak zauważa Felix Simon, pracownik naukowy zajmujący się sztuczną inteligencją i wiadomościami cyfrowymi w Reuters Institute for the Study of Journalism na Uniwersytecie Oksfordzkim, „naprawdę skandaliczne przypadki były nieliczne”.

Nowe innowacje badawcze zmniejszyły tzw. „halucynacje”, czyli fałszywe odpowiedzi ze strony sztucznej inteligencji, zmuszając chatboty do spędzania więcej czasu na myśleniu przed udzieleniem odpowiedzi. AI nie jest jednak nieomylna i dlatego te incydenty nadal się zdarzają.

Prawdziwym wnioskiem z całej tej dyskusji o omylności AI i niezbędności człowieka, nie jest tylko to, że ludzie są potrzebni – chodzi o to, „dlaczego jesteśmy potrzebni”.

Nie po to, by „sprzątać” po sztucznej inteligencji, ale po to, by robić rzeczy, których sztuczna inteligencja zasadniczo nie jest w stanie zrobić. A mianowicie do podejmowania moralnych wezwań, rzucania wyzwania władzy, rozumienia niuansów i decydowania o tym, co naprawdę ma znaczenie.
 

Źródło