Nie, sztuczna inteligencja Google stanowczo nie jest świadoma

Firmy technologiczne nieustannie promują możliwości swojej stale ulepszanej sztucznej inteligencji. Ale Google szybko zdementował twierdzenia, że jeden z jego programów rozwinął się tak bardzo, że stał się świadomy.

Według sobotniego artykułu „Washington Post”, jeden inżynier z Google miał oznajmić, że po setkach interakcji z najnowocześniejszym, niewydanym systemem sztucznej inteligencji o nazwie LaMDA, program ten osiągnął poziom świadomości.

W wywiadach i publicznych wypowiedziach wielu członków społeczności AI odrzuciło twierdzenia inżyniera, podczas gdy niektórzy wskazywali, że jego opowieść pokazuje, w jaki sposób technologia może skłonić ludzi do przypisywania jej ludzkich atrybutów.

Jednak przekonanie, że sztuczna inteligencja Google może być świadoma, niewątpliwie podkreśla zarówno nasze obawy, jak i oczekiwania dotyczące tego, co ta technologia może zrobić.

LaMDA, co oznacza „model języka dla aplikacji dialogowych”, jest jednym z kilku wielkoskalowych systemów sztucznej inteligencji, które zostały przeszkolone na dużych fragmentach tekstu z Internetu i może odpowiadać na pisemne monity. Ich zadaniem jest zasadniczo znajdowanie wzorców i przewidywanie, jakie słowo lub słowa powinny nadejść w następnej kolejności. Takie systemy stają się coraz lepsze w odpowiadaniu na pytania i pisaniu w sposób, który może wydawać się przekonująco ludzki - a samo Google przedstawiło LaMDA w maju zeszłego roku w poście na blogu jako system, który może „w swobodny sposób angażować się w pozornie nieskończoną liczbę tematów. Nie mniej jednak wyniki tych prac wskazują, że równie dobrze mogą być również zwariowane, dziwne, niepokojące i podatne na chaos.

Inżynier Blake Lemoine podobno powiedział „Washington Post”, że podzielił się z Google dowodami na to, że LaMDA jest świadomy, ale firma się nie zgodziła.

W oświadczeniu Google poinformowało, że jego zespół, w skład którego wchodzą etycy i technolodzy, „rozpatrzył obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń”.

6 czerwca Lemoine opublikował na mediach, że Google umieściło go na płatnym urlopie administracyjnym „w związku z dochodzeniem w sprawie obaw dotyczących etyki sztucznej inteligencji, które zgłaszał w firmie” i że może zostać zwolniony „wkrótce”.

Rzecznik Google potwierdził, że Lemoine pozostaje na urlopie administracyjnym. Według „The Washington Post” został przeniesiony na urlop za naruszenie polityki poufności firmy.

Ciągłe pojawianie się potężnych programów komputerowych wyszkolonych na danych z ogromnych skarbców również wzbudziło obawy dotyczące etyki rządzącej rozwojem i wykorzystaniem takich technologii. Czasami postęp jest postrzegany przez pryzmat tego, co może nadejść, a nie tego, co jest obecnie możliwe.

Odpowiedzi ze społeczności AI na doświadczenia Lemoine'a rozeszły się rykoszetem w mediach społecznościowych w ciągu weekendu i generalnie wszyscy doszli do tego samego wniosku: AI Google nie jest nawet blisko świadomości.

W swoim oświadczeniu Google wskazał, że LaMDA przeszedł 11 „odmiennych przeglądów zasad AI”, a także „rygorystyczne badania i testy” związane z jakością, bezpieczeństwem i zdolnością do formułowania oświadczeń opartych na faktach. „Oczywiście, niektórzy w szerszej społeczności AI rozważają długoterminową możliwość istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są świadome” – oznajmiła firma.

„Setki badaczy i inżynierów rozmawiało z LaMDA i nie jesteśmy świadomi, że ktokolwiek inny wysuwałby szeroko zakrojone twierdzenia lub antropomorfizował LaMDA, tak jak Blake” – stwierdziło z naciskiem Google.

Źródło

Skomentuj artykuł: