Kiedy sztuczna inteligencja wymknie się spod kontroli? Bunt robotów to nie science-fiction!

Bunt robotów to wizja, która przez lata tkwiła w wyobraźni twórców fantastyki naukowej i jej miłośników. Wraz z rozwojem sztucznej inteligencji zjawisko z pogranicza fikcji literackiej zdaje się być coraz bardziej realne. Berliński Instytut Maxa Plancka ostrzega, że człowiek nie byłby w stanie kontrolować „superinteligentnej” AI. - Są już maszyny, które wykonują pewne ważne zadania niezależnie, bez pełnego zrozumienia przez programistów sposobu, w jaki się tego nauczyły - twierdzi Manuel Cebrian z Instytut Rozwoju Człowieka im. Maxa Plancka.

Kilka tygodni temu opisywaliśmy przykłady chatbotów kierowanych sztuczną inteligencją, które nieco skręciły z drogi nakreślonej przez ich twórców. Roboty uczyły się za pośrednictwem prowadzonych konwersacji m.in. obelżywych słów czy języka nacechowanego pogardliwie lub dyskryminująco. - Nie da się zapobiec niewłaściwym rozmowom, odfiltrowując po prostu wybrane słowa kluczowe – mówił Kim Jong-yoon, CEO start-upu Scatter Lab, który uruchomił oskarżanego następnie o "homofobię" chatbota Lee Ludę.

CZYTAJ RÓWNIEŻ: Chatbot oskarżony o rasizm i homofobię

Chatboty są jednak wciąż udoskonalane i wykorzystywane coraz chętniej w różnych branżach. W grudniu, jak informuje portal popularmechanics.com, Microsoft otrzymał patent dotyczący „procesu tworzenia konwersacyjnego chatbota konkretnej osoby przy użyciu jej danych z mediów społecznościowych”. W praktyce oznacza to np. możliwość stworzenia chatbota zmarłej osoby. Popular Mechanics zaznacza, że jest to projekt niemal bliźniaczy z tym, co można było zobaczyć w jednym z odcinków popularnego serialu „Black Mirror”. 

Aktywność danej osoby w mediach społecznościowych oraz jej dane wykorzystane mogą być do stworzenia indywidualnego „profilu” chatbota. Jak czytamy, robot może również „przypominać osobę w modelu 2D lub 3D i wykorzystywać jej głos”.

- Z technicznego punktu widzenia, możemy odtworzyć każdego, mając wystarczającą ilość danych – mówił w kwietniu 2020 r. Faheem Hussain z Uniwersytetu Stanowego Arizony, którego wypowiedź dla Reutera przytacza popularmechanics.com.

To, co jest możliwe technicznie, stawia jednak wiele pytań pod względem etycznym. Z jednej strony poruszane są kwestie moralności zastosowania pewnych mechanizmów (jak w powyższym przypadku), zaś z drugiej – etyka samej sztucznej inteligencji, która jest ważnym elementem europejskich badań nad AI. W 2019 r. Komisja Europejska przedstawiła siedmiopunktowy zbiór „zasad niezbędnych do uzyskania godnej zaufania sztucznej inteligencji”.

KE wskazuje na konieczność kontroli obywateli nad wykorzystywanymi danymi, wymóg bezpieczeństwa i niezawodności stosowanych algorytmów, przejrzystości działań, funkcjonowania mechanizmu odpowiedzialności za systemy AI i ich wyniki oraz dążenia do „wzmacniania pozytywnych zmian społecznych, wspierania zrównoważonego rozwoju oraz odpowiedzialności ekologicznej”. 

Clou kodeksu etycznego dla sztucznej inteligencji zawarte w pierwszym punkcie mówi o „przewodniej i nadzorczej roli człowieka”.

„Systemy sztucznej inteligencji powinny wspierać rozwój sprawiedliwego społeczeństwa poprzez wzmacnianie przewodniej roli człowieka i praw podstawowych, a nie zmniejszać, ograniczać czy wypaczać ludzką autonomię” - czytamy w unijnym dokumencie. 

Co stanie się, kiedy człowiek straci wspomnianą „nadzorczą rolę”? To scenariusz, który przez lata fascynował twórców i miłośników fantastyki naukowej, jednak wizja „buntu robotów” wcale nie musi być odległa. Przestrzega przed tym berliński Instytut Rozwoju Człowieka im. Maxa Plancka.

„Załóżmy, że ktoś miałby zaprogramować system AI z inteligencją wyższą niż ludzka, aby mógł uczyć się niezależnie. Połączona z internetem sztuczna inteligencja może mieć dostęp do wszystkich danych ludzkości, mogłaby zastąpić wszystkie istniejące programy i przejąć kontrolę nad wszystkimi maszynami online na całym świecie” - pisze Instytut.

Przeprowadzono teoretyczne badania, które miały wykazać, czy możliwa jest kontrola przez człowieka nad „superinteligentną sztuczną inteligencją”.

Są już maszyny, które wykonują pewne ważne zadania niezależnie, bez pełnego zrozumienia przez programistów, w jaki sposób się tego nauczyły. Powstaje zatem pytanie, czy w pewnym momencie mogłoby to stać się niekontrolowane i niebezpieczne dla ludzkości

powiedział Manuel Cebrian z Instytutu Rozwoju Ludzkiego im. Maxa Plancka.

Międzynarodowy zespół naukowców wskazał, że różne współczesne i historyczne sposoby kontrolowania superinteligentnej AI „mają swoje ograniczenia”. Badacze stworzyli teoretyczny algorytm powstrzymywania zapewniający, że superinteligentna AI „nie może krzywdzić ludzi w żadnych okolicznościach, poprzez symulowanie zachowania AI i zatrzymanie go, gdy zostanie uznane za szkodliwe”. 

Naukowcy stwierdzili jednak, że „w obecnym paradygmacie informatyki takiego algorytmu nie można zbudować”.

- Jeśli rozłożymy problem na podstawowe zasady z informatyki teoretycznej, okaże się, że algorytm, który nakazałby sztucznej inteligencji nie niszczyć świata, mógłby nieumyślnie wstrzymać własne działania. Gdyby tak się stało, nie wiedziałbyś, czy algorytm powstrzymywania nadal analizuje zagrożenie, czy też przestał powstrzymywać szkodliwą sztuczną inteligencję. W efekcie algorytm powstrzymywania jest bezużyteczny

stwierdził cytowany w komunikacie Instytutu Iyad Rahwan z Centrum Ludzi i Maszyn Instytutu Rozwoju Człowieka im. Maxa Plancka. 

Ponadto naukowcy wskazali, że żaden pojedynczy algorytm nie da rozwiązania określającego, czy AI wyrządziłaby szkodę światu. Jeszcze mniej pocieszająca zdaje się inna konstatacja – sztuczna superinteligencja może być już wokół nas. 

„Wskazanie, że maszyna wykazuje wyższą inteligencję od ludzkiej jest w tej samej sferze problemów, co kwestia powstrzymywania” - informuje Instytut Maxa Plancka. 

Skomentuj artykuł: