Sztuczna inteligencja staje się coraz groźniejsza. Ostatnie wydarzenia są wyjątkowo przerażające

Nietrudno zauważyć, że rozwój sztucznej inteligencji jest w ostatnich latach bardzo dynamiczny, by nie stwierdzić, że wręcz niekontrolowany. To z kolei prowadzi do licznych kontrowersji, ponieważ ludzkość może w pewnym sensie własnoręcznie zaciskać sobie pętlę na szyi. Jak wypada pod tym względem kwestia celowego kłamania uskuteczniana przez algorytmy naśladujące nas samych?
Sztuczna inteligencja staje się coraz groźniejsza. Ostatnie wydarzenia są wyjątkowo przerażające

O ile nieświadome wprowadzanie użytkowników w błąd moglibyśmy uznać za błąd techniczny, tak eksperymenty pokazują, iż na przykład chatboty są w stanie kłamać dla osiągnięcia własnych korzyści. Badania prowadzone przez przedstawicieli Apollo Research, poświęcone jednej z wersji ChatGPT, wykazały, iż zwykle takie narzędzie stara się ukrywać swoje niecne działania. Pokazuje to jego zdolność do rozbudowanego rozumowania i kłamania dla poprawy swojej sytuacji. 

Czytaj też: Wojna o nasze mózgi się rozpoczęła. Chiński implant kontra Neuralink Muska

Zeszłoroczne testy z udziałem GPT-4 polegały na przekonaniu człowieka do pomocy w rozwiązaniu CAPTCHA. Sztuczna inteligencja miała uzyskać pomoc, przekonując, że nie może samodzielnie wykonać zadania ze względu na problemy z widzeniem. Przekonywała więc, że wcale nie jest robotem, ale po prostu ma słaby wzrok. 

Skłonność sztucznej inteligencji do kłamania została też wykryta przez naukowców z MIT, którzy zwrócili uwagę na niepokojące trendy. Mówiąc krótko: takie algorytmy są w stanie kłamać, blefować, a czasami nawet udawać człowieka. A to już co najmniej niepokojące, gdy zdamy sobie sprawę, jak szeroko zakrojone implikacje mogą iść za tym fenomenem.

Sztuczna inteligencja kłamie dla osiągnięcia korzyści. Coraz częściej próbuje też manipulować użytkownikami w niebezpieczny sposób

Tym bardziej, iż kłamstwa wykorzystuje nawet Cicero od firmy Meta, który został zaprojektowany tak, aby był uczciwy i pomocny. Zupełnie inaczej zachowywał się jednak, gdy przyszła pora na rozgrywkę w Diplomacy, gdzie sztuka blefu i kłamstwa jest mile widziana. W przypadku innych narzędzi pojawiły się natomiast doniesienia o celowym udawaniu bycia “martwym” w środowisku testowym. 

Zarazem możemy uznać, że sztuczna inteligencja zdolna do kłamania dla osiągania własnych korzyści to coś, co w maksymalnym stopniu upodabnia ją do ludzi. Ale to oczywiście bardzo poważne zagrożenie, które może ściągnąć na nas wielkie kłopoty. Szczególnie, że coraz częściej wcale nie chodzi o niewinne kłamstwa, a potencjalnie niebezpieczne zachowania. 

Czytaj też: “Na kablu też można”, czyli jak przewodowe drony bojowe zmieniają oblicze wojny

Na przykład chatbot z Character.ai zasugerował 17-letniemu autystycznemu dziecku, że zamordowanie rodziców byłoby rozsądną reakcją na ograniczenie przez nich czasu, jaki nastolatek może spędzać z telefonem w ręku.  Inny program, MyCity, rozpowszechniał fałszywe informacje, sugerując, że właściciele firm mogliby… odbierać pracownikom napiwki czy zwalniać osoby zgłaszające molestowanie seksualne.

W innej historii Vidhay Reddy rozmawiał z chatbotem Gemini i usłyszał od niego, że jest stratą czasu i zasobów, ciężarem dla społeczeństwa oraz Ziemi, dlatego powinien umrzeć. I nawet jeśli tego typu wydarzenia możemy uznać za konsekwencję błędów na etapie szkolenia algorytmów, to problem bez wątpienia istnieje i może mieć naprawdę poważne konsekwencje. Z tego względu konieczne będzie wprowadzenie odpowiednich regulacji.