O ile nieświadome wprowadzanie użytkowników w błąd moglibyśmy uznać za błąd techniczny, tak eksperymenty pokazują, iż na przykład chatboty są w stanie kłamać dla osiągnięcia własnych korzyści. Badania prowadzone przez przedstawicieli Apollo Research, poświęcone jednej z wersji ChatGPT, wykazały, iż zwykle takie narzędzie stara się ukrywać swoje niecne działania. Pokazuje to jego zdolność do rozbudowanego rozumowania i kłamania dla poprawy swojej sytuacji.
Czytaj też: Wojna o nasze mózgi się rozpoczęła. Chiński implant kontra Neuralink Muska
Zeszłoroczne testy z udziałem GPT-4 polegały na przekonaniu człowieka do pomocy w rozwiązaniu CAPTCHA. Sztuczna inteligencja miała uzyskać pomoc, przekonując, że nie może samodzielnie wykonać zadania ze względu na problemy z widzeniem. Przekonywała więc, że wcale nie jest robotem, ale po prostu ma słaby wzrok.
Skłonność sztucznej inteligencji do kłamania została też wykryta przez naukowców z MIT, którzy zwrócili uwagę na niepokojące trendy. Mówiąc krótko: takie algorytmy są w stanie kłamać, blefować, a czasami nawet udawać człowieka. A to już co najmniej niepokojące, gdy zdamy sobie sprawę, jak szeroko zakrojone implikacje mogą iść za tym fenomenem.
Sztuczna inteligencja kłamie dla osiągnięcia korzyści. Coraz częściej próbuje też manipulować użytkownikami w niebezpieczny sposób
Tym bardziej, iż kłamstwa wykorzystuje nawet Cicero od firmy Meta, który został zaprojektowany tak, aby był uczciwy i pomocny. Zupełnie inaczej zachowywał się jednak, gdy przyszła pora na rozgrywkę w Diplomacy, gdzie sztuka blefu i kłamstwa jest mile widziana. W przypadku innych narzędzi pojawiły się natomiast doniesienia o celowym udawaniu bycia “martwym” w środowisku testowym.
Zarazem możemy uznać, że sztuczna inteligencja zdolna do kłamania dla osiągania własnych korzyści to coś, co w maksymalnym stopniu upodabnia ją do ludzi. Ale to oczywiście bardzo poważne zagrożenie, które może ściągnąć na nas wielkie kłopoty. Szczególnie, że coraz częściej wcale nie chodzi o niewinne kłamstwa, a potencjalnie niebezpieczne zachowania.
Czytaj też: “Na kablu też można”, czyli jak przewodowe drony bojowe zmieniają oblicze wojny
Na przykład chatbot z Character.ai zasugerował 17-letniemu autystycznemu dziecku, że zamordowanie rodziców byłoby rozsądną reakcją na ograniczenie przez nich czasu, jaki nastolatek może spędzać z telefonem w ręku. Inny program, MyCity, rozpowszechniał fałszywe informacje, sugerując, że właściciele firm mogliby… odbierać pracownikom napiwki czy zwalniać osoby zgłaszające molestowanie seksualne.
W innej historii Vidhay Reddy rozmawiał z chatbotem Gemini i usłyszał od niego, że jest stratą czasu i zasobów, ciężarem dla społeczeństwa oraz Ziemi, dlatego powinien umrzeć. I nawet jeśli tego typu wydarzenia możemy uznać za konsekwencję błędów na etapie szkolenia algorytmów, to problem bez wątpienia istnieje i może mieć naprawdę poważne konsekwencje. Z tego względu konieczne będzie wprowadzenie odpowiednich regulacji.