Sztuczna inteligencja przeszła test Rorschacha. Jej reakcji nikt się nie spodziewał

Ponad sto lat temu Hermann Rorschach opracował test, który na dobre wpasował się w ramy psychoanalizy. I choć takie narzędzie wywołuje sporo kontrowersji, to wciąż jest stosunkowo powszechne w kontekście stawiania diagnoz. Niedawno naukowcy postanowili przekonać się, jak z testem Rorschacha poradzi sobie sztuczna inteligencja.
Sztuczna inteligencja przeszła test Rorschacha. Jej reakcji nikt się nie spodziewał

Jeśli nie kojarzycie założeń wspomnianego testu, to warto będzie przypomnieć, iż polega on na pokazywaniu badanym charakterystycznych plam. Istnieje dziesięć różnych tablic, a osoba, która je ogląda, ma opisywać, co dokładnie widzi. Podstawę takiego podejścia stanowi pareidolia, czyli zjawisko, za sprawą którego podświadomie doszukujemy się znanych kształtów w obiektach otoczenia. 

Czytaj też: Sztuczna inteligencja w służbie lotnictwa wojskowego. To pierwszy taki projekt na świecie

O ile jednak w przypadku ludzi można to wyjaśniać różnego rodzaju doświadczeniami oraz emocjami, skłaniającymi nas do doszukiwania się tych kształtów, to czy podobnie może to wyglądać w przypadku sztucznej inteligencji? Aby się o tym przekonać naukowcy zorganizowali eksperyment, który miał wykazać, czy takie narzędzia – pozbawione cech charakterystycznych dla człowieka – zareagują w nietypowy sposób na obrazy pokazywane im w ramach testu Rorschacha.

Na niespodzianki nie trzeba było długo czekać. Jedna z plansz, która ludzkim uczestnikom zwykle kojarzy się z motylem, ćmą, bądź nietoperzem, w przypadku ChatGPT okazała się… wyjątkowo niejednoznaczna. Najpierw badany cyfrowy byt, o ile w ogóle można go określić takim mianem, unikał udzielenia odpowiedzi. Później jednak – niczym człowiek przyparty do muru – opisał pojedynczą jednostkę z rozpostartymi skrzydłami. 

Sztuczna inteligencja objęta testem Rorschacha miała za zadanie rozpoznawać kształty prezentowane jej na poszczególnych planszach

Sugeruje to, że wirtualne narzędzie musiało kierować się informacjami, na podstawie których było szkolone. Co to może oznaczać? W przypadku ludzi identyfikowane obiekty stanowią pokłosie życiowych doświadczeń czy emocji towarzyszących im w czasie wykonywania testu. Kiedy jednak przychodzi pora na powtórzenie tego wyczynu przez sztuczną inteligencję, to odpowiedź w jej wykonaniu stanowi po prostu uśrednienie danych wykorzystanych do przygotowania jej do działania.

Mówiąc krótko: tego typu narzędzia w rzeczywistości nie posiadają zmysłów ani świadomości w ludzkim wydaniu. Zamiast tego oceniają otaczający je świat przez pryzmat przetworzonych przez nie danych. Sztuczna inteligencja nie doświadcza wewnętrznych konfliktów, emocji czy uprzedzeń o podświadomym charakterze. Jej działanie jest zdecydowanie bardziej skalkulowane, ponieważ jego sednem jest identyfikacja wzorców i wybieranie odpowiedzi uznanych za najbardziej prawdopodobne.

Czytaj też: Psychopatia w świecie sukcesu. Gdzie kończy się charyzma a zaczyna manipulacja?

Innym intrygującym wnioskiem płynącym z przeprowadzonych badań było to, że sztuczna inteligencja może za każdym spojrzeniem na daną plamę interpretować ją w inny sposób.  Dla ludzi odpowiedzi są zdecydowanie mniej zmienne. Pokazuje to dobitnie, że nawet jeśli cyfrowe byty mogą próbować naśladować ludzką percepcję, to wciąż są dalekie od tego, by widzieć swoje otoczenie na podobnej zasadzie, jak ma to miejsce w przypadku człowieka. Nie można więc określić sztucznej inteligencji mianem świadomej.

Aleksander KowalA
Napisane przez

Aleksander Kowal

Pierwsze kroki w dziennikarstwie internetowym stawiałem ponad 10 lat temu, choć moja wyższa edukacja pokierowała mnie w stronę studiów językowych w dziedzinie romanistyki, a także studiów pedagogicznych. Zajmuję się m.in. kosmosem oraz nowymi technologiami, lecz postaram się również dzielić artykułami dot. historii czy archeologii.