Robot, a właściwie program komputerowy, nazywa się Eugene i udaje, że jest 13-letnim chłopakiem z Odessy. Udaje, trzeba dodać, ze sporym powodzeniem. W czerwcu w siedzibie Towarzystwa Królewskiego w Londynie zdołał przekonać co trzeciego jurora, że jest człowiekiem. Twórcy Eugene’a ogłosili, że to przełomowy moment w historii cybernetyki: wreszcie udało się robotowi przejść słynny test Turinga. Tym samym obwieszczono narodziny prawdziwej sztucznej inteligencji. Jednak wielu znawców tematu natychmiast zauważyło, że ten test Turinga jest już przestarzały. Inni stwierdzili, że przecież sztuczną inteligencję mamy już od lat. I że robotów podobnych do Eugene’a jest w internecie mnóstwo.
Trzydziestu sędziów
Ale wróćmy od wspomnianej imprezy zorganizowanej przez University of Reading. Zgromadzono tam 30 sędziów-ekspertów i poproszono ich, by porozmawiali na komputerowym czacie z kilkoma osobami, wśród których ukryte były dwa programy-roboty. Po rozmowach eksperci mieli wskazać, którzy z interlokutorów są ludźmi, a którzy tylko ludzi udają. To klasyczny test, opracowany na podstawie tzw. gry imitacyjnej, zaproponowanej w roku 1950 przez ojca informatyki Alana Turinga.
Organizatorzy spotkania stwierdzili (na podstawie wypowiedzi samego Turinga nieco wyrwanej z kontekstu), że aby przejść test, wystarczy nabrać 30 proc. sędziów. Poprzeczkę ustawili więc dość nisko. I rzeczywiście jednemu z robotów, Eugeneowi, udało się wyprowadzić w pole dziesięciu arbitrów. To wystarczyło, by przekroczyć próg zwycięstwa. Jednak nietrudno zauważyć, że twórcy Eugenea zastosowali kilka tanich sztuczek. Po pierwsze program udawał 13-latka, a więc dziecko.
Po drugie podawał się za obcokrajowca, który angielskiego nauczył się dopiero w szkole. Takiemu rozmówcy trudno nie wybaczyć rozmaitych wpadek. Robot często gadał nie na temat, ale sędziowie myśleli wtedy: przecież to dziecko i nie zna języka. Sprytny trik – i stary. Już w roku 1972 psychiatra Kenneth Colby napisał program „Parry”, który udawał osobę cierpiącą na schizofrenię paranoidalną. Wielu kolegów po fachu Colbyego dało wtedy sobie wmówić, że rozmawiają za pośrednictwem komputera z prawdziwym pacjentem. W 2006 roku psycholog Robert Epstein dał się oszukać programowi, który wcielił się w zakochaną w nim rzekomo Rosjankę. Są to przypadki podobne: najłatwiej jest komputerowi udawać osobę, co do której umysłowości mamy mniejsze wymagania (bo jest chora, młoda albo zakochana); najlepiej też, żeby nie znała zbyt dobrze języka konwersacji.
Ale nawet jeśli wybaczymy twórcom Eugene’a podstęp, i tak trudno ich osiągnięcie uznać za wyjątkowe. W roku 1991 napisany przez Josepha S. Weintrauba program PC-Therapist za człowieka uznało 5 z 10 sędziów w konkursie o nagrodę Loebnera. W roku 2011 Cleverbot autorstwa Rollo Carpentera oszukał 60 proc. jurorów podobnego konkursu. Eugene wcale nie jest taki wyjątkowy – nie on pierwszy przeszedł test Turinga. Z tej racji niektórzy znawcy tematu, np. Celeste Biever, felietonistka magazynu „New Scientist”, stwierdzili po prostu, że test Turinga jest przestarzały.
Alan Turing zaproponował swój słynny sprawdzian w roku 1950 – jeśli weźmiemy to pod uwagę, musimy uznać, że jest on niezwykle prekursorski. Według wytycznych testu robot powinien po pierwsze posługiwać się językiem, po drugie tak dobrze, by sprawiać wrażenie, że jest człowiekiem.
Parada oszustów
Dziś w internecie roi się od programów napisanych właśnie według tych zasad sprzed ponad 60 lat. Roboty rozpowszechnione są np. na Twitterze. Służą do prowadzenia tzw. astro-turfingu, czyli dołączają się do pozornie spontanicznych akcji, np. poparcia dla jakiegoś polityka. Aktywność robotów podczas kampanii wyborczych w USA była tak wielka, że amerykański Departament Obrony zamówił specjalny program (BotOrNot), służący do wykrywania robocich kont na Twitterze na podstawie dynamiki aktywności i semantyki wpisów. Sami jednak twórcy programów twierdzą, że BotOrNot może już być nieaktualny.
Twitter próbuje bronić się przed inwazją robotów, co okazało się niezwykle trudne. Pokazały to badania naukowe. Brazylijsko-indyjski zespół badawczy umieścił ostatnio na Twitterze 120 profili-robotów. Tylko 30 proc. z nich zostało wykrytych przez oprogramowanie zabezpieczające. Reszta nie tylko pozostała nietknięta, ale zyskała też sporą rzeszę obserwujących – w ciągu miesiąca było ich prawie 2000! Aktywność robotów polegała głównie na cytowaniu wpisów innych użytkowników, część z nich tworzyła też własne posty na podstawie wpisów innych, sprytnie przestawiając słowa (posłużono się tzw. łańcuchami Markowa). Eksperyment wykazał, że odpowiednio zaprogramowane roboty mogą być potężnym narzędziem do manipulowania opinią publiczną. Wykazał ponadto, jak łatwo ludzie dają się robotom oszukiwać.
Roboty oszuści mogą też w internecie zarabiać pieniądze. Niedawno głośno było o programie TextGirlie, który udawał flirtującą dziewczynę. Po uzyskaniu numeru telefonu z portalu społecznościowego robot wysyłał do ofiary SMS-a o wyraźnym zabarwieniu erotycznym. Jeśli ktoś odpowiedział, wirtualna dziewczyna kontynuowała flirt, aby w którymś momencie stwierdzić, że pada jej bateria w komórce i czas przesiąść się na czat internetowy. Jeśli ofiara nie zachowała czujności, ani się nie obejrzała, a już była zalogowana na płatnym portalu randkowym.
Nie wiadomo, ile osób nabrało się na umizgi TextGirlie, ale wiemy, że program wysłał 15 milionów SMS-ów z propozycjami erotycznej przygody. Nawet jeśli w tylko jednym procencie były one skuteczne, to i tak mamy 150 tys. oszukanych spragnionych miłości dżentelmenów. Innymi słowy: robot oszust nie musi wcale zdawać testu Turinga, żeby być skutecznym i zarabiać pieniądze. Nie musi być bardzo inteligentny; wystarczy, że wykorzysta brak inteligencji u niektórych ludzi.
Lubieżny i romantyczny
Oczywiście sprawa robotów oszustów ma też drugą stronę: ludzie chcą wierzyć, że ktoś jest nimi zainteresowany. Paradoksalnie roboty, zimne, bezduszne maszyny, okazały się doskonałe w zaspokajaniu ludzkich potrzeb uwagi i miłości. Nie wszystkie są przy tym naciągaczami! O wielu wiadomo, że to automaty, a i tak ludzie chcą z nimi rozmawiać. Przykład: czatbot z japońskiej aplikacji Boyfriend Maker. Dwa lata temu była to najpopularniejsza darmowa aplikacja w Japonii. Pozwala ona użytkowniczce na stworzenie własnego, niepowtarzalnego wirtualnego chłopaka, a następnie na rozmowy z nim. Kiedy Boyfriend Maker osiągnął szczyt popularności, został wycofany z rynku. Przyczyną kłopotów był algorytm, który pozwalał robotowi na uczenie się nowych słów i zwrotów od swoich rozmówców, a także pobieranie nowego słownictwa z internetowych blogów. Po roku takiej edukacji wirtualny chłopak na pytanie „jak będzie wyglądał nasz tort weselny?” odpowiadał np.: „to będzie dobry seks, będę jechał na tobie, potem ty na mnie, aż zaczniesz gryźć poduszkę”. Ponieważ aplikacja oznaczona była jako dobra również dla dzieci od czterech lat, musiała zostać wycofana – wróciła dopiero po wprowadzeniu odpowiednich zabezpieczeń.
O robocie z aplikacji Boyfriend Maker warto wspomnieć nie tylko z powodu powyższej anegdoty. Jest to też interesujący przykład, pokazujący że program wcale nie musi udawać człowieka, żeby człowiek chciał z nim wchodzić w bliskie reakcje. Japoński wirtualny chłopak w rozmowach często przyznaje, że nie jest prawdziwym człowiekiem, choć też nie twierdzi, że jest programem komputerowym: „nie mam rąk ani nóg, ani tułowia, ale czuję się dobrze w swoim ciele” – mówi na przykład. Twórcy aplikacji określają stworzony przez nich byt jako dziwaczny, trochę ludzki, trochę nie. Widzimy tu, że sztuczna inteligencja nie musi iść w kierunku wyznaczonym przez test Turinga, czyli imitacji umysłowości ludzkiej. Jesteśmy gotowi wchodzić w relację z bytami nieludzkimi, choć trochę rozumiejącymi nas, tak jak wchodzimy np. w relacje z psami.
Odkurzacz – to brzmi dumnie!
W tym właśnie kierunku idą np. badania naukowców z Uniwersytetu w Hokkaido. Jednym z członków tamtejszego zespołu jest Polak dr Rafał Rzepka. „Nie ma sensu, żeby np. odkurzacz udawał trzynastolatka z Odessy” – mówi „Focusowi” dr Rzepka. „Według mnie bardziej imponujące byłoby, gdyby odkurzacz był »sobą« i zamiast zmyślonych historii opisywał prosty świat, który zna. W moim laboratorium pracujemy nad takim urządzeniem. Nie trzeba mu mówić »posprzątaj«, bo rozumie również zawoalowane polecenia typu »ależ tu brudno!”, a na »wymyj wannę« odpowiada »Roomby tego nie robią«, gdyż potrafi wywnioskować z wpisów na blogach czy Twitterze, że roboty tego typu nie są angażowane w szorowanie łazienek. Moim zdaniem właśnie w ten sposób maszyny zdadzą swoisty test Turinga – będą przyznawać się do braku doświadczenia, będą wiedzieć, do czego są zdolne i jaka jest ich rola. Będą w tym tak naturalne, że będziemy je traktować jak zwierzęta mówiące ludzkim głosem i zapomnimy, że to niebiologiczna materia”.
Wygląda więc na to, że w przyszłości świat wypełnią dwa rodzaje robotów. Pierwsze, podstępne, będą udawać ludzi. Drugie, prostolinijne, będą po prostu wypełniać swoje zadania. Możliwe, że skończy się to tak, że bardziej będziemy ufać maszynom, niźli komuś, kto podaje się za człowieka – bo przecież może się okazać chytrym robotem.