Chińscy naukowcy rzekomo szkolą wojskową sztuczną inteligencję za pomocą aplikacji podobnej do ChatGPT, aby umożliwić jej przewidywanie, co mogą zrobić potencjalni ludzcy wrogowie. To pierwsze w historii wykorzystanie AI do celów, które w domyśle mają działać na szkodę człowieka.
Czytaj też: Chiny tworzą nowy typ sił zbrojnych. Przejmą pełną kontrolę nad bronią hipersoniczną
Zespół wchodzący w skład Sił Wsparcia Strategicznego Armii Ludowo-Wyzwoleńczej (PLA) podobno wykorzystuje do tego celu bota Ernie firmy Baidu i Sparka iFlyTek. Są to duże modele językowe (LLM), czyli rodzaj zaawansowanych algorytmów sztucznej inteligencji specjalizujących się w przetwarzaniu i generowaniu języka naturalnego. Według South China Morning Post (SCMP) prace są bardzo zaawansowane.
Sztuczna inteligencja przewidzi ruchy żołnierzy
Mechanizm wykorzystywany przez chińskich naukowców jest dobrze znany i wykorzystywany na całym świecie, choć do innych celów. Dane zebrane z czujników i raportów żołnierzy są przekazywane sztucznej inteligencji, która ma czas na ich “przyswojenie”. Używając języka opisowego lub obrazów, może wygenerować podpowiedzi do realnych sytuacji w symulacjach wojskowych, a więc i takich, które mogą przydarzyć się na polu bitwy. Cały proces jest zautomatyzowany i raz wprowadzone dane nie wymagają angażowania człowieka.
Czytaj też: Sztuczna inteligencja w lotnictwie! Rewolucja dzieje się na naszych oczach
Prof. Sun Yifeng z PLA Information Engineering University, który prowadzi projekt, mówi:
Wyniki symulacji pomagają w podejmowaniu decyzji przez człowieka. Można je wykorzystać do udoskonalenia zasobów wiedzy maszyny i dalszej poprawy jej zdolności bojowych. To osiągnięcie jest w stanie całkowicie zmienić oblicze pola walki.
Mówiąc wprost: wojskowa sztuczna inteligencja może nie tylko wskazać Chińczykom słabe punkty armii wroga, ale wykorzystać te informacje do jeszcze precyzyjniejszych uderzeń np. przy użyciu dronów. To z kolei oznacza, że wiedza zdobyta przez maszyny może ulepszać same maszyny i niebezpiecznie zbliża nas do granicy, o której ostrzegało wielu ekspertów.
Opisany przypadek jest pierwszym, w którym chińska armia otwarcie przyznała się do stosowania komercyjnych LLM. Wielokrotnie podkreślono, że badania są prowadzone wyłącznie w celach naukowych, ale chyba nikt w to nie wierzy. Czy wskazówki sztucznej inteligencji są trafne? Trudno to zweryfikować, ale zespół prof. Suna Yifenga opisał jeden ze swoich eksperymentów, który symulował inwazję wojskową Stanów Zjednoczonych na Libię w 2011 r. Wojskowa sztuczna inteligencja dostarczyła Erniemu informacje na temat broni i rozmieszczenia obu armii, a po kilku rundach dialogu AI była w stanie skutecznie przewidzieć kolejny ruch Amerykanów.
Naukowcy otwarcie przyznają, że obecne konfiguracje wojskowej AI nie są niezawodne. Ponieważ komercyjne LLM nie są przeznaczone do działań militarnych, ich przewidywania mogą być zbyt ogólne dla konkretnych potrzeb dowódców. Aby temu zaradzić, chińscy uczeni eksperymentowali z komunikacją multimodalną, wykorzystując wojskową sztuczną inteligencję do stworzenia mapy analizowanej przez Spark firmy iFlyTek. Poprawiło to wydajność LLM, tworząc praktyczne raporty analityczne i prognozy. To wierzchołek góry lodowej, a celem ostatecznym jest stworzenie sztucznej inteligencji, która będzie w stanie “przechytrzyć” nieprzewidywalną naturę człowieka i jego zdolność do improwizacji.