Schuyler Moore, dyrektor ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych (US Central Command), ujawniła Bloombergowi, że algorytmy uczenia maszynowego pomogły Pentagonowi zidentyfikować cele ponad 85 ataków powietrznych na Bliskim Wschodzie w lutym. Ataki te, przeprowadzone przez amerykańskie bombowce i myśliwce, były skierowane na siedem obiektów położonych na terenie Iraku i Syrii.
Czytaj też: Sztuczna inteligencja wskaże, kto jest wrogiem Chin. Coraz bliżej przekroczenia niebezpiecznej granicy
Operacje te przeprowadzono w odpowiedzi na atak z 28 stycznia, w wyniku którego zginęło trzech członków amerykańskiej służby w bazie w Jordanii – incydent ten przypisuje się bojówkom wspieranym przez Iran. Pentagon wykorzystał także systemy sztucznej inteligencji, aby znaleźć wyrzutnie rakiet w Jemenie i bojowników nawodnych na Morzu Czerwonym, które następnie zniszczył w wyniku wielu nalotów w tym samym miesiącu.
Projekt Maven upadł, ale sztuczna inteligencja nadal służy armii
Algorytmy uczenia maszynowego używane do namierzania celów zostały opracowane w ramach Projektu Maven, nieistniejącej już spółki Google i Pentagonu. Projekt zakładał wykorzystanie przez armię amerykańską technologii sztucznej inteligencji firmy Google do analizy nagrań z dronów i obrazów flag w celu dalszej weryfikacji przez ludzi.
Czytaj też: Unia Europejska uczyni armie jednością. Połączy je sztuczną inteligencją i chmurą
Wywołało to zamieszanie wśród pracowników Google’a: tysiące zwróciło się do firmy z petycjami o zakończenie współpracy z Pentagonem, a niektórzy nawet w ogóle zrezygnowali z zaangażowania. Kilka miesięcy po protestach pracowników Google zdecydował się nie przedłużać umowy, która wygasła w 2019 r.
Ale amerykańska armia nie zaprzestała eksperymentów z wykorzystaniem algorytmów do identyfikacji potencjalnych celów za pomocą zdjęć z dronów lub satelitów nawet po zakończeniu wsparcia Google. Wojsko testowało tę technologię w ciągu ostatniego roku, ale zaczęło ją wykorzystywać w praktyce po atakach Hamasu z 7 października ubiegłego roku. Zawsze to jednak człowiek podejmuje decyzję o neutralizacji celu, sztuczna inteligencja tylko “pomaga”.
Schuyler Moore mówi:
Nie ma algorytmu, który po prostu działa, wyciąga własne wnioski i przechodzi do następnego kroku. Każde wykorzystanie sztucznej inteligencji wymaga kontroli człowieka.
W maju 2021 r. ogłoszono, że po 11-dniowym konflikcie w Gazie Izrael zaangażował się w coś, co określono jako pierwszą “wojnę ze sztuczną inteligencją”, wykorzystując postępy w uczeniu maszynowym i zaawansowaną technologię komputerową. Podczas trwającego konfliktu Izrael-Hamas rozszerzono wykorzystanie takich technologii do wybierania celów bombardowań w Gazie, w szczególności platformę generowania celów, znaną jako “Gospel”.
Chociaż postęp technologiczny obiecuje zwiększoną wydajność operacyjną i przewagę strategiczną, wymusza również ponowną ocenę zasad i protokołów rządzących współczesną walką. Wynik tej technologicznej i etycznej podróży niewątpliwie ukształtuje przyszłość działań wojennych, podkreślając potrzebę zrównoważonego i odpowiedzialnego podejścia do integracji sztucznej inteligencji w operacjach wojskowych.