W Chinach inwigilacja jest na porządku dziennym, ale w USA może być podobnie i wojskowa sztuczna inteligencja może grać w tym rolę
Sztuczna inteligencja (SI) stała się integralną częścią naszego życia, napędzając postęp technologiczny i oferując przystępne rozwiązania wielu codziennych wyzwań. Ostatnie doniesienia wzbudziły jednak obawy dotyczące potencjalnego niewłaściwego wykorzystania technologii sztucznej inteligencji klasy wojskowej, sugerując, że może ona służyć do inwigilacji amerykańskich cywilów. Trudno się temu dziwić, bo choć dla niektórych SI może mieć ledwie kilka miesięcy, organizacje wojskowe znają ją doskonale od dawna, bo tak naprawdę przodują w dziedzinie innowacji technologicznych.
Czytaj też: To koniec przeglądarki Opera. Zastąpi ją… Opera One, wzmocniona sztuczną inteligencją
Od dronów po zaawansowane systemy nadzoru – wojskowe organizacje nieustannie poszukują najnowocześniejszych narzędzi zwiększających ich możliwości, a sztuczna inteligencja, ze swoją zdolnością do przetwarzania ogromnych ilości danych i identyfikowania wzorców, jest w tym wręcz zbawienna. Nie musieliśmy więc długo czekać na pierwsze przesłanki co do tego, że systemy sztucznej inteligencji klasy wojskowej, pierwotnie opracowane do celów obrony narodowej, mogą być wykorzystywane do inwigilacji amerykańskich cywilów. Rzekome wykorzystanie zaawansowanych technologii rozpoznawania twarzy i analizy danych w połączeniu z rozległymi bazami danych, budzi obawy o potencjalne naruszenie prywatności i niweczenie swobód obywatelskich.
Czytaj też: Zatarli granicę między ludźmi a sztuczną inteligencją. Efekt? Pierwszy taki robot na świecie
Właśnie dowiedzieliśmy się, w jaki sposób sztuczna inteligencja klasy wojskowej może teraz szpiegować amerykańskich cywilów. Najnowszy raport wskazuje na pojawienie się w ciągu ostatnich kilku lat kilkudziesięciu firm, które sprzedają pracodawcom swoje narzędzia, które były często pierwotnie opracowywane przez wykonawców z sektora obronnego do celów wywiadowczych. Systemy te wykorzystują zaawansowaną analizę danych do identyfikacji “organizacji pracowniczych, wewnętrznych przecieków i osoby krytykujące firmę”, choć związana z nimi technologia miała być wykorzystywana wyłącznie przeciwko wrogom USA, a nie obywatelom.
Innymi więc słowy, te narzędzia, które kiedyś zostały opracowane wyłącznie w celu identyfikacji terrorystów, mogą być teraz sprzedawane wszystkim pracodawcom. Ci z kolei mogą wykorzystywać je do np. przedwczesnego zwalniania osób, które stoją na czele poruszeń dążących do założenia związków zawodowych. Przynajmniej teoretycznie, bo skuteczność tych narzędzi nie została jeszcze całkowicie potwierdzona, ale z drugiej strony, firmy wykorzystujące te systemy, mogą i tak w pełni im wierzyć, a to może doprowadzać do nieuzasadnionych zwolnień.
Czytaj też: Sztuczna inteligencja pomoże pokonać kolejne bariery. Osoby nieme dostaną swoich asystentów głosowych
Aktualnie jednak trudno wskazać jednoznacznego winnego, bo sprzedające narzędzia firmy kryją się za barierą tego, że “każdy Amerykanin jest chroniony przez federalne, stanowe i lokalne prawo do pracy w bezpiecznych warunkach”, więc jedyne, co może pomóc rynkowi pracy nie tylko w USA, jest zobowiązanie firm do ujawniania prawdy na temat wykorzystania SI w swoich placówkach. Do tego brakuje jednak aktualnie przepisów, co jest zresztą jednoznacznym potwierdzeniem tego, że prawo nigdy nie nadąża za technologią, a kiedy próbuje, to zwykle niepotrzebnie ją ogranicza.
PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!