Jako dziecko wychowane w latach 90. w Polsce, szczególnie wyczekiwałam niedzielnego popołudnia. Ograniczony dostęp do mediów sprawiał, iż polowanie na jeden konkretny program zamieniało się w cotygodniowy rytuał. W moim domu było nim oglądanie „Star Treka”. Gwoli wyjaśnienia: to serial science fiction o przygodach Gwiezdnej Floty (Zjednoczonej Federacji Planet), która w nieco utopijnej przyszłości ludzkości przemierza galaktykę, by badać nieznane i nawiązywać kontakt z nowymi formami życia. Przygody kapitan Janeway, Picarda i ich załóg wyryły mi się w pamięci, kształtując mój stosunek do nauki i technologii.
Wydawało mi się wówczas, iż w trakcie mojego życia nie zobaczę żadnej z futurystycznych technologii Enterprise czy Voyagera (nazwy statków): replikatorów, czyli pokładowych drukarek materii, które z surowych atomów potrafią stworzyć filiżankę kawy albo klucz do silnika, czy transporterów – urządzeń dematerializujących ludzi na poziomie kwantowym, które przesyłają uzyskaną wiązkę energii i rematerializują osoby w docelowej lokalizacji.
Tymczasem najszybciej urzeczywistnionym elementem star trekowej wizji przyszłości okazały się autonomiczne systemy broni – Autonomous Weapon Systems (AWS).
Od science fiction do rzeczywistości
Nie ma jednej definicji tej broni, ale można stwierdzić, iż to ogólna kategoria uzbrojenia, która korzysta z różnego stopnia autonomii. Działa w ramach zaprogramowanych parametrów i może samodzielnie wykonywać zadania wspierające operatorów – np. rozpoznanie czy patrol. Jest też wykorzystywana do zadań bojowych – bez ciągłej kontroli człowieka kieruje się algorytmami umożliwiającymi podejmowanie decyzji na podstawie analizy środowiska.
Po aktywacji systemy te opierają się na oprogramowaniu danych z czujników (np. kamer, sygnałów radarowych, sygnatur termicznych), aby zidentyfikować cel.
Gdy system znajdzie cel, strzela lub uwalnia ładunek, często bez zatwierdzenia lub weryfikacji przez ludzkiego operatora.
W praktyce oznacza to, iż to maszyna, a nie człowiek, decyduje, gdzie, kiedy i z jaką siłą zostanie użyta broń.
Terminy takie jak „slaughterbots” czy „killer robots” często kojarzą się z filmami science fiction, takimi jak „Terminator”, co tworzy błędne przekonanie, iż AWS należą do jakiejś dalekiej przyszłości. W Raporcie Panelu Ekspertów ONZ w sprawie Libii z 2021 r. stwierdzono, iż AWS, takie jak dron STM Kargu-2 i inne bezzałogowce typu kamikaze z amunicją krążącą, były zaprogramowane do atakowania celów bez wymagania łączności danych między operatorem a bronią – w efekcie osiągając prawdziwą zdolność „fire, forget, and find”, czyli „odpal, zapomnij i znajdź”. Oznacza to, iż system samodzielnie podejmował decyzję o wyborze i zaangażowaniu celów po początkowym uruchomieniu, bez dalszej interwencji człowieka.
W 2025 roku obserwujemy przyspieszone tempo rozwoju i wdrażania AWS, zarówno w kontekście użycia bojowego, jak i zaawansowanego rozwoju i zatwierdzania do produkcji.
Zgodnie z doniesieniami „The Guardian” na początku czerwca 2025 roku ukraińscy żołnierze uruchomili Gogol-M, latającego „drona-matkę”. Urządzenie przeleciało 200 km w głąb Rosji i wystrzeliło dwa mniejsze drony uderzeniowe. Te mniejsze drony autonomicznie skanowały teren w poszukiwaniu odpowiedniego celu, namierzyły go, a następnie wleciały w niego, detonując swój ładunek wybuchowy przy uderzeniu. Udział człowieka ograniczał się do nauczenia drona typu celu i ogólnego obszaru poszukiwań. Koszt tej misji wyniósł 10 000 dolarów, podczas gdy wcześniej wymagałaby ona systemów rakietowych kosztujących od 3 do 5 milionów dolarów.
Rosyjska wersja ukraińskiego drona Gogol-M, V2U, jest odpalana choćby 50 razy dziennie, by uderzać w cele w pobliżu linii frontu w Ukrainie.
Podobnie jak jej ukraiński pierwowzór, V2U potrafi wtargnąć w wyznaczony obszar, korzystając wyłącznie z nawigacji wizyjnej, a następnie samodzielnie wykrywać, wybierać i atakować obiekty bez łączności z operatorem. Zaobserwowano również, iż drony te działają w rojach i zakłócanie ich jest nieskuteczne.
Widoczna jest również zmiana narracji w Dolinie Krzemowej. Po latach, w których praca nad wojskowymi zastosowaniami sztucznej inteligencji była stygmatyzowana, w tej chwili rośnie przyzwolenie, by inżynierowie AI angażowali się w projekty militarne.
Rosnące wydatki na obronność i rozwój technologii, o których mowa w europejskiej, ale też i polskiej strategii obronnej, powinny iść w parze z rygorystycznymi ramami prawnymi i etycznymi, aby zapobiec erozji praw człowieka wspieranej przez AI. Zwłaszcza iż nie chodzi wyłącznie o wykorzystanie AWS na polu bitwy. Jak to zwykle bywa w przypadku takich systemów, mają one charakter „dual use” (podwójnego zastosowania) — mogą być stosowane zarówno w działaniach wojennych, jak i w kontroli granic, utrzymaniu porządku publicznego czy masowym nadzorze.
Biometryka ‒ zwłaszcza rozpoznawanie twarzy ‒ już dziś tworzy efekt mrożący: ludzie obawiają się uczestniczyć w protestach, wiedząc, iż kamery mogą ich zidentyfikować, a władza odpowie w stosunku do nich represjami.
Podobne systemy działają na terenach okupowanych, gdzie drony i stałe punkty kontrolne odcinają całe społeczności od opieki zdrowotnej, pracy czy życia rodzinnego.
Rozwój AWS wymaga ogromnych zbiorów danych, najczęściej gromadzonych bez wiedzy i zgody obywateli.
Dane z mediów społecznościowych i monitoringu trafiają do baz danych na zawsze, a osoby, których dotyczą, tracą możliwość sprzeciwu. Takie praktyki naruszają nie tylko prawo do prywatności, ale także wolność słowa, zgromadzeń i zasadę niedyskryminacji.
Wizja „Star Trek’a” z mojego dzieciństwa zakładała, iż technologie chronią godność i wolność. Gwiezdna Flota nie budowała kamer do śledzenia obywateli ale statki do eksploracji nowych światów.
Jeśli chcemy uniknąć dystopijnego scenariusza, potrzebujemy jasnych granic prawnych i etycznych, zanim autonomiczne systemy broni oraz nadzoru staną się naszą codziennością.