ONZ głosuje przeciwko robotom

instytutsprawobywatelskich.pl 11 miesięcy temu

Dynamiczny rozwój nowoczesnych technologii oznacza konieczność aktualizacji przepisów prawa. Rok po udostępnieniu czatu GPT do użytku globalnego wciąż trwa ożywiona dyskusja w kwestii regulacji sztucznej inteligencji. Wśród poruszanych tematów ponownie pojawił się też wątek broni autonomicznej, szczególnie w świetle gwałtownie czynionych postępów w dziedzinie AI oraz niepokojących świat kolejnych konfliktów zbrojnych.

W czerwcu 2023 roku zwołano pierwsze w historii posiedzenie Rady Bezpieczeństwa ONZ rozpatrujące zagrożenia i wyzwania związane ze sztuczną inteligencją.

Sekretarz Generalny António Guterres wezwał państwa członkowskie do wypracowania przed końcem 2026 roku wiążącego aktu prawnego zakazującego stosowania broni autonomicznej.

Między innymi dlatego w czasie 78. sesji Zgromadzenia Ogólnego ONZ Pierwszy Komitet (do spraw rozbrojenia i bezpieczeństwa międzynarodowego) rozpatrywał dotyczącą broni autonomicznej rezolucję L.56. Podobne dokumenty Komitet odrzucał przez ostatnie dziesięć lat. Tym razem większością głosów propozycja została przyjęta.

Zbuntowany Terminator czy niepozorny dron?

„Lethal autonomous weapons systems” (skrót LAWS), czyli „autonomiczne śmiercionośnie systemy uzbrojenia” to inne określenie na broń autonomiczną. Od broni konwencjonalnej odróżnia ją możliwość przeprowadzania ataku bez ludzkiego operatora.

Chociaż na wzmiankę o niezależnej od człowieka broni wielu myśli o armiach nieprzyjaznych humanoidalnych robotów, to dużo bardziej niebezpieczne okazują się np. drony bojowe, tak zaprogramowane, by namierzyć i wyeliminować konkretną jednostkę albo przedstawicieli danej grupy.

Broń autonomiczna budzi liczne pytania natury etycznej i humanitarnej, problematyczne w świetle treści Karty Narodów Zjednoczonych czy międzynarodowego prawa humanitarnego, które jednak w obliczu nowych rozwiązań technologiczno-militarnych okazują się niewystarczającym instrumentem prawnym.

Pierwsza rezolucja ONZ w sprawie broni autonomicznej

Autorzy dokumentu podkreślają konieczność opracowania nowych międzynarodowych ustaleń i regulacji w sprawie broni autonomicznej.

Sama rezolucja nie zawiera szczegółów, stanowi raczej bazę do przyszłych rozmów i działań. Obliguje Sekretarza Generalnego do zebrania we właściwym raporcie danych na temat stanowisk poszczególnych państw członkowskich oraz państw-obserwatorów w sprawie broni autonomicznej. W dokumencie mają zostać uwzględnione głosy środowisk lokalnych i naukowych; organizacji szczebla zarówno międzynarodowego jak i regionalnego. Agenda dotycząca LAWS ma zostać włączona w program 79. sesji Zgromadzenia Ogólnego w 2024 roku, co daje nadzieję na kontynuację rozpoczętej na nowo debaty.

Pierwszy krok i co dalej?

Rezolucja nie ma mocy prawnej. Oddane 1 listopada 2023 roku głosy stanowią jedynie pewną wskazówkę pomagającą wybadać nastroje wobec propozycji ograniczania (lub zakazu) stosowania broni autonomicznej w różnych państwach.

Za przyjęciem rezolucji zagłosowały 164 kraje, 5 było przeciw, a 8 wstrzymało się od głosu. Wśród przeciwników znalazły się m.in.: Rosja, Białoruś, Indie.

Strona rosyjska zarzucała wnioskującym m.in. zbytnie skupienie się na zagrożeniach wynikających z użycia LAWS, z całkowitym pominięciem możliwych korzyści, np. w walce z terroryzmem.

Osiągnięcie konsensusu wciąż utrudnia również brak przejrzystej definicji dla tego typu broni. Ustawodawstwo niektórych państw odróżnia „autonomiczne” systemy od tych „w pełni autonomicznych”, co pozostawia sporą lukę na manipulacje prawne. Inne kraje jako rozstrzygające kryterium zamiast stopnia kontroli nad bronią uważają z kolei zdolność systemu do adaptacji i uczenia się z wykorzystaniem sztucznej inteligencji.

Sposób, w jaki postrzegana i rozumiana jest broń autonomiczna, jest istotny nie tylko na płaszczyźnie politycznej. Również na gruncie społecznym kluczowa jest zmiana w myśleniu o obliczach „śmiercionośnych robotów”, które w tej chwili nie są już tylko motywem ze scenariusza filmu science fiction, ale stanowią faktyczne zagrożenie dla globalnego bezpieczeństwa i stabilności politycznej. Godnym polecenia jest krótkometrażowy film sf „Slaughterbots” stworzony w ramach jednego z projektów The Future of Life Institute.

Slaughterbots, screen

Na szczególną uwagę zasługują też działania rozpoczętej w 2012 roku kampanii Stop Killer Robots, zrzeszającej w tej chwili ponad 250 organizacji społecznych z 70 krajów.

Misją projektu jest zapewnienie ludzkiej kontroli nad użyciem siły, jaką daje technologia. Członkowie międzynarodowego ruchu Stop Killer Robots nagłaśniają potrzebę stworzenia nowego prawa międzynarodowego w kwestii broni autonomicznej oraz walczą z procesem cyfrowej dehumanizacji (digital dehumanization).

Instytut Spraw Obywatelskich jako pierwsza i jedyna organizacja w Polsce przystąpił do koalicji Stop Killer Robots.

Walka o to, by technologia, zamiast decydować o życiu lub śmierci, służyła ludziom oraz by nie redukowała człowieka do ciągu zer i jedynek kodu jest niezwykle ważna w erze informacji i sztucznej inteligencji.

Idź do oryginalnego materiału