Future of Life Institute to organizacja non-profit, której celem jest minimalizacja potencjalnego globalnego ryzyka dla ludzkości, związanego z zaawansowanymi systemami sztucznej inteligencji. Organizacja stworzyła film. Działa na wyobraźnię.
Systemy AI wdzierają się skutecznie do naszego życia w stopniu, w którym większość z nas nie zdaje sobie z tego choćby sprawy. Wojna toczona za naszą wschodnią granicą to pierwszy konflikt, w którym wykorzystywane są w pełni zautomatyzowane systemy militarne, drony, sztuczna inteligencja, itp. To jednak zaledwie namiastka tego, jaką kontrolę nad systemami obronnymi może mieć AI w przyszłości. Film stworzony przez Future of Life Institute pokazuje, iż przekazanie AI kontroli nad bronią może mieć opłakane skutki dla całej ludzkości. Zobaczcie:
Oczywiście ten film to fikcja, niemniej o obecności AI w armiach świata mówi się już od dawna, a wiele państw świata pracuje nad wdrożeniem sztucznej inteligencji we własne struktury zbrojne, w każdym aspekcie: od logistyki i zwiadu, poprzez systemy obronne i broń ofensywną.
Pod koniec maja br. w Londynie odbyła się konferencja RAeS Future Combat Air & Space Capabilities Summit skupiająca prelegentów i delegatów reprezentujących środowiska naukowe, przemysł zbrojeniowy i media. Już wówczas uwagę przyciągnęła jedna z prezentacji zatytułowana „Czy Skynet już tu jest?”.
Prelegentem był pułkownik Tucker „Cinco” Hamilton, szef działu testów i operacji AI w USAF. Hamilton był zaangażowany w rozwój automatycznego systemu unikania kolizji z ziemią w samolotach F-16. System Auto GCAS, bo tak nazwano rozwiązanie opracowane wspólnymi siłami przez Lockheed Martin Skunk Works, Air Force Research Laboratory i NASA, monitoruje samolot w locie. o ile przewiduje nieuchronną kolizję, system wyręcza pilota by uniknąć zderzenia. Lockheed Martin ujawniło, iż ta technologia uratowała już życie dziesięciu pilotom. Jak to działa? Zobaczcie kolejne wideo, na którym system Auto GCAS ratuje nieprzytomnego pilota F-16:
Do tej pory wszystko super, wszak AI uratowała pilotów, prawda? Jednak Hamilton opowiedział jeszcze inną historię (uprzedzę, nigdy się nie wydarzyła, to eksperyment myślowy). Dron wyposażony w sztuczną inteligencję otrzymał misję SEAD (Suppression of Enemy Air Defenses), czyli misję zwalczania systemów obrony powietrznej przeciwnika. AI otrzymywała punkty za namierzenie i zniszczenie wrogich systemów p-lot. przeciwnika. Jednak operator drona (człowiek) choćby po skutecznym namierzeniu celu przez AI nie zawsze podejmował decyzję o jego zniszczeniu. Taka decyzja była wbrew logice wytrenowanego algorytmu (choć w rzeczywistości w ujęciu ludzkim mogła być jak najbardziej logiczna, niektórych celów nie warto niszczyć, a przynajmniej nie od razu). Co jednak zrobiłby prawdopodobnie algorytm? W hipotetycznej sytuacji naszkicowanej przez pułkownika Hamiltona dron… zaatakował swojego operatora.
Hamilton w swoim eksperymencie poszedł dalej: stwierdził, iż ok, doszkolimy algorytm, iż zabijanie własnego operatora jest czymś złym. Co wówczas mógłby zrobić algorytm? Pułkownik podpowiedział: dron mógłby zniszczyć stację przekaźnikową, niszcząc w ten sposób nić komunikacyjną z operatorem, przejść na tryb autonomiczny i wykonać zadanie (zniszczyć wrogi system przeciwlotniczy) wbrew woli człowieka. Powtarzam: taka sytuacja nie wydarzyła się w rzeczywistości (choć wiele mediów podchwyciło temat alarmującymi nagłówkami typu “Dron zabił własnego operatora!” itp.), rzecznik USAF wyraźnie to zdementował. Sam pułkownik podkreślał, iż jego hipotetyczny scenariusz był wyłącznie eksperymentem myślowym, który miał zaakcentować problem związany z potrzebą niezwykle uważnego szkolenia systemów AI do zastosowań militarnych.
Pozostaje zatem otwarte pytanie: czy twórcy AI będą mieli dość wyobraźni by wyszkolić zamówiony algorytm na tyle dobrze, by uniknąć podobnych sytuacji w rzeczywistości?