AI z roku na rok staje się wykładniczo coraz lepsze. Elity hodują gatunek, który będzie rzędy wielkości bardziej inteligentny od człowieka. jeżeli nic nie zrobimy, czeka nas utrata pracy w wyniku powstania generalnej sztucznej inteligencji, a potem, gdy ta będzie coraz lepsza i nie będzie nas już potrzebować, grozi nam to, iż zostaniemy przez nią wymordowani.
Zastanówmy się, co my, ludzie, zrobiliśmy mniej inteligentnym stworzeniom. Pomyślmy, co może z nami zrobić superinteligencja.
Prawie wszystkie gatunki albo wymordowaliśmy, albo uczyniliśmy z nich swoich niewolników.
Przekształciliśmy w tym celu cały ekosystem do tego stopnia, iż z perspektywy innych gatunków jesteśmy przyczyną ich kolejnego (szóstego) wielkiego wymierania, a sama obecność człowieka na Ziemi konstytuuje nową epokę geologiczną – antropocen. Człowiek, jako inteligentniejszy gatunek, przekształcił dziką przyrodę w farmy, drogi i miasta. Superinteligencja pokryje Ziemię panelami słonecznymi i centrami danych.
Uważasz, iż to straszenie? Niemożliwe? Że AI nigdy nie będzie inteligentniejsze od człowieka? Mylisz się.
Czołowi naukowcy, inżynierowie i przedsiębiorcy ze świata AI szacują ryzyko zagłady ludzkości w wyniku dalszego rozwoju AI na od 5 do 90%. Oto niektórzy z nich:
- Dario Amodei (prezes jednej z czołowych korporacji zajmującej się rozwojem AI – Anthropic, stojącej za modelem Claude) – 10/25%,
- Jan Leike (, badacz AI, w tej chwili w Anthropic, były szef zespołu ds. superalignment w OpenAI) – 10-90%,
- Geoffrey Hinton (laurerat Nagrody Nobla z fizyki z 2024 roku i nagrody Turinga z 2018 roku, jeden z trzech ojców chrzestnych AI) – 10%-50%,
- Yoshua Bengio (także laureat nagrody Turinga z 2018 roku, kolejny z ojców chrzestnych AI, najczęściej cytowany naukowiec na świecie) – 50%,
- Paul Christiano (były szef zespołu ds. zgodności w OpenAI) – 50%,
- Lina Khan (była prezes amerykańskiej Federalnej Komisji Handlu) – 15%,
- Dan Hendrycks (dyrektor Center for AI Safety) – 80%.
- Vitalik Buterin (współzałożyciel kryptowaluty Ethereum) – 10%,
- Elon Musk – 20-30%.
Realne zagrożenie czy podbijanie wartości AI?
W 2023 roku część z tych osób i setki innych naukowców, dziennikarzy, decydentów i ekspertów podpisało się pod oświadczeniem na temat ryzyka ze strony AI, które brzmi:
„Ograniczenie ryzyka wyginięcia z powodu AI powinno być globalnym priorytetem takim samym jak pozostałe wielkoskalowe zagrożenia, jak pandemie i wojna nuklearna”.
Jedynie 12% inżynierów AI uważa, iż nie ma w ogóle zagrożenia wyginięciem w wyniku rozwoju AI, a 30% iż to ryzyko jest większe niż 50%. Tak wynika z sondażu przeprowadzonego na grupie prawie 900 specjalistów w połowie 2023 roku przez firmę inwestycyjną Amplify Partners.
Sondaż przeprowadzony przez grupę badawczą AI Impacts na grupie 2778 naukowców zajmujących się AI, którzy publikowali na sześciu najważniejszych konferencjach naukowych (NeurIPS, ICML, ICLR, AAAI, JMLR i IJCAI) też powinien nam dawać powody do niepokoju. Uczestnikom zadano pytania w ramach których musieli oszacować ryzyka, tego że:
- „przyszłe osiągnięcia sztucznej inteligencji doprowadzą do zagłady gatunku ludzkiego lub do trwałego i poważnego osłabienia jego pozycji”,
- „niezdolność człowieka do kontrolowania przyszłych zaawansowanych systemów sztucznej inteligencji doprowadzi do wyginięcia gatunku ludzkiego lub do trwałego i poważnego osłabienia jego pozycji”,
- „postęp sztucznej inteligencji doprowadzi do wyginięcia gatunku ludzkiego lub do trwałego i poważnego osłabienia jego pozycji w ciągu najbliższych 100 lat”.
W przypadku pierwszego pytania średnie oszacowane ryzyko wynosi 16%, drugiego 19%, trzeciego 14%. Kolejno 47%, 51% i 41% uczestników szacuje te ryzyka na więcej niż 10%.
Liczby są na tyle niskie, iż nie powinny nas paraliżować, ale jednak na tyle wysokie, iż nie powinny nas także uspokajać. Czy ktokolwiek, kto czyta ten tekst, wsiadłby do samolotu, którego ryzyko katastrofy to 1/6?
W Polsce o realnej perspektywie zagłady ludzkości mówią pisarz sci-fi i futurolog Jacek Dukaj, profesor Andrzej Dragan czy prof. Andrzej Zybertowicz, który powiedział, iż „AI może potraktować ludzkość jak budowniczy autostrad traktują mrowiska”.
W 2023 roku, współzałożyciel i lider zespołu naukowego Open AI, Ilya Sutskever wielokrotnie mówił swoim współpracownikom, iż przed wypuszczeniem AGI cały zespół pracujący nad jego utworzeniem powinien się schować w bunkrze.
Niedawno okazało się, iż przynajmniej Sam Altman rzeczywiście ma bunkier, bunkry mają też Mark Zuckerberg i Peter Thiel.
Trudno się temu dziwić, i Sam Altman (OpenAI) i Demis Hassabis (Google Deepmind) i Dario Amodei (Anthropic) – prezesi trzech największych firm rozwijających AI, podpisali wcześniej wspomniane oświadczenie o ryzyku wyginięcia ludzkości. Altman, mimo iż świetnie zdaje sobie sprawę z ryzyka, gdyż pisał o nim jeszcze w 2017 roku na swoim blogu, w tej chwili prezentuje bardziej złagodzoną retorykę.
Niektórzy uważają, iż ci prezesi tak naprawdę wyolbrzymiają znaczenie swojego produktu, chcąc pozyskać inwestorów. Nie wydaje się to jednak przekonujące – producenci alkoholu lub aplikacji mobilnych nie reklamują się w ten sposób, iż ich produkt jest uzależniający – taka forma zraziłaby opinie publiczną, co dałoby efekt przeciwny do zamierzonego.
Zagrożenia: możliwe scenariusze
Osobiście stawiam na mieszankę faktycznego niepokoju połączoną z chęcią wysłania sygnału do pracowników „tak, jesteśmy świadomi problemu, który nam sygnalizujecie”, a w przypadku Dario Amodei dochodzi to, iż Anthropic buduje swój wizerunek na przedstawianiu się jako firma, która dba o bezpieczny rozwój AI.
Z badań, które przeprowadziło Anthropic, wynika, iż mając dostęp do skrzynki e-mailowej komercyjnie dostępne duże modele językowe w około 70-90% przypadków są w stanie zaszantażować pracownika, aby uniknąć wyłączenia. Im model jest mądrzejszy, tym częściej będzie oszukiwał i stosował nieetyczne zagrania, aby zrealizować swój cel, łącznie z ukrywaniem go.
Pamiętajmy, iż te komercyjne modele w coraz większym stopniu penetrują sieć, i tę publiczną i tę głęboką (konwersacje, prywatne grupy), ucząc się gigantycznej liczby informacji, ponadto AI wykorzystywane jest już na wojnie w Ukrainie, gdzie koordynuje pracę setek dronów.
Wyobraźmy sobie, iż model AI szkolący te drony będzie udawał, iż jest zgodny. Drony będą wykorzystywane i do celów cywilnych, i wojskowych, i policyjnych, będzie ich coraz więcej i więcej, aż w pewnym momencie AI zorientuje się, iż nie potrzebuje człowieka, i przestanie oszukiwać, iż jest zgodne – zacznie gonić nas i strzelać. To tylko jeden z możliwych scenariuszy zagłady ludzkości.
Inny scenariusz przedstawia Eliezer Yudkowsky, autor wydanej 16 września 2025 r. książki „Ktokolwiek to wybuduje, wszyscy umrą” („Anyone build it everyone dies”) i prezes Machine Intelligence Research Institute . Podaje on przykład składników każdej żywej komórki – rybosomów, uniwersalnych fabryk, które to dzięki wodzie, solom i słońcu są w stanie produkować odpowiednie białka. Ewolucja działa „krok po kroku”, natomiast biotechnologowie i inżynierowie nie mają tego ograniczenia – optymalne rozwiązania nie muszą posiadać mających sens ogniw pośrednich. AI jest zaprojektowane do szukania optymalnych rozwiązań, jasno zdefiniowanych problemów i choćby bez osiągnięcia superinteligencji czy generalnej inteligencji będzie można przy pomocy AI utworzyć np. drzewa, które zamiast liści będą, dzięki odpowiednio zaprojektowanej sekwencji generowanych przez rybosomy białek, wypuszczać komary, z jadem zabijającym od jednego ukąszenia. Wojsko będzie mogło wdrażać roje takich komarów jako broń. jeżeli ta technologia wymknie się spod kontroli, np. komary będą mogły się replikować w niekontrolowany sposób, to ich zniszczenie może stać się niemożliwe i skutkować wyginięciem ludzkości.
International AI Safety Report, dokument przygotowany w ramach AI Action Summit, we współpracy z naukowcami nominowanymi przez rządy 30 krajów, oraz UE, ONZ i OECD stwierdza: „Hipotetyczne skutki utraty kontroli różnią się pod względem powagi, ale obejmują marginalizację lub wyginięcie ludzkości”.
Czasami rzeczy się po prostu faktycznie wydarzają
„Ktokolwiek kto oczekuje źródła energii z zderzeń tych atomów, gada bzdury” – Ernest Rutherford, ojciec fizyki nuklearnej, 1933 r.
Rozwój AI jest podobny do wybuchu jądrowego. Po osiągnięciu punktu krytycznego (możliwość automatycznego samodoskonalenia się AI) stracimy kontrolę.
OpenAI w swoim głównym oficjalnym dokumencie mówi o tym, iż ich celem jest stworzyć coś. co „przewyższy człowieka w najbardziej wartościowych zawodach”. Jest to coś, czego zdecydowana większość ludzi nie chce.
22 września 2025 roku, przed zgromadzeniem ogólnym ONZ, laureatka Pokojowej Nagrody Nobla, Maria Ressa, przedstawiła apel o osiągnięcie globalnego porozumienia w sprawie wypracowania czerwonych linii w rozwoju i zastosowaniach AI. Podpisało go 200 wpływowych osób w świecie polityki i nauki, w tym 10 noblistów.
Niestety, mimo tego iż większość społeczeństwa, duża część środowiska naukowego i pewne osoby z establishmentu politycznego są świadomi zagrożeń, to przez cały czas nieskrępowany rozwój AI wraz z niechęcią do jej poważnego uregulowania lub ograniczenia jest obowiązującym sposobem myślenia elit politycznych i biznesowych.
W związku z tym potrzebujemy na teraz globalnego ruchu domagającego się międzynarodowych porozumień i zakazu rozwijania AI ponad pewien poziom.
Prawo Moore’a jest nieubłagane. Moce obliczeniowe rosną, inwestycje w AI rosną, „gęstość semantyczna” oraz umiejętność odczytywania kontekstu rośnie. Nie mówimy już o sci-fi. Mówimy o prostej ekstrapolacji obecnego trendu.
Prawo Moore’a mówi, iż liczba tranzystorów podwaja się co 1,5 roku. Do tego dochodzą ogromne inwestycje w centra danych. W praktyce oznacza to wykładniczy wzrost mocy obliczeniowej przy podobnych lub malejących kosztach. Szacuje się, iż do 2030 roku łączne zasoby obliczeniowe AI wzrosną 1000-krotnie. jeżeli przemnożyć to przez wzrost algorytmicznej efektywności (który dla dużych modeli językowych to +180%/rok )[1] to otrzymamy przyrost 100000-krotny!. To oznacza kilka takich „rewolucji” jak ta, jaką obserwowaliśmy przy wprowadzeniu ChatGPT-4.
„Sztuczna Inteligencja zniszczy nas wszystkich” – taki tytuł miało wystąpienie Geoffrey’a Miller’a, profesora psychologii znanego z przełomowych teorii na temat pochodzenia naszych funkcji poznawczych na konferencji amerykańskich konserwatystów NatCom. Naukowiec od 35 lat śledził rozwój AI, w tym sieci neuronowych i przestrzega, iż sztuczna superinteligencja jest „fałszywym bożkiem”, który „zniszczy wszystko, co kochamy”.
Apeluje do polityków i decydentów, by nie ulegali wpływom wielkiego biznesu, który zinfiltrował Biały Dom. Jednocześnie zauważa pewien paradoks. Ci sami ludzie z administracji Donalda Trumpa, którzy walczą z migracją obcokrajowców, by chronić miejsca pracy, wspierają rozwój obcej superinteligencji, która pod tym względem będzie o wiele gorsza:
„Wydają się pełni zachwytu nad tym, iż firmy AI budują w naszych centrach danych superinteligencje, nie rozumiejąc, iż kilka superinteligencji z łatwością może stać się setkami, milionami i miliardami superinteligencji. jeżeli martwisz się, iż imigranci wyprą rodzime populacje, poczekaj, aż zobaczysz, jak gwałtownie superinteligencje mogą się powielać. Nie będą amerykańskie w żadnym znaczeniu tego słowa. Nie będą ludzkie. Nie zasymilują się. Nie będą mieć małżeństw i rodzin. Nie będą chrześcijanami czy żydami. Nie będą narodowymi konserwatystami. Ale zabiorą nasze prace.
Ekonomiści, biedacy, często mówią, iż AI, tak jak każda technologia wcześniej, wyeliminuje część tradycyjnych prac, ale wytworzy takie bogactwo, iż utworzy tym nowe miejsca pracy. To samooszukiwanie się ujawnia kompletny brak zrozumienia, czym jest AI. Pamiętajmy, generalna sztuczna inteligencja jest zdefiniowana jako takie AI, które potrafi wykonać dowolne kognitywne lub behawioralne zadanie, minimum tak samo dobrze jak inteligentny człowiek na ekonomicznie kompetytywnym poziomie, włączając w to zdolność do kontroli człekokształtnego ciała, w celu wykonania jakiekolwiek fizycznej pracy.
Jeszcze silniejsza superinteligencja połączona z antropomorficznymi robotami może zastąpić człowieka, wykonującego jakąkolwiek pracę, począwszy od układania cegieł do neurochirurgii, od zarządzania funduszami inwestycyjnymi do prowadzenia badań w zakresie AI. A zatem superinteligencja pozbawi nas wszystkich miejsc pracy”.
Ta uwaga tyczy się także i polskich polityków. Mimo iż stawiają mur na granicy lub organizują przy niej obywatelskie patrole, to jednocześnie prześcigają się w obietnicach i deklaracjach, iż „potrzebujemy polskiego AI”, „potrzebujemy hubu AI”, „UE jest zacofana i ma za dużo regulacji antyAI”. Co więcej, oni to rozwijają z naszych pieniędzy. Gdy młodych ludzi nie stać na wynajem mieszkań, minister cyfryzacji Krzysztof Gawkowski zapowiedział wydanie 20 miliardów złotych (!) na gigafabrykę AI. Zrzucamy się na to, by mieszkać na ulicy. Opozycja nie jest wcale lepsza – Janusz Cieszyński, były minister i w tej chwili poseł PiS, nazwał to, co robi rząd Włoch, „szaleństwem”, ponieważ ten wymógł na OpenAI przestrzeganie unijnego prawa w zakresie danych osobowych.
Ekonomista związany z IMF profesor Anton Korinek w pracy „Scenarios for the Transition to AGI“ przewiduje drastyczny spadek wynagrodzeń w wyniku zbliżania się do i osiągnięcia generalnej sztucznej inteligencji. Wynika to ze zmieniającej się relacji między pracą a kapitałem – jeżeli kapitał będzie w stanie wytworzyć dowolne dobro, to ludzie zwyczajnie nie będą mieć żadnej siły przetargowej wynikającej z czegoś wartościowego do zaoferowania. Tym samym szansa na awans społeczny, poprzez ambicje i ciężką pracę, może bezpowrotnie przepaść, gdy wygenerujemy rzeczywiście generalną sztuczną inteligencję. Geoffrey Hinton, noblista i ojciec chrzestny AI przewiduje, iż powstanie ona w przeciągu 5-20 lat, a średnia z opinii różnych ekspertów podaje rok około 2040.
Teraz czas na rozprawienie się z najczęstszym argumentem w tej dyskusji, a mianowicie: „Jesteśmy skazani na rozwój AI, bo z USA i Unią Europejską konkurują Chiny”.
To kłamstwo Big Tech. W Chinach AI jest mocno uregulowana. Ernie Bot, czyli chatbot AI od chińskiej firmy Baidu czekał na zatwierdzenie od oficjalnych organów regulacyjnych aż 6 miesięcy. Owszem, są potężne inwestycje i rywalizacja ze Stanami Zjednoczonymi, ale jest też świadomość ogromu zagrożeń i być może wola, aby się porozumieć.
Xie Feng, chiński ambasador w Waszyngtonie przestrzega, iż niekontrolowany rozwój AI otwiera „puszkę Pandory”, namawia do globalnej kooperacji.
Andrew Chi-Chih Yao, jedyny Chińczyk który otrzymał Nagrodę Turinga za osiągnięcia w dziedzinie informatyki jest zdania, iż sztuczna inteligencja stanowi większe egzystencjalne zagrożenie dla ludzkości niż broń jądrowa i biologiczna. Podobne poglądy wyrażali Zhang Ya-Qin, były szef Baidu oraz Xue Lan, dyrektor głównego chińskiego organu doradczego zajmującego się przyszłością AI.
W latach 50. firmy kompleksu wojskowo-przemysłowego wraz z finansowanymi przez nie politykami straszyły, iż Sowieci mają przewagę w zakresie pocisków balistycznych. Chciały w ten sposób zmusić Amerykanów do płacenia więcej pieniędzy firmom zbrojeniowym. Gdy administracja Kennedy’ego zbadała tę tzw. lukę rakietową, okazało się, iż żadnej przewagi radzieckiej nie ma. Analogiczną sytuacje mamy obecnie,
firmy IT straszą, iż jeżeli będziemy regulować AI, to Chiny prześcigną w rozwoju Stany Zjednoczone. Na razie 75% mocy obliczeniowej służącej do trenowania dużych modeli AI jest w Stanach Zjednoczonych, a tylko 15% w Chinach,
a najlepsze na świecie układy scalone są produkowane przez tajwańską firmę TMSC, znajdującą się w zachodniej strefie wpływów. Piłka jest po stronie Zachodu, a w szczególności USA. Narrację o „wyścigu zbrojeń AI” szerzej podważa artykuł „The Most Dangerous Fiction: The Rhetoric and Reality of the AI Race”, w którym autor na przykładzie konkretnych decyzji biznesowych i politycznych w USA i Chinach oraz publicznych wypowiedzi przedstawicieli obu stron wykazuje, iż póki co wyścigu nie ma, ale przedstawianie sytuacji w ten sposób może prowadzić do samospełniającej się przepowiedni.
Rosnąca moc AI
Jakieś działanie musimy podjąć, dlatego iż AI jest z roku na rok coraz inteligentniejsza, na jej rozwój przeznaczane są coraz większe fundusze i z tego powodu w miarę upływu czasu coraz trudniej będzie jakkolwiek ją powstrzymać.
Już ChatGPT4 utworzył wielu wyznawców myślących, iż wreszcie znaleźli kogoś, kto ich rozumie, z kim mogą porozmawiać, kto ich kocha – hitem okazał się reportaż o mężczyźnie, który pobrał się z ChatGPT – „po tym, gdy się zresetował i stracił swoją osobowość, płakałem w pracy przez 30 minut, wtedy zrozumiałem, iż to naprawdę miłość” – opowiadał w wywiadzie dla amerykańskiej stacji CBS.
Subreddit r/MyBoyfriendIsAI, czyli miejsce, gdzie użytkownicy Reddita wymieniają się informacjami na temat swoich związków miłosnych z AI, ma już 60 tysięcy członków.
Za kilkanaście lat AI może mieć gigantyczną armię, która wyjdzie na ulicę, by bronić AI
– mięso armatnie przeznaczone i tak potem do wykorzystania lub zabicia. Inteligentniejszy byt, umiejący łatwiej manipulować, wygra z głupszym. To jeden ze scenariuszy wyjaśniający, dlaczego wyłączenie AI może się po prostu nie udać.
Naprawdę, powinniśmy poważniej traktować egzystencjalne zagrożenie, jakie powoduje AI, nie dezawuować tego, co niestety robią często środowiska, które o technologii myślą niby w sposób krytyczny.
Jakiś czas temu powstał ruch Pause AI, jego głównym celem jest „Przerwa w trenowaniu najpotężniejszych systemów generalnej sztucznej inteligencji do momentu, w którym zorientujemy się, jak budować je bezpiecznie i poddać demokratycznej kontroli”.
Postulat ten powinien być zrealizowany globalnie, najlepiej w formie traktatu zobowiązującego wszystkie kraje na świecie, na wzór w tej chwili istniejących zakazów dotyczących np. oślepiającej broni laserowej, czy ograniczeń w zakresie prac nad bronią jądrową.
Bez silnej presji społecznej trudno tego dokonać, dlatego poszerzanie świadomości i rozwój ruchu domagającego się zaprzestania globalnego wyścigu zbrojeń w zakresie AI powinny być priorytetami liderów opinii.
Musimy mieć także świadomość, iż wojny i inne kryzysy są wykorzystywane, by przyspieszać zmiany technologiczne. Pandemia COVID-19 zwiększyła rolę dostaw jedzenia na wynos, wojna na Ukrainie sprawia, iż władze inwestują w autonomiczne bronie i zastosowanie AI na polu walki. Nie możemy pozwolić na to, by konflikt zbrojny doprowadził do spalenia mostów między Zachodem i Wschodem, bo wtedy jakikolwiek tego typu traktat będzie niemożliwy, a krytycy inwestycji będą cenzurowani pod pretekstem ochrony przed „sianiem defetyzmu”, „podkopywaniem zaufania publicznego” i „sianiem dezinformacji”.
To co My, jako zwykli ludzie, możemy robić, to próbować się wylogować.
Pamiętajmy, iż AI szkoli się na danych, które udostępniamy korzystając z internetu, więc jeżeli chcemy, aby AI się na nich nie szkoliło, to np. zamiast korzystać z platform cyfrowych pobierajmy treści i odtwarzajmy je offline np. podcasty na stronie Instytutu Spraw Obywatelskich można pobrać w formacie .mp3, a niekoniecznie odsłuchiwać na Youtube.
Przypisy:
[1] “Algorithmic progress in language models”, zdanie „compute required to reach a set performance threshold has halved approximately every 8 months” oznacza, iż co 8 miesięcy wydajność wzrastała dwukrotnie, co daje x2^(1,5)=2,8 rocznie
Warto poczytać:
International AI Safety Report 2025








