Reklama

Zybertowicz: Technologia cyfrowa jest groźniejsza od broni nuklearnej

Jan Mazurek

Autor:Jan Mazurek

22 kwietnia 2023, 08:47 • 21 min czytania 79 komentarzy

Dlaczego AI jest groźniejsza niż broń nuklearna? Skąd jego szczera niechęć do technoentuzjastów? Czy ludzkości grozi zagłada? Kiedy technologia wypchnie uczucia? Kiedy nastąpi singularity? Jak to możliwe, że jedynym środkiem na zatrzymanie zgubnego w skutkach wyścigu technologicznego jest porzucenie paradygmatu wolności i zamienienie demokracji na autorytaryzm? Czy technosceptycy to wariaci? Na te i na inne pytania w rozmowie z nami odpowiada profesor Andrzej Zybertowicz, który nie ukrywa swojej niechęci do kierunku rozwoju sztucznej inteligencji.

Zybertowicz: Technologia cyfrowa jest groźniejsza od broni nuklearnej

Andrzej Zybertowicz jest profesorem nauk społecznych i doradcą prezydenta Andrzeja Dudy ds. bezpieczeństwa państwa. Kieruje Ośrodkiem Studiów nad Wyzwaniami Cywilizacyjnymi Akademii Sztuki Wojennej. Ostatnio wydał książkę „Cyber kontra real: Cywilizacja w techno-pułpace”, rozmowa Jaremy Piekutowskiego, Wydawnictwo Nowej Konfederacji.

***

Dlaczego technosceptyków uznaje się za wariatów?

Tylko niektórzy tak sądzą. To chyba efekt degradacji opinii publicznej przez media „społecznościowe”. Dziś już nikt nie może uchronić się przed dorobieniem gęby. Stado trolli czy botów jest w stanie zdeformować każdy pogląd i wszystkiemu nadać chore proporcje. Jest jednak takie stare powiedzenie: „najpierw cię ignorują, potem się z ciebie śmieją i z tobą walczą, następnie zaczynają myśleć, a na końcu wygrywasz”. Osiem lat temu mój zespół opublikował książkę „Samobójstwo Oświecenia?”. Tam był znak zapytania, który wraz z upływem czasu staje się coraz mniej potrzebny. Podtytuł brzmiał zaś: „Jak neuronauka i nowe technologie pustoszą ludzki świat”. Nasze analizy i prognozy okazały się trafne.

Reklama

Cyfrowy infozgiełk pogłębił podziały społeczne, obniżył jakość debaty publicznej i wyparł niuansowanie z argumentacji. Kto przeciwstawia się modzie na technoentuzjazm, musi liczyć się z atakami bez ładu i składu. Na Twitterze obserwuję osoby zajmujące się sztuczną inteligencją. Nawet badacze z poważnym dorobkiem obrzucają się inwektywami, raz po raz zarzucając sobie brak kompetencji. Zapominają, że problematyka sztucznej inteligencji jest tak rozbudowana, że nie ma żadnego pojedynczego człowieka, który rozumiałby wszystkie warstwy architektury AI.

Bo to olbrzymi świat. 

Gdy wybitny badacz angażuje całe ego, zasoby intelektu i wolny czas w swoją dziedzinę, jego horyzont poznawczy nieuchronnie się zawęża. Ktoś może być wspaniałym fizykiem, biologiem czy chemikiem, a w sprawach politycznych czy społecznych pozostawać naiwnym jak dziecko. Nikt nie dziwi się, że polityk czy artysta nie zna się na matematyce, ale…

Twórców modeli sztucznej inteligencji uważa się często za wizjonerów przyszłości całego globu. 

Ludzie ciągle ulegają złudzeniu, że twórcy AI, którzy na przykład rozwijają algorytmy głębokiego uczenia, jednocześnie dobrze orientują się w procesach społecznych. Że są w stanie przewidzieć, jak wytworzone przez nich technologie wejdą w relacje z kulturą, z psychiką, z komunikacją polityczną. Kiedy posłużą dobrostanowi społecznemu, a kiedy zaszkodzą? Wybitny kreator sztucznej inteligencji może nie mieć zielonego pojęcia o problemie osamotnienia w amerykańskim społeczeństwie i sposobach na zdrowe radzenie sobie z tym wyzwaniem. A w Stanach Zjednoczonych od lat trwa kryzys opioidowy, czyli masowe uzależnienie od pewnych substancji narkotycznych w nadziei na ucieczkę od poczucia życiowej klęski, w tym właśnie osamotnienia.

Czy ten brak wiedzy twórców sztucznej inteligencji naprawdę stanowi niebezpieczeństwo dla społeczeństwa? Przecież nie muszą znać się na wszystkim, a może nawet nie chcą uchodzić za wszystkowiedzących zbawicieli planety. 

Reklama

Nie muszą, ale… Po pierwsze, już dysponują narzędziami wpływu społecznego, którego skalę trudno jest oszacować. Po drugie, część opinii publicznej błędnie zakłada, że twórcy sztucznej inteligencji powinni uchodzić za autorytety w sprawach wpływu tejże technologii na funkcjonowanie społeczeństwa.

„Część”.

To jest hodowanie fałszywych autorytetów. I uleganie im. Jako socjolog nigdy nie pozwoliłbym sobie na ingerowanie w dyskusję fizyków, matematyków czy specjalistów od procesów przemysłowych, a tu informatycy są zapraszani przez media do rozważania, czy sztuczna inteligencja stanowi zagrożenie dla człowieka. Zwykle nie mają o tym większego pojęcia niż np. maszynista. Wszystkie poprzednie technologie w dziejach ludzkości…

Służyły człowiekowi?

Niekoniecznie.

Ale rozwijały się w takim tempie, że był czas na działania dostosowawcze, by osłabić efekty negatywne i zwiększyć pozytywne. Prosty przykład. Auto ma silnik, umożliwiający rozwijanie szybkości, przy których można zrobić krzywdę sobie i innym. Dlatego też ewolucja samochodu polegała na jednoczesnej rozbudowie systemów kierowania i hamowania. Natura tej technologii transportu dawała na to czas. Natomiast technologie cyfrowe rozwijają się w takim tempie, że nie nadążają za nimi systemy oswajania i kontroli mające neutralizować ich negatywne skutki.

Jak to interpretować?

Mamy nową jakość. Żadna wcześniejsza technologia nie mogła zagrozić egzystencji całej ludzkości. Nawet broń nuklearna.

Śmiała teza. 

Nie ma tu nic nadmiernie śmiałego. Wystarczy chwila refleksji i odrobina wyobraźni.

Rewolucja cyfrowa ogarnia całą planetę. Połowa ludzkości jest na stałe podpięta do internetu. Pozostali są monitorowani przez systemy inwigilacyjne, na przykład kamery uliczne. Gdy AI uzyska możliwość samodzielnego powielania się, to nieplanowane, negatywne efekty mogą zadziałać natychmiastowo i masowo na całą ludzkość. Zanim zorientujemy się, że dzieje się coś niedobrego i uruchomimy naturalne procesy dostosowawcze i ochronne, może być już za późno.

Czym są te „naturalne procesy dostosowawcze?”

Gdy dostrzeżono, że masowa motoryzacja szkodzi miastom, wprowadzono liczne regulacje. Kodeks ruchu drogowego, ulice jednokierunkowe, ograniczenia szybkości, wyznaczono miejsca parkowania. Wprowadzano wymóg katalizatorów, żeby zmniejszyć emisję spalin. To był proces ciągłego dostosowywania technologii do warunków życia społecznego, tak żeby korzyści nie przeważały nad szkodami. W przypadku AI, która obecnie jest rozwijana w klimacie korporacyjnego oraz międzypaństwowego wyścigu zbrojeń, brak czasu na taką reakcję.

Naprawdę uważa pan, że rewolucja technologiczna jest groźniejsza niż zbrojenia nuklearne?

Precyzyjnie ukazuje to wybitny analityk sztucznej inteligencji Eliezer Yudkowsky. Podkreśla, że broń nuklearna nigdy nie jest w stanie przechytrzyć człowieka, a Chat GPT-4 już się z nim drażnił. Nawet nie mając świadomości czy woli, był nauczony tego, że ludzie wzajemnie się prowokują. Broń nuklearna nie może ani samodzielnie się namnażać, ani być łatwo powielana przez kogokolwiek. Nie potrafi sama się udoskonalać, zaś naukowcy dobrze rozumieją, jak działa. Nie można tego powiedzieć o części systemów AI – problem „czarnej skrzynki”.

Potrafimy obliczyć siłę eksplozji bomb jądrowych przed ich odpaleniem, a nawet pełna wymiana ciosów między dwoma mocarstwami nuklearnymi nie zniszczyłaby całej ludzkości. Proces tworzenia jednej broni nuklearnej nie pozwala na natychmiastowe użycie jej w liczbie stu tysięcy sztuk. Wreszcie, ludzkość wie, że broń nuklearna jest niebezpieczna, politycy traktują ją poważnie, a czołowi naukowcy potrafią prowadzić rzeczowe rozmowy o zagrożeniach z tym związanych. 

To tylko niektóre z celnych argumentów Yudkowsky’ego. A już dziś wspomina się, że każdy będzie mógł mieć odpowiednik Chatu GPT-4 w swoim smart-watchu. I to nie jest żadne science-fiction.

A trochę tak brzmi. 

Broni masowego rażenia nikt nie skopiuje i nie wyniesie z laboratorium, a już nastąpiły wykradzenia technologii sztucznej inteligencji. Niedawno rozmawiałem z badaczem, który twierdził, że na jego uczelni pracuje się na pirackiej kopii jednego z systemów tych wielkich modeli językowych, dzięki którym nastąpił skok w rozwoju AI.

Przeraża pana, że nawet twórcy Chatu GPT-4 nie są w stanie odpowiedzieć na pytanie, kto tak naprawdę udziela odpowiedzi na te wszystkie zadawane mu pytania?

Przerażanie raczej wyklucza zdolność racjonalnej analizy. Za to niepokoić powinno nas wszystkich, że zaskakująco duża grupa osób nie chce spokojnie rozważyć, co wynika z tezy, że mamy do czynienia z zupełnie inną technologią niż jakakolwiek inna wcześniejsza. Że technologie AI już w tej chwili na wielu polach są sprawniejsze od człowieka.

Wypuszczenie „na świat” Chatu GPT pod koniec roku 2022 stworzyło nową jakość. Dotąd myślenie o sztucznej inteligencji zakładało prostą dychotomię. Korzystaliśmy z niej, coraz gęściej otaczała nas obecna w rozlicznych sprzętach, ale pocieszaliśmy się, że to wszystko systemy wąsko wyspecjalizowane. Do tzw. ogólnej, wielowymiarowej i zdolnej do samodzielnego uczenia się sztucznej inteligencji, miało być jest jeszcze bardzo daleko. Nawet wiele dekad. Tymczasem ChatGPT, choć zapewne nie posiada jakiejkolwiek świadomości, nie jest też systemem wąsko wyspecjalizowanym. Posiada dziesiątki, a może i setki umiejętności, z których część opanował znacznie powyżej ludzkich możliwości.

Znajomy profesor socjologii wpisał w Chat GPT tematy esejów, które przez lata zlecał swoim studentom. Mówi, że nigdy żaden jego z kilkuset uczniów nie napisał pracy na takim poziomie jak Chat GPT.

Może nie miał zdolnych studentów. 

To profesor przyzwoitej uczelni. Jest tam z młodzieżą o wyższej niż przeciętna inteligencji. Wychodzi jednak na to, że student, który zleci esej Chatowi GPT, otrzymać może tekst przekraczający jego własne możliwości wyrażania myśli.

Używał pan kiedyś Chatu GPT?

Używałem.

Popełnia bardzo dużo błędów.

I co z tego?

Że to system komicznie wadliwy merytorycznie. 

Ludzie też popełniają błędy. Niektóre są upiorne.

Tylko, że Chat GPT ma tych ludzi wyprzeć. 

Popełnianie błędów ma być równoznaczne z brakiem zdolności do „życia” i uczenia się?

Jak rozumiem: nie zauważamy, że sztuczna inteligencja powoli zdobywa świadomość?

Może. Ale moim zdaniem koncentrowanie się na problemie świadomości AI nie jest najbardziej owocną ścieżką analizy. Już w „Plusie Minusie”, na krótko po wyjściu Chatu GPT, przekonywałem, że aktualnie punkt ciężkości jest gdzie indziej. Dlaczego? Systemy AI pilotażu myśliwców w USA pokonują prawdziwych pilotów. AlphaGo czy AlphaZero wygrały z graczami w go, szachy i niektóre gry komputerowe. Sztuczna inteligencja nie musi mieć cienia świadomości, żeby być od nas odcinkowo sprawniejsza i, dzięki temu, bardzo namieszać w ludzkim świecie.

W książce „Cyber kontra real: Cywilizacja w techno-pułapce” wprowadziłem pojęcie radykalnej asymetrii. Może ona wyłonić się na polu wiedzy, władzy, szybkości reagowania i innych form przewagi. Taka asymetria występuje, gdy przewaga jednej ze stron konkurencji jest tak olbrzymia, że słabsza strona nie ma żadnych perspektyw na przywrócenie równowagi albo odwrócenie pozycji. 

Dlaczego potrzebujemy demokracji? Do czego w polityce służy mechanizm rotacji na stanowiskach – np. prezydentem kraju można być maksymalnie przez dwie kadencje?

Żeby nie kumulować władzy w jednym ośrodku. 

Właśnie. Jeśli ktoś pełni wyróżnioną pozycję w strukturze władzy przez jakiś czas, to kumuluje zasoby: doświadczenie, wiedzę, kontakty, kręgi ludzi od siebie uzależnionych, czasem też bogactwo. Po to istnieje kadencyjność, by utrudnić zbudowanie trwałej hegemonii, której nijak nie dałoby się podważyć.

Opowiadano mi, jak to generał Charles de Gaulle wezwał jakiegoś doświadczonego szefa jednej z francuskich tajnych służb wywiadowczych i powiedział, że musi go zdymisjonować. Ten zapytał prezydenta, czy ma wobec niego jakieś zarzuty, na co usłyszał krótką odpowiedź: żadnych, poza tym, że za długo już jesteś w tym miejscu. Szef tajnej służby zamiast być narzędziem woli politycznej, mógł uzyskać przewagę nad politykami, którym formalnie powinien służyć.

W jaki sposób przełożyć to na sztuczną inteligencję?

W książce „Cyber kontra real” mówiłem, że media społecznościowe, bazy danych, czołowe ośrodki badawcze, algorytmy rządzące obiegiem informacji docierających do miliardów są pod czyjąś kontrolą.

W posiadaniu grup interesu, jak pan ich nazywa. 

A konkretnie „CyberPanów”.

I „CyberPań”.

Tam prawie nie ma pań.

Nie ma pań?

Z Facebooka odeszła Sheryl Sandberg, a szefem Youtube’a już nie jest Susan Wojcicki. Ile jest zresztą kobiet wśród multimiliarderów, którzy doszli do fortuny w branży cyfrowej? Nie wiem, czy choć jedna. Mamy więc „CyberPanów”, którzy dokonali wielkiej kumulacji zasobów różnego typu. Weźmy firmy grupy GAFAM – Google, Apple, Facebook, Amazon, Microsoft. Nieliczna grupa osób posiada ogromne pieniądze, potężną wiedzę i wiążącą się z tym władzę. Nigdy w dziejach ludzkości nie doszło do takiej kumulacji tych trzech kluczowych zasobów. Bywali władcy bardzo silni, niepodzielnie rządzili i stosowali przemoc, ale nie mieli wiedzy o ludzkich marzeniach i pragnieniach, które pozwalałby im dotrzeć do każdego poddanego, zdeanonimizować go i sterować jego wyobraźnią.

Nikt nie zna cię tak dobrze jak algorytm. 

Można zbudować cyfrowego sobowtóra każdej osoby, który uchwyci czyjeś najskrytsze lęki i pragnienia.

Zakodować go. I rozkodować. 

Nawet psychikę kogoś, kto nie korzysta z maila czy smartfona. Ogromną wiedzą dysponuje amerykańska National Security Agency, prowadząca wywiad elektroniczny, może nawet największą wiedzą na świecie, posiada bowiem systemy inwigilacyjne, próbujące obejmować komunikację pod każdą szerokością geograficzną, ale możliwości działania ma ograniczone. Funkcjonuje w ramach procedur prawnych i podlega nadzorowi ze strony Kongresu. Gdy władze Google’a, Apple’a, Amazona czy Facebooka chcą zmienić algorytmy, żeby spowodować, aby ludzie o czymś myśleli, a o czymś zapomnieli, czymś się zachwycali, a czymś innym brzydzili, mogą zrobić to jedną arbitralną decyzją.

Demotywują nas. Cenzurują. Usuwają z pola widzenia lub wpychają nam przed oczy to, co pasuje do ich interesów lub ideologii. Nikt ich z tego nie rozlicza. Ich ogromna wiedza może być błyskawicznie przekładana na władzę nad ludzkimi wyobrażeniami, a co za tym idzie, także naszymi zachowaniami. Zaś niedawny skok w rozwoju AI sprawił, że „CyberPanowie” dostali do ręki kolejne potężne narzędzie.

Cały czas mówi się, że firma OpenAI włożyła wielki wysiłek w sprawienie, żeby Chat GPT działał zgodnie z ludzkimi normami etycznymi i żeby nie stał się narzędziem do robienia krzywdy.

I na razie nie robi krzywdy. 

Wydaje się, że na większą skalę dotąd nie. Dzięki temu, iż twórcy nałożyli mu różne filtry. Oznacza to jednak, że jest grupa ludzi, którzy mają dostęp do systemu i mogą posługiwać się tym chatem bez tych filtrów. Jakie mamy gwarancje, że jakaś kopia tego systemu czy jego odpowiednik nie trafi w ręce organizacji przestępczej, autorytarnego władcy albo szalonego miliardera?

Że przykładowo Rosja już obecnie, dzięki szpiegostwu przemysłowemu, nie wychowuje takiego wielkiego modelu językowego, żeby powstało „vicious AI” lub „malicious AI” – jakaś złośliwa, z założenia nowotworowa forma sztucznej inteligencji, np. trenowana głównie na wiedzy o mrocznej stronie człowieka, o torturach i manipulacjach psychologicznych, na opisach konfliktów i wojen?

„Dobrze wychowany” system AI pewnie nie podpowie nam, że niekiedy najwłaściwsze jest użycie miecza na wzór Aleksandra Macedońskiego przecinającego węzeł gordyjski, bo programowo ma nas powstrzymywać przed użyciem przemocy. Ale programowo zły system, taki cyfrowy pitbull, może przecież już w tej chwili być uczony lub samemu uczyć się, jak optymalnie używać brutalnych środków przymusu i psychomanipulacji do zarządzania konfliktami społecznymi.

Z pana książki wynika, że rozwój sztucznej inteligencji doprowadzi do upadku demokracji i pogłębiania nierówności. Nadinterpretuję czy faktycznie streszczam pańskie poglądy?

Jeśli jakieś grupy utrwalą ogromną przewagę na polu wiedzy i zdolności manipulacyjnych, to demokracja w najlepszym razie będzie tylko fasadą i pewną fikcją.

Dlaczego tylko fasadą i fikcją?

Do pewnego stopnia każda demokracja zawiera elementy fasadowe, czysto dekoracyjne, bo we wzajemnej komunikacji ludzie od tysięcy lat używają podstępów. Jednak dopiero od ostatnich dekad, dzięki między innymi badaniom z zakresu ekonomii behawioralnej nastąpiła profesjonalizacja technik manipulacji. Dzisiaj można to przeskalować dzięki „mikrotargetingowi”.

Tradycyjny polityk wie, że choć na jego wiec przyjdą wyborcy zróżnicowani, to w większości o pewnym wspólnym profilu, więc będzie można do nich trafić za pomocą jednego, średnio rozbudowanego kodu komunikacyjnego. Wystarczy powiązać ze sobą hasła skierowane do różnych części jego elektoratu. Polityk ery przedelektronicznej nie był w stanie zejść na poziom setek rodzajów odmiennych przekazów dopasowanych do specyfiki, wrażliwości poszczególnego odbiorcy. Dobrze ukazał to Christopher Wylie w wydanej także w Polsce książce „Mindfuck: Cambridge Analitica, czyli jak popsuć demokrację”.

Przekaz płynący z nurtem nowoczesnej technologii trafia pod każdą szerokość geograficzną w spersonalizowanej formie. 

Jest to możliwe, gdyż ze smartfonem każdy jest sam. Zbudowawszy cyfrowego sobowtóra danej osoby można dokonać „mikrotargetingui”, czyli przekaz sprofilować pod specyficzne pragnienia i lęki jednostki. Można „zhackować” psychikę każdego z nas. Nigdy wcześniej polityk czy marketingowiec nie miał możliwości dotarcia do milionów ludzi z przekazem tak precyzyjnym i zindywidualizowanym jak obecnie.

Przecież już dziś „CyberPanowie” manipulując ludzką uwagą, zmasakrowali komunikację polityczną, tym samym poważnie osłabiając demokrację. Robert Epstein, amerykański psycholog i dziennikarz, w 2013 roku w czasopiśmie Amerykańskiej Akademii Nauk pokazał, że Google poprzez zarządzanie kolejnością wyników wyszukiwań jest w stanie wywierać wpływ na 20% niezdecydowanych wyborców. Pamiętajmy, że czasem pół procenta decyduje o tym, kto rządzi całym krajem. Jeszcze poważniejszy problem sygnalizuje list już ponad 27 tysięcy osób domagających się półrocznego moratorium na prace nad zaawansowaną sztuczną inteligencją.

Pan jest wieloletnim zwolennikiem moratorium. 

Zgadza się. Od 2015 roku mówię o potrzebie wprowadzenia moratorium technologicznego. Fascynująca jest dyskusja wokół tego listu. Jedni uważają, że moratorium jest niepotrzebne, bo nie ma poważnych zagrożeń, a AI otwiera wspaniałe perspektywy postępu. To na przykład stanowisko głównego naukowca, badacza AI z Mety, ongiś Facebooka, Yanna LeCuna. Drudzy przekonują, że chociaż sygnalizowane w liście niebezpieczeństwa są poważne, to nie ma możliwości wcielenia moratorium w życia, gdyż technologiczny wyścig zbrojeń rozgrywa się na tylu polach, że nie sposób go w ogóle poddać kontroli. 

Cyfrowy wyścig zbrojeń jest zdecentralizowany w odróżnieniu od wyścigu zbrojeń z okresu zimnowojennego. Tam konkurowały ze sobą dwa kompleksy militarno-przemysłowe: amerykański i sowiecki. Badania były skumulowane i odgórnie kontrolowane. Mówiono, że jeśli jakiś wybitny fizyk atomowy, który publikował w renomowanych czasopismach i bywał po konferencjach, nagle zniknął z horyzontu, to przeszedł do tajnych badań po jednej albo po drugiej stronie i dalsze postępy jego wspaniałego umysły miały już służyć przewadze strategicznej jego kraju.

Tamten wyścig zbrojeń można było trzymać pod kontrolą ze względu na jego skoncentrowany charakter. Teraz nad systemami sztucznej inteligencji, ale także nad innymi technologiami, bio-, nano-, broni chemicznej, pracuje się w wielu miejscach równocześnie. Mimo to uważam, iż moratorium jest niezbędne. Jak jedziemy za szybko, trzyma zmniejszyć szybkość albo zahamować.

Jedziemy za szybko?

Jeśli chcemy, żeby AI służyła człowiekowi, musimy tempo jej rozwoju dopasować do naszych zdolności regulacyjnych. Na razie rozwój technologii nie tylko przekracza nasze zdolności adaptacyjne, ale rozbija też ład ludzkich wartości.

Czyli moratorium jest koniecznością. 

Ale na to mówią, że badania toczą się na tak wielu polach, że nie sposób ich istotnie spowolnić.

Nie wierzy pan w magiczne antidotum na zgubne skutki zbyt szybkiego postępu?

W magię wierzę tylko w miłości. Skuteczność moratorium zależy także od dobrej woli badaczy i ich finansowych sponsorów. Nie wszyscy z technoentuzjastów są głównie poszukiwaczami kasy i władzy, niektórzy są etyczni.

Więc od czego jeszcze zależy?

Najpierw dygresja. Zagrożenia ze strony AI są potężne i egzystencjalne, między innymi z tego powodu, że AI może wejść w fazę eksplozji samorozwoju i generować innowacyjne technologie, których zadaniem będzie… generowanie kolejnych innowacyjnych technologii zdolnych do rodzenia kolejnych innowacji. W efekcie cały taki proces może wymknąć poza nasze zdolności pojmowania i dostępne środki jakiejkolwiek kontroli. Nastąpić może „singularity”, czyli sytuacja, w której kompletnie tracimy podmiotowość, zdolność rozumienia rzeczywistości i możliwość sprawczego reagowania na to, co się dzieje.

Sztuczna inteligencja której nowej generacji może się o nas troszczyć, ale może mieć nas w nosie. Coś jak u Stanisława Lema w „Golemie XIV”. Najpierw sobie nas poobserwować, a po zorientowaniu się, że już nic ważnego nie mamy jej do powiedzenia, udać się gdzieś w kosmos, dalej eksplorując wszechświat. Ale może też po drodze zassać całą dostępną energię systemu planetarnego i nie zwracając na nas w ogóle uwagi, użyć tej siły do wyeksportowania się do innej galaktyki lub uniwersum.

Wcześniej jednak zniszczy Ziemię. 

Badacze twierdzą, że perspektywa „singularity” jest większa od zerowej, czyli realna, więc moratorium jest niezbędne dla przetrwania ludzkości. Potrzebujemy przyhamować, by zorientować się, dokąd prowadzi droga. 

I teraz uwaga. Coś bardzo bolesnego. Skoro zaś w ramach demokracji wprowadzenie moratorium wydaje się niebywale wręcz mało prawdopodobne, to odpowiedź niektórych ludzi jest następująca: jeśli chcemy ocalić ludzkość, musimy złamać paradygmat wolności. Wprowadzić autorytaryzm, bo tylko autorytarna władza jest w stanie wziąć za pysk cały sektor badań i rozwoju, gdzie pod hasłami postępu tłucze się kasę.

W cywilizowanym świecie nie powinno być żadnego miejsca na autorytaryzm.

Nie powinno. Ale to cywilizowany świat spowodował, że weszliśmy do śmiercionośnej rynkowo-technologicznej pułapki, z której jedynym wyjściem jest porzucenie demokracji i przynajmniej czasowe wprowadzenie autorytaryzmu. Jakieś pięć lat temu wygłaszałem wykład w Trybunale Konstytucyjnym pt. „Technologiczny strzał w demokrację i państwo prawa”. Postawiłem tam taką prognozę: albo kraje demokratyczne poddadzą technologię jakiejś kontroli, do czego niezbędna może okazać się forma jakiegoś łagodnego autorytaryzmu, albo nie zrobią tego na czas i grozić nam będzie brutalny autorytaryzm. Albo importowany z krajów autorytarnych, albo narzucony nam przez tyranów z wnętrza naszego świata.

Już teraz nie ma demokratycznych środków, żeby powstrzymać technologiczną zagładę ludzkości?

Czy Stany Zjednoczone, główny obrońca demokracji i kolebka nowych technologii, są w stanie podać to kontroli? Przecież technoentuzjaści pojadą do Argentyny, do Afryki czy do Chin, żeby tam przeprowadzać te same badania.

Jakiego globalnego systemu pragną technoentuzjaści?

Wielu technoentuzjastów to ludzie apolityczni. Przynajmniej w tym sensie, że obca im jest jakaś głębsza refleksja ideologiczna.

Skupieni na technologii i pieniądzach.

Odnoszę wrażenie, iż ci, którzy mają nieco szersze horyzonty, często mają poglądy lewicowo-liberalne. Poza tym, że pragną błyskawicznie przeskalować swoje życie z biedaka na milionera i niebywale entuzjastycznie podchodzą do swoich projektów technologicznych, potrzebują również poczucia uczestniczenia w czymś słusznym. Tyle razy powtarzali: „better future”, że chyba uwierzyli, iż poprawiają przyszłość. Są zwolennikami progresywizmu, często stowarzyszonego z liberalizmem obyczajowym. Ta ideologia jest dla nich futerałem ustrojowo-kulturowym, w ramach którego następować miałby postęp technologiczny, czyli – uwaga: niespodzianka – postęp całej ludzkości.

Nie prowadzą refleksji nad tym, że nadmierne nasycenie życia społecznego innowacjami, ciągłe powiększanie złożoności prowadzi do zaprzeczenia świata, w którym tak doskonale się odnajdują. Świata wysokiej mobilności. Świata, w którym utalentowany człowiek może pracować na wielu uczelniach świata i w wielu laboratoriach. Świata, w którym może dowolnie zmieniać start-upy i korporacje. Świata, w którym jest członkiem jednego promila najbardziej utalentowanych ludzi na planecie. Są przekonani, że ten świat im sprzyja. Nie widzą, że rozwijając te wszystkie technologie, zakładają pętle na szyję także swojej wolności. 

Sztuczna inteligencja ubezwłasnowolnia człowieka? Czyni go sobie poddanym? Już w tej chwili tracimy wolność?

Już kiedy płacimy kartą, a nie gotówką, dajemy komuś władzę nad swoim życiem i zamieniamy się w marionetkę. Każdy, komu droga jest wolność, a nie ma wolności bez zachowania pewnego obszaru prywatności, bo bez prywatności wszyscy zamieniamy się w autocenzorów, powinien co pewien czas płacić gotówką, żeby funkcjonowała w obiegu. Ludzie jednak dla wygody sprzedają swoją wolność. 

Korzystamy z GPS-a, bo jest dla nas wygodny. Kilka lat temu opisano już jednak, że można domagać się od Google’a przekazania nam zapisanej w systemie historii naszych przemieszczeń. Na przykład: z całego ostatniego roku. On lepiej wie, gdzie byłeś i co widziałeś. W każdej chwili od brokerów danych można kupić słabo zanonimizowane dane na temat prawie każdego. I w zautomatyzowany sposób wyciągnąć z tego wnioski. Można zbudować model psychologiczny o wiele bardziej precyzyjny niż byłby w stanie stworzyć najlepszy ekspert od ludzkiej psychiki. Potem zaś mikrotargetingiem wepchnąć kogoś w depresję albo bezpodstawny entuzjazm.

Często powtarza pan, że wraz z rozwojem sztucznej inteligencji zginą naturalne emocje – miłość, przyjaźń, empatia…

Następuje degradacja naturalnych emocji i uczuć. Właśnie czytałem na Twitterze wpis pewnej pani, która sama jest badaczką AI i opowiadała, że z Chatem GPT porozmawiała o swoich problemach psychologicznych. I to jej bardzo pomogło. Nie jest przy tym osobą osamotnioną. Ma przyjaciół. Lepiej czuła się jednak, gdy powierzała swoje troski sztucznej inteligencji niż bliskim jej osobom.

Pewnymi zmartwieniami ludzie po prostu nie chcą dzielić się z innymi ludźmi. Nie chodzi tu tylko o intymność, ale też szacunek dla drugiej osoby, która mogłaby poczuć się obciążana cudzymi kłopotami. Przecież komuś ciążyć może coś nader mrocznego. Można mieć nawet najlepszego przyjaciela i czuć, że powierzenie mu swojego trudnego problemu, uczyni go zobowiązanym do jakiejś reakcji. 

Zmienia się dynamika całej relacji. 

Ciepła relacja może przeistoczyć się w relację ciężką. Chat GPT stanowi alternatywę. Nie jest bowiem człowiekiem. Przyjmijmy, że kolejna jego wersja będzie oparta na bardziej profesjonalnej psychoterapii – o tym się dyskutuje. Wiemy jednak, że są różne szkoły psychoterapii. Kiedyś profesor Włodzisław Duch, który sprawami neuronauki i sztucznej inteligencji zajmuje się od lat, opowiadał mi, że jest około sześćset nurtów psychoterapeutycznych i neuronauka powinna umożliwić odsianie nurtów mitologicznych czy hochsztaplerskich od tych respektujących rzeczywiste zasady pracy ludzkiego mózgu. 

Pewne nurty psychoterapii nastawiają ludzi na egocentryzm i egotyzm: nie przejmuj się rodziną. Konflikt z siostrą czy bratem jest nieistotny. Ty jesteś najważniejszy, ty jesteś najważniejsza. Skup się na sobie. Inne kierunki prezentują odmienne podejście: nie odzyskasz zdrowia psychicznego, jeśli nie uleczysz relacji ludzi wokół siebie. 

Nie wiemy, kto i w hołdzie dla jakiej mody psychoterapeutycznej, zaprogramuje jakiś system AI, a także do czego to doprowadzi. Idealizując, można sobie wyobrazić, że gdyby ludzkość rozwijała się harmonijnie poprzez otwarte negocjacje i deliberacje, sztuczna inteligencja mogłaby służyć zdrowym relacjom. Problem w tym, że każdy system cyfrowy może być zhakowany przez ludzi, którzy będą generowali postawy konfliktowe, np. przez superprecyzyjne manipulacje popchną do ataku ostatecznego osoby podatne ku samobójstwom. 

Istnieje taki stan psychiczny jak trwoga. Zaznał go pan kiedyś?

Na pewno. 

Wyobraźmy sobie, że ktoś wychowa AI na całym dorobku psychologii, literatury i sztuki, a potem poprzez oddziaływanie dźwięków, obrazów i tekstu zoptymalizuje teorię wywoływania i podtrzymywania trwogi. Następnie zainfekuje nią jakąś część zbiorowości, w tym ludzi samotnych. Wcale nie musi dojść do „singularity”, żeby zdarzył się mnóstwo nieszczęść. Psychopaci istnieją. Seryjni mordercy to nie jest wymysł kina. 

I mogą zainteresować się sztuczną inteligencją. 

Ktoś taki może zostać seryjnym siewcą trwogi i napawać się skutkami tej trwogi.

Lękiem ludzi. 

Ludzie będą się bać, a oni będą trzymali sznurki systemu sztucznej inteligencji. 

Sztuczna inteligencja prowadzi ludzkość ku zagładzie?

Nie wiem. 

W badaniach nad bezpieczeństwem istnieje zasada ostrożności. Trwają spory na temat regulowania sztucznej inteligencji. Często podaje się przykład. Oto mamy samolot. Powinien dobrze latać, bo zbudowaliśmy silnik, kadłub, rozpoznaliśmy prawa aerodynamiki i materiałoznawstwa, nie rozleci się w powietrzu, skrzydła mu nie odpadną. Ktoś stwierdzi, że ten samolot jest niezawodny w dziewięćdziesięciu procentach i zawodny co najwyżej w dziesięciu procentach. Zapraszamy do lotu. Ile osób wejdzie na pokład?

Każdy się zawaha. 

Specjaliści od sztucznej inteligencji mówią, że zawodność tych systemów jest znacznie wyższa niż dziesięć procent, a jednak jakoś chętnie wsiadamy do tego samolotu. 

Zasada ostrożności głosi, że gdy margines zagrożeń jest znaczący, pewnych rzeczy należy zaniechać. W sprawie AI tej zasady ostrożności nie przestrzegamy. Chciałbym, żeby jeszcze nie było za późno na moratorium.

Słusznie bronimy starego świata?

Jaki jest stary system wartości? Buduj swoje człowieczeństwo poprzez odpowiedzialność za innych. Znajdź pracę, załóż rodzinę, dbaj o nią. Wspólnie zmagajcie się z życiem. Stworzyliśmy warunki technologiczne, żeby każdy mieszkaniec planety mógł być chroniony przez podstawowymi chorobami, głodem, nędzą i brakiem miejsca zamieszkania. I zamiast doskonalić taki model, ścigamy się w niejasnym celu.

Przez tysiąclecia ludzkość doszła, głównie metodą prób i błędów, także do zdrowych form współistnienia. Ale następnie nie skupiliśmy się sposobach inteligentnej redystrybucji wytworzonego bogactwa, tylko na jeszcze większym przeskalowaniu tych dóbr – za pomocą inteligencji sztucznej.

Nigdy jeszcze nie było tak, że grupa kilkudziesięciu najbogatszych ludzi globu ma sumarycznie więcej pieniędzy niż uboższa połowa społeczeństwa. To się dalej kumuluje, bo to efekt rewolucji cyfrowej. Gdy powstanie radykalna asymetria, świat może i będzie dalej trwał, ale stanie się w tym sensie neofeudalny, że powstanie wąziutka kasta arystokratów i różne odmiany pracowników pańszczyźnianych.

ROZMAWIAŁ JAN MAZUREK

Czytaj więcej o sztucznej inteligencji:

Fot. Newspix

Urodzony w 2000 roku. Jeśli dożyje 101 lat, będzie żył w trzech wiekach. Od 2019 roku na Weszło. Sensem życia jest rozmawianie z ludźmi i zadawanie pytań. Jego ulubionymi formami dziennikarskimi są wywiad i reportaż, którym lubi nadawać eksperymentalną formę. Czyta około stu książek rocznie. Za niedoścignione wzory uznaje mistrzów i klasyków gatunku - Ryszarda Kapuscińskiego, Krzysztofa Kąkolewskiego, Toma Wolfe czy Huntera S. Thompsona. Piłka nożna bezgranicznie go fascynuje, ale jeszcze ciekawsza jest jej otoczka, przede wszystkim możliwość opowiadania o problemach świata za jej pośrednictwem.

Rozwiń

Najnowsze

Anglia

Chelsea oblała test dojrzałości. Sean Dyche pokazuje, że ciągle ma to coś

Radosław Laudański
1
Chelsea oblała test dojrzałości. Sean Dyche pokazuje, że ciągle ma to coś
Francja

Prezes amatorskiego klubu we Francji wściekły na Waldemara Kitę. “To małostkowe”

Aleksander Rachwał
2
Prezes amatorskiego klubu we Francji wściekły na Waldemara Kitę. “To małostkowe”

Weszło

Piłka nożna

„Escobar był narcyzem, psychopatą. Zupełnie jak Hitler. Zaintrygował mnie, bo kochał piłkę nożną”

Jakub Radomski
37
„Escobar był narcyzem, psychopatą. Zupełnie jak Hitler. Zaintrygował mnie, bo kochał piłkę nożną”
Boks

Szeremeta zmęczona, ale zwycięska. „Chcę odbudować boks w Polsce” [REPORTAŻ]

Jakub Radomski
6
Szeremeta zmęczona, ale zwycięska. „Chcę odbudować boks w Polsce” [REPORTAŻ]

Komentarze

79 komentarzy

Loading...