IP: Panie profesorze, w książce "AI Eksploracja" pisze Pan, że sztuczna inteligencja to czarująca siła i kusząca obietnica. Ja muszę powiedzieć, że bardziej takim uczuciem, które dominowało po lekturze tej książki u mnie był po prostu przestrach, lęk przed tym, co nadejdzie. Skąd ten czar sztucznej inteligencji według Pana?
AZ: Można zacząć od tego, że książka ta ma charakter prognozy ostrzegawczej. Wskazujemy możliwości przekształcania społecznego świata, jakie mogą się pojawić już niebawem poprzez kogoś, kto będzie posługiwał się systemami sztucznej inteligencji albo ewentualnie w wyniku jej autonomicznego działania, jeśli ona uzyska taką możliwość, a czar bierze się z tego, co w osobnym rozdziale określiliśmy techno-entuzjazmem. Otóż żyjemy w epoce, w której masa osób jest zafascynowanych poszczególnymi rozwiązaniami technicznymi, czy one mają charakter gadżetów materialnych, jakie mamy w ręce, czy mają charakter aplikacji, z których korzystamy i te osoby często korzystają z aplikacji, które mają zaszyte w sobie cyfrowe technologie uzależniające. Te osoby są tak zafascynowane możliwościami, jakie te aplikacje dają, że zupełnie nie potrafią otworzyć swojej wyobraźni na szersze konteksty społeczne, konteksty władzy, konteksty polityki, gospodarki, kultury. Nie potrafią spojrzeć na to szerzej. Dla wielu tysięcy i młodych, i starszych ludzi sztuczna inteligencja jest obietnicą jakiegoś nowego, wspaniałego świata. Zapominają przy tym zupełnie to wszystko, czego z Orwella mogliśmy się nauczyć.
IP: No właśnie, ale pisze Pan też, że pojawienie się sztucznej inteligencji jest okazją do przemyślenia pewnych podstawowych spraw, jak choćby sens życia, rola instytucji, emocji, czy też i związków. Ale to wymagałoby jednak pewnej takiej autorefleksji, prawda? Odnoszę wrażenie, że z tą refleksją naszą, co do tego, co się wokół nas dzieje, to ostatnio bywa różnie, a nawet słabo powiedziałbym.
AZ: Tak, to jest pewien paradoks, bo rozwój cyfrowych technologii komunikacyjnych, głównie w postaci mediów społecznościowych, wytworzył w nas sztucznie wywołane poczucie pośpiechu, które pozbawia nas zdolności refleksji, a zarazem sztuczna inteligencja jawi się jako technologia zupełnie nowego rodzaju, jakiej w dziejach ludzkości nie było, która wymaga przemyślenia tego, co się może z ludzkością wydarzyć, w jakim kierunku pójdzie rozwój ludzkości, czy on nie jest bardzo poważnie zagrożony.
To jest pułapka. Tą podobną pułapkę także w książce sygnalizuję, mianowicie rewolucja cyfrowa zwiększyła złożoność społecznego świata. Mówiąc najprościej, do świata realnego, tradycyjnego, analogowego dodała świat cyfrowy. Świat się stał bardziej złożony, a zarazem przeciążając nas bodźcami informacyjnymi, obniża ta sama rewolucja nasze zdolności rozumienia świata. Świat jest złożony i wymaga większych zdolności intelektualnych niż wcześniej, ale w wyniku rewolucji cyfrowej nie nastąpił poziom jakości kształcenia, a to kształcenie zostało zdegradowane. Całe pokolenia przestały czytać książki, ludzie przestali czytać gazety, nie czytają tekstów, czytają nagłówki.
To jest kolejny paradoks. W tej książce, rozmawiając, chcemy go zdiagnozować i powiedzieć, że musimy na AI spojrzeć z dystansem, a tymczasem wiele osób tego nie potrafi. Nie wiem, czy pan redaktor śledzi ostatnią debatę wokół zmian kadrowych w dziale IDEAS NCBIR, czyli Narodowego Centrum Badań i Rozwoju. Ja się nie chcę tu wypowiadać co do zasadności tych zmian kadrowych, bo nie mam jeszcze pełnej wiedzy. Natomiast ci, którzy biorą udział w tej dyskusji bezrefleksyjnie, są entuzjastyczni wobec rozwoju sztucznej inteligencji i nie pytają się w ogóle, czy w tych badaniach problematyka bezpieczeństwa była postawiona na jakimś poczesnym miejscu i nie analizują na ile ten zespół badawczy funkcjonował pod wpływem amerykańskich big techów, na ile jego dociekania były autonomiczne. Celem książki "AI Exploracja" jest dostarczenie między innymi narzędzi pojęciowych, żebyśmy na szansę, jaką jest AI patrzyli także pod kątem różnych zagrożeń.
IP: Ale panie profesorze, no tutaj jest oczywiście pytanie, kto w pierwszym rzędzie powinien patrzeć, no bo trudno wymagać od użytkownika smartfonu, czy jakiegoś innego przenośnego urządzenia elektronicznego, które budzi zachwyt swoimi możliwościami, by on się zastanawiał, czy on ma w postaci tego smartfonu pomocnika, czy wroga. Nie ma pan profesor takiego wrażenia, że w tej chwili wkroczyliśmy w erę cywilizacji dwóch prędkości. Jest ta prędkość, z którą pan się porusza i osoby dostrzegające zagrożenia, no i cała reszta społeczeństwa, które cieszy się tym. co jest.
AZ: Ta cywilizacja ma bardzo wiele prędkości, bo żyjemy w tej mniejszej części świata, która jest dostatnia i względnie bezpieczna, mimo wojny za naszą granicą i mimo pandemii COVID-a i kryzysu finansowego sprzed kilkunastu lat, który całego świat dotyczy. Ale nadal żyjemy w uprzywilejowanej części świata i największa odpowiedzialność za wszystko spoczywa oczywiście na politykach, bo to politycy są w stanie wymusić na big techach pewne regulacje. Proszę zwrócić uwagę, że gdy otwieramy dowolną aplikację, niewinną jakąś stronę, to może być strona z obrazami z jakiegoś muzeum, czyli coś, co należy do kultury wysokiej i jest bardzo pożyteczne. Wszędzie tam mamy pytanie, czy zgadzamy się na akceptację ciasteczek lub innych systemów śledzących i często, jest jakby z góry założone, że my akceptujemy. Jeśli chcemy negatywnie odnieść się do tego, to musimy czasami przejść przez kilka poziomów.
W ostatnim okresie coraz poważniejsza jest opinia, że z definicji powinno być zakazane śledzenie, a jeśli ktoś chce udzielić zgody, to musi przejść kilka poziomów menu. Ale bez woli politycznej nie można tego zrobić. Niestety wielu polityków także w Polsce nie nadąża za technologiami cyfrowymi.
Już przysłowiowe stały się przesłuchania przed kilku lat Marka Zuckerberga, szefa Facebooka, obecnie Mety, w amerykańskim kongresie, gdy okazywało się, że amerykańscy parlamentarzyści w ogóle nie rozumieli, jak działa Facebook i że ma on zaszyte we wszystkie swoje funkcjonalności mnóstwo technologii uzależniających.
IP: No właśnie, ale żeby to rozumieć, to trzeba mieć narzędzia. Kto ma dać społeczeństwu te narzędzia? Politycy narzędzi nie dają! To raczej system edukacji powinien dać.
AZ : A od tego są, to wszystko jest działaniem zbiorowym. Od tego są tacy analitycy jak ja, który częściowo przy okazji mojej pracy w Biurze Bezpieczeństwa Narodowego, gdzie monitoruję nowe technologie pod kątem właśnie potencjalnych zagrożeń dla bezpieczeństwa kraju. Wcześniej pracowałem przez kilka lat w Akademii Sztuki Wojennej, gdzie zajmowałem się podobnym zadaniem, kierując zespołem, który to monitorował. Ten zespół został zresztą rozwiązany, ale to jest inna sprawa. Chodzi o to, że są analitycy, którzy wysyłają sygnały, na które parlamentarzyści, politycy i inni eksperci powinni być otwarci, ale bez, jak wiemy, w najlepszych nawet demokracjach, bez oddolnej presji wyborców, politycy nie kwapią się do robienia pewnych rzeczy. Dlatego tak bardzo mi zależy, żeby te wątki z książki "AI Exploracja", którą napisałem wspólnie z moją żoną, która także jest socjologiem, żeby pewne wątki stały się przedmiotem dyskusji. Odbiorcy tej książki nie muszą się ze wszystkim zgadzać, co w niej jest. Chcę, żeby ona była głosem w dyskusji nad tym, co nowe technologie robią z naszym życiem społecznym, jak inwazyjnie interweniują w życie rodzinne, jak inwazyjnie ingerują w umysły ludzi, zwłaszcza dzieci.
Potrzeba nam, żebyśmy robili to, co teraz, panie redaktorze, robimy. Tworzyli przestrzeń społecznego namysłu nad konsekwencjami kolejnych systemów sztucznej inteligencji, namysłu, który nie będzie się spalał w jakiejś politycznej nawalance.
IP: A ten namysł potrzebny jest po to, byśmy jako ludzie przetrwali, jako gatunek?
AZ: Ja należę do tych analityków i przedstawiam argumenty na rzecz mojego stanowiska, ponieważ najwybitniejsi badacze, w tym twórcy nowych systemów, mówią: "nie potrafimy do końca określić, do jakiego stopnia te systemy już rozumieją język za pomocą, którego komunikują się z nami. Nie potrafimy przewidzieć, jak szybko te systemy mogą wejść na wyższy poziom sprawności". Tej sprawności, która może okazać się znacznie przekraczająca ludzkie możliwości intelektualne. To znaczy, że tworząc AI zapraszamy do swego ludzkiego domu obcego. Przypominam serial "Obcy", on się, ten ów obcy kosmiczny charakteryzował tym, że ewoluował z malutkiego obiektu w potwora, nad którym traciliśmy kontrolę. I musimy wszyscy rozważyć, czy nie stoimy na krawędzi sytuacji, w której możemy stracić kontrolę nad AI. I żeby uświadomić sobie wagę sytuacji, wystarczy przypomnieć sobie dwie rzeczy.
Po pierwsze, że z najbardziej, jak się wydawało, wydaje zaawansowanej na polu sztucznej inteligencji amerykańskiej firmy OpenAI, odeszli badacze, którzy mówili, że nie dostali obiecanych im zasobów do badań nad bezpieczeństwem AI. Niektórzy pracownicy mówią, że liczba środków przeznaczanych na zabezpieczanie systemów AI przed wymknięciem się spod kontroli, a tych nad ich rozwijaniem to jest jak jeden do tysiąca.
Wyobraźmy sobie, że budujemy potężny pociąg, który jest w stanie zawieźć ludzkość do nowego, lepszego świata. Droga ma ewidentnie zakręty jakieś wiraże, pochyłości i koncentrujemy się na jak najpotężniejszej mocy lokomotywy, nie myśląc o tym, że musi być sprawny system hamowania i że musimy to wszystko zbudować tak, żebyśmy nie byli skazani na rozwój tylko jednym torem, żeby ludzkość miała pole wyboru. Niestety technoentuzjaści, myślący wąsko o szansach, niedostrzegający zagrożeń, powodują, że systemy hamowania są niedorozwinięte. I to zostawiamy pod rozwagę również słuchaczom.