Uzyskaj dostęp do ponad 250000 książek od 14,99 zł miesięcznie
"Andrzej Zybertowicz stworzył w tej książce przestrzeń dla rozmowy o AI, której wszyscy potrzebujemy. W dzisiejszym świecie „przejrzystość” w naszym dyskursie to kluczowe wymaganie. Ta książka powinna być lekturą dla każdego, kto pyta, czym AI jest dziś i czym może być w przyszłości. A must read." - Andrew A. Michta, Senior Fellow and Director, Scowcroft Strategy Initiative, The Atlantic Council of the United States
"Książka AI Eksploracja zostawiła mnie z większą liczbą pytań niż miałam przed jej przeczytaniem. A mimo to właśnie dlatego warto po nią sięgnąć. Może stanowić ciekawy , inny punkt wyjścia, pretekst do dalszych rozważań na temat AI. Poznając bowiem lepiej tę technologię, paradoksalnie lepiej poznajemy samych siebie." - Natalia Hatalska, autorka książki Wiek paradoksów: Czy technologia nas ocali?
"Komputery osobiste, Internet i smartfony, początkowo traktowane jako ciekawostka, głęboko zmieniły nasze życie. Brakuje nam wyobraźni socjologicznej, przewidywania skutków społecznych wprowadzania nowych technologii. Sztuczna inteligencja może mieć znacznie silniejszy wpływ niż rozwinięte wcześniej technologie. Rozważania prof. Zybertowicza na ten temat są kontrowersyjne, ale warto je krytycznie przemyśleć." - Prof. Włodzisław Duch, UMK
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 336
Wydanie I
Projekt okładki i stron tytułowych Fahrenheit 451 Na podstawie elementów projektu wykonanego przez Copilota
Redakcja i korekta Barbara Manińska
Projekt graficzny, skład i łamanie, wybór i redakcja wyimków, indeks TEKST Projekt
Projekt graficzny stron z wyimkami TEKST Projekt Na podstawie projektu wykonanego przez AI Firefly firmy Adobe
Dyrektor wydawniczy Maciej Marchewicz
ISBN 9788368123067
© Copyright by Paweł Lisicki © Copyright for Fronda PL Sp. z o.o., Warszawa 2024
WydawcaFRONDA PL, Sp. z o. o.ul. Łopuszańska 3202-220 Warszawatel. 22 836 54 44, 877 37 35 faks 22 877 37 34e-mail: [email protected]
www.wydawnictwofronda.pl
www.facebook.com/FrondaWydawnictwo
www.twitter.com/Wyd_Fronda
Przygotowanie wersji elektronicznejEpubeum
○ Zostań turystą w swoim świecie
○ Szansa na gruntowne przemyślenie ludzkiego losu
○ Demon polaryzacji
○ Paradoks postępu/„postępu”
○ Po kruchym lodzie
○ Dziękujemy
Zostań turystą u siebie
Na początku proponujemy Czytelnikom mały, odświeżający zabieg myślowy. Wyobraźcie sobie Państwo, że pewnego pogodnego dnia nie musicie iść do pracy, ale też nie wyjechaliście na urlop. Jesteście w swoim mieście. Nigdzie się nie śpieszycie. Pójdziecie jego ulicami na luzie, trochę bez celu, a trochę z zamiarem dostrzeżenia czegoś ciekawego.
Przyjrzyjcie się budynkom przy ulicach, przez które codziennie przechodzicie lub przejeżdżacie. Nowym spojrzeniem omiećcie place i zaułki Waszego miasta. Zatrzymajcie wzrok na przechodniach, jak byście ich nigdy wcześniej nie widzieli. Zobaczycie śpieszących się, ospałych, a także tych zagubionych.
A potem pomyślcie – czy to jest miasto, w którym warto żyć? Czy jego energia, kolorystyka, dźwięki Wam odpowiadają? Może nie wszystko wam się spodoba, odmienność czasem przybiera zaskakujące formy, ale pewnie nasunie się Wam też refleksja: w gruncie rzeczy możemy się jakoś nawzajem dotrzeć.
Jednak za chwilę pomyślcie, że prawie wszystko to, co widzicie, może już niedługo zniknąć – ludzie, auta, budynki i parki. Że przez jakieś potężne siły posiadające kusicielski czar wszystko to może zostać odmienione tak pokracznie, że trudno będzie w nowych konfiguracjach się połapać. Że wielu obserwowanych przez Was ludzi zdaje się nie myśleć o tym, co teraz w ich życiu jest najbardziej wartościowe, ani o tym, co jest naprawdę dokuczliwe i zbędne.
Pomyślcie: może warto ich spytać, czy chcą, by ich życie zostało przestawione na inne tory – prawie bez ich woli i przy niewielkiej możliwości ogarniania tego, co się dzieje. Kim się staną, gdy pewnej niezweryfikowanej i słabo wykrystalizowanej obietnicy lepszego świata bardzo łatwo ulegną?
Ta czarująca siła i kusząca obietnica to technologia sztucznej inteligencji. Kolejny z długiej serii ludzkich wynalazków. Niektóre wybitne postacie mówią, że kolejny, ale tym razem zapewne jednocześnie ostatni. Że pozostałe wynalazki, jeśli jeszcze w ogóle nadejdą, nie będą już ludzkiego autorstwa.
Także na smartfon, który trzymacie w ręce, spójrzcie tak, jakby był czymś niezwyczajnym, czymś, co właśnie pokazała Wam znajoma z innego kontynentu. Podobno tam ludzie używają tego non stop i nie potrafią już bez tego sprzętu się obyć.
Zapomnijcie wszystko, co kojarzy się Wam z rewolucją cyfrową, z rozwojem, z obietnicami i z obawami. Przypomnijcie sobie, że nie jesteśmy ani tym, co myślimy, ani tym, co mówimy, ale tym, co najczęściej robimy. I rozważcie, któremu z ludzi poświęcacie co najmniej tyle czasu, ile dajecie swojemu smartfonowi. A gdy już to uczynicie, skreślcie do nas kilka słów swoich spostrzeżeń. Oto mail do nas:
Będziemy wdzięczni za wszelkie uwagi, choć nie możemy obiecać, że na każdą wiadomość odpowiemy.
Jeśli taka wycieczka po znajomym, wydawałoby się dobrze „ogarniętym” świecie swojej codzienności Was kusi, to zapraszamy do wspólnej wyprawy eksploracyjnej. Eksploracyjnej, bo wypuszczamy się na tereny częściowo nieznane, można powiedzieć – dziewicze. Także w tym sensie, że dopiero na nowo tworzone. Wyłaniające się w procesie zadziwiającego, pokrętnego współdziałania technologii AI z ludzkimi kulturami, gospodarkami, pragnieniami, lękami, wizjami, interesami, z goryczą i nadzieją. I właśnie to, co już się dzieje, ale też to, co dopiero może się wydarzyć w szerokiej przestrzeni współoddziaływania ludzi i inteligentnych maszyn, jest tematem naszych rozmów. To teren naszej eksploracji.
Nie przegapmy kolejnej szansy
Do zrobienia tej książki skłoniło nas dostrzeżenie tego, jak unikatową szansę dla ludzkości na ponowne przemyślenie człowieczeństwa, ale i dla socjologicznej refleksji o życiu społecznym, stworzyło niedawne przyśpieszenie rozwoju sztucznej inteligencji.
Ktoś spyta: na czym ta unikatowa szansa polega? Czyż w dziejach nie zdarzały się – ostatnio nawet zadziwiająco często – szybkie zmiany, ba, poważne wstrząsy, które powinny prowokować ludzkość do głębszego przemyślenia reguł ładu cywilizacyjnego, jaki wytworzyliśmy? W istocie prowokuje do tego każda większa zmiana społeczna – od rewolucji po zwykłe reformy społeczne.
Spójrzmy pod tym kątem na pandemię Covid19. Ogłaszano, że to prawdziwy kataklizm. Ileż to razy słyszeliśmy wtedy, że jak z tego wyjdziemy, to życie społeczne już nie będzie przebiegało tak samo jak wcześniej. Że zorganizujemy je inaczej, lepiej. Ta ostatnia pandemia istotnie dawała możliwość niepowierzchownego wglądu w działanie systemów społecznych, wszak odsłaniała kolejne warstwy faktycznego funkcjonowania instytucji władzy. Ukazywała też, jak ważna jest rola państwa i jego granic.
A jednak nie możemy oprzeć się wrażeniu, że szansa na głęboką refleksję nad sposobami organizacji ładu społecznego, jaką pandemia dawała, została zaprzepaszczona. Geostrategiczne, kapitalistyczne i medialne gry interesów sprawiły, że sprawy wróciły na stare tory.
Czy podobna niechęć do przemyślenia ludzkiego losu tak na poważnie, głębiej, nie występuje w obliczu wojny na Ukrainie? Wygląda na to, że dominuje odruch business as usual. Czego to powinno nas nauczyć?
Dlaczego z nadejściem AI ma być inaczej? Zatem spójrzmy:
• tempo, a przynajmniej infozgiełk wokół nowych technologii – szybkie jak nigdy dotąd;
• wielkie przepływy inwestycyjne i oczekiwanie nadzwyczajnych zysków;
• nieoczekiwane interakcje tego, co techniczne, z tym, co ludzkie;
• wtargnięcie coraz bardziej sprytnych algorytmów we wszystkie niemal pola życia społecznego.
Innowacja goni innowację, a każda jakoś zmienia warunki życia. Musimy ciągle się adaptować, zamiast delektować się życiem w warunkach osiągniętego już dostatku.
Pora dostrzec, że niezależnie od licznych korzyści, technologie rewolucji cyfrowej powodują, że coraz częściej tracimy kompetencje – mniej musimy pamiętać, mniej kontrolować, mniej rozumieć. Czy naprawdę trzeba bezrefleksyjnie ulegać rozwiązaniom zachęcającym do ucieczki od odpowiedzialności?
Nawet dotychczasowi technooptymiści czują, że technologia jakoś za bardzo nam się panoszy, choć niestety podchodzą do tego tak, jakby obowiązkiem inteligentnego człowieka było „załapywanie” się na kolejne etapy technoewolucji, włącznie z możliwym skasowaniem człowieczeństwa takiego, jakie znamy.
Już teraz kwestie związane z cyberuzależnieniami mogą stanowić okazję do refleksji nad tym, jak AI jest w stanie wpłynąć na struktury społeczne. AI to nie tylko fenomenalny wynalazek, ale w perspektywie także samodzielny(?) gracz zdolny wcielać się w różne role. Słowem – nowy Obcy.
A to zaledwie wycinek tego, co odsłania fenomen wtargnięcia technologii AI w wyobraźnię tak wielu z nas.
Mamy unikatową szansę na ponowne, choć w nowych warunkach, przemyślenie kwestii, nad którymi myśliciele pochylali się od starożytności: nad sensem życia, potrzebą bliskości, rolą instytucji. Dopóki nad nami AI całkiem nie zapanowała…
Nigdy wcześniej
Nasze rozmowy to nie jest eksploracja jedna z wielu. To eksploracja – tak myślimy – bezprecedensowa. Nigdy takich warunków nie mieliśmy. Bowiem przed erą rewolucji cyfrowej, a zwłaszcza ostatnich postępów na polu AI, nie było na naszej planecie małej, dość zwartej grupy ogromnie bogatych ludzi, którzy dysponowaliby narzędziami wpływu na masy ludzkie tak precyzyjnymi i zarazem potężnymi, jak obecnie media społecznościowe. Ludzi, którzy budując kolejne modele AI, mogą pewnego dnia znienacka zaskoczyć i nas, i samych siebie.
Demon polaryzacji
Taka ponowna refleksja wcale nie musi się powieść, gdyż niestety demon polaryzacji i napędzane przezeń odruchy ekskluzji ukąsiły również debatę o AI. Także w USA. Wystarczy, że ktoś przyjmuje wyraźnie etycznie odmienne od innych badaczy podejście do tej tematyki, by głośno zarzucać mu patrzenie w głupią stronę.
Paradoks postępu/„postępu”
Gdy ludzkość uzyskała już techniczne możliwości rozwiązania podstawowych problemów, z którymi nasi przodkowie zmagali się przez tysiąclecia – głodu, skrajnych niesprawiedliwości i nierówności, wojen, wyczerpującej, niszczącej pracy oraz przynoszących wielkie cierpienia chorób – to... wcale nie zbliżamy się do poziomu powszechnego szczęścia i harmonii. Tak skonfigurowaliśmy cywilizacyjny rozwój albo pozwoliliśmy mu, by tak ustawił się sam, że przyniósł on rozpad więzi społecznych, nasilenie depresji, samotności i zwiększenie potencjału samozniszczenia, w efekcie spychając ludzką cywilizację na drogę ku degradacji.
Dlaczego tak właśnie się stało? To jedno z pytań, na które w naszej książce staramy się odpowiedzieć.
Eksplorujemy
Jako socjologowie, od lat prowadzący refleksję nad różnymi ścieżkami społecznego myślenia, jesteśmy świadomi, z jakimi pułapkami wiąże się zanurzenie w jakąś poszczególną perspektywę przy jednoczesnym odsunięciu innych na bok.
Eksploruje się tereny nieznane, czasem niebezpieczne, ale też te, które zdają się swojskie, lecz przestają być takie, gdy spojrzymy na nie inaczej niż robimy to codziennie. Wtedy czasem ukazują swoje nieoczekiwane, ukryte za naszymi przyzwyczajeniami oblicze.
Naszym pragnieniem jest, by wokół spraw superważnych toczyła się w Polsce ożywiona, ciągła publiczna rozmowa, do której nasza książka dorzuci swoje trzy grosze. Rozmowa odsłaniająca dalsze warstwy tego, co dzięki AI się odsłania i wyłania. Rozmowa zarazem chroniąca przed zagubieniem wiele dobrych rzeczy z tego, co ludzkość już wcześniej wypracowała.
Pole naszej eksploracji okazało się tak rozległe, tak przy bliższym podejściu rozgałęziało się na liczne podproblemy, że niewiele wątków dało się zadowalająco zgłębić. By nam się zanadto nie rozproszyły, przyjęliśmy jako nadrzędną perspektywę bezpieczeństwa cywilizacyjnego.
Gdy ludzkość uzyskała już techniczne możliwości rozwiązania podstawowych problemów, z którymi nasi przodkowie zmagali się przez tysiąclecia to... wcale nie zbliżamy się do poziomu powszechnego szczęścia i harmonii.
Po kruchym lodzie
Jasne, że w odniesieniu do wielu spraw podjętych w niniejszej książce nie mówimy ostatniego słowa.
Próbując zarysować względnie szeroki obraz relacji tego, co społeczne, z tym, co AI-owe, musieliśmy podjąć wiele zagadnień wykraczających poza zwyczajowe socjologiczne kompetencje. Mimo naszych prób dość dokładnego zapoznawania się z interdyscyplinarną paletą opracowań naukowych oraz popularnych, jesteśmy świadomi, że na wielu polach poruszamy się w sposób amatorski. Jednak zarazem widzimy, że obecna sytuacja cywilizacyjna przerasta znacząco zdyscyplinowany metodologicznie styl prowadzenia badań w naukach społecznych, jaki uformował się przez ostatnie dziesięciolecia.
Zrezygnowaliśmy np. z typowego dla przyzwoitych rozpraw przeglądu literatury badawczej. Sprawy w domenie badań nad AI idą do przodu tak szybko, że zaraz po zrobieniu przeglądu badań bywa tak, że część z nich już jest nieaktualna. Tym niemniej w przypisach umieszczonych na końcu książki dajemy liczne odnośniki do koncepcji, z których korzystamy oraz źródeł danych empirycznych, na które się powołujemy.
Szanujemy bardzo badaczy, którzy ku całości zbliżają się z mozołem, testując liczne warianty swoich drobiazgowych hipotez, ale problematyka relacji AI ze światem społecznym wymaga innego podejścia. W pewnym sensie niezbędne jest działanie hazardowe – postawienie całej puli na jedną diagnozę, którą w tym wypadku jest alarm z powodu zbyt rozpędzonego pociągu zmian.
O korzystaniu z AI przy pracy nad książką
Korzystaliśmy z niektórych chatów konwersacyjnych. Czasem, by szybko uzupełnić swoją wiedzę, czasem, by skonfrontować nasze ujęcie z tym, co oferują obecnie dostępne modele AI. Po to, by zobaczyć, jak działa ta nowa siła, której poświęcamy tyle uwagi. Także po to, by dać przedsmak takich sytuacji tym Czytelnikom, którzy sami dotąd z nowych modeli AI nie korzystali. W tekście podajemy, kiedy i z jakiego modelu korzystaliśmy.
Konflikt interesów
Deklarujemy brak powiązań finansowych lub organizacyjnych, które mogłyby wpływać na nasze podejście do spraw związanych z AI. Z jednym może wyjątkiem.
Autorzy czują się częścią gatunku ludzkiego, stoją po jego stronie, to zaś może wpływać na ich sposób podejścia do sztucznej inteligencji.
Podziękowania
Nie mogąc wymienić wszystkich osób, które pomogły nam w pracy nad tą książką, wyrazy wdzięczności ujmujemy w trzech punktach.
Gorąco dziękujemy dr. Janowi Waszewskiemu, który pod presją czasu przeczytał prawie całą książkę i przedstawił wiele bardzo cennych uwag.
Ciepłe słowa kierujemy do zespołu Ośrodka Studiów nad Wyzwaniami Cywilizacyjnymi Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej. Grupie osób, którą od roku 2016 aż do rozwiązania w kwietniu 2024 kierował A. Zybertowicz, jesteśmy wdzięczni za liczne pomysły. Na pewno wiele z nich znajdziecie przy lekturze niniejszej książki.
Andrzej Zybertowicz dziękuje serdecznie ministrowi Jackowi Siewierze, szefowi Biura Bezpieczeństwa Narodowego – dzięki jego dociekliwości wiele spraw związanych z bezpieczeństwem mógł ująć lepiej.
Oto garść uwag, których lektura nie jest obowiązkowa, choć może przyczynić się do zmniejszenia nieporozumień przy odbiorze naszej książki.
Cudzysłowy
Posługujemy się nimi w trzech głównych celach. Pierwszy, by oznaczyć, że jakiś tekst jest cytatem z czyjejś wypowiedzi, bo nie chcemy przypisywać sobie autorstwa np. czyjejś myśli lub udanej metafory.
Drugi, by wskazać, że mówimy w trybie metajęzykowym. Co to znaczy? Słowa mogą się odnosić do świata zjawisk pozajęzykowych oraz do sytuacji występujących wewnątrz samego języka. Przykład: „Przez Toruń przepływa rzeka Wisła” – to wypowiedź o świecie pozajęzykowym. Język jest tu użyty do opisu pewnej okoliczności geograficznej. Natomiast gdy powiemy: „Słowo «Wisła» ma pięć liter i oznacza jedną z polskich rzek”, wtedy używamy języka do opisu zjawiska językowego – czyli mówimy w trybie metajęzykowym. By to właśnie zaznaczyć, używamy cudzysłowu przy słowie „Wisła”. Od razu dodajmy, że o Wiśle jednak nie będziemy w książce rozmawiać.
Trzeci, by wskazać, że w naszym odczuciu jakieś określenie jest tylko przybliżeniem do uchwycenia właściwości jakiegoś zjawiska, bytu, obiektu.
Niekiedy cudzysłów jest znakiem ograniczonej wiarygodności. Na przykład, gdy mówimy, że nasze umysły mają ograniczone moce „obliczeniowe” – dając cudzysłów dystansujmy się od zbyt dosłownego rozumienia słowa „obliczeniowe”. Ta trzecia sytuacja jest poznawczo najciekawsza. Ukazuje bowiem sytuacje, gdy chcemy zakomunikować nasze zainteresowanie jakimś fragmentem rzeczywistości, którego cech bardziej się domyślamy, aniżeli jesteśmy ich pewni. Jest to najciekawsze, gdyż może oznaczać – jeśli mamy szczęście – że chodzimy niejako po krawędzi. Po krawędzi, czy też, by użyć łagodniejszej metafory, po górskiej grani: po jej jednej stronie jest to, co dobrze znane, językowo już skonwencjonalizowane, po stronie drugiej zaś z jakiejś mgły dopiero wyłaniają się kontury nieznanego, powoli pozwalające na dokonywanie poznawczych kroków naprzód.
Kursywa
Sięgnięcie przez nas po kursywę to sygnał do Czytelnika: proszę, zwolnij tutaj; zwróć szczególną uwagę na to słowo, bo może ono znaczyć coś więcej aniżeli te skojarzenia, do których już zostałeś przyzwyczajony. Za owym słowem, użytym w kontekście naszego wywodu, może kryć się coś nowego, tylko częściowo rozeznanego. Także to, na co Ty, Czytelniku, możesz wpaść, a czego my, autorzy, jeszcze nie dostrzegliśmy, choć może coś przeczuwamy.
Wytłuszczenia
Gdy natomiast jakiś fragment naszego tekstu zaznaczamy grubszą czcionką, chcemy, by Czytelnik na jakąś tezę zwrócił szczególną uwagę i by ją zapamiętał.
Przypisy
Sporo trudu włożyliśmy w to, by nadać rozmowie płynny charakter. Zdajemy sobie jednak sprawę, że niektóre zdania są dość złożone i długie. By dodatkowo nie utrudniać odbioru przekazu i nie zaburzać toku lektury, wszystkie przypisy są umieszczone na końcu książki – wskazana jest tam strona i fragment wypowiedzi, do którego dany przypis się odnosi. Korzystajcie i sprawdzajcie!
Mail dla Czytelników, którzy chcieliby nam na coś zwrócić uwagę:
Accelerationists (akceleracjoniści, zwolennicy przyśpieszenia): osoby, które uważają, że przyśpieszenie prac nad AI jest niezbędne, gdyż tylko z pomocą superinteligencji ludzkość będzie w stanie rozwiązać palące cywilizacyjne problemy, np. takie, jak groźba zapaści klimatycznej.
AI (Artificial Inteligence): sztuczna inteligencja – zob. niżej.
AGI (Artificial General Inteligence): taki system komputerowy, który zautomatyzuje ogromną większość zadań intelektualnych, jakie potrafi wykonać człowiek.
AI alignment (dostosowanie AI): chodzi o takie skonstruowanie danego modelu AI, aby był on zgodny z ludzkim systemem wartości. Z jednej strony jest to coś superpoważnego. Z drugiej to często ideologiczna mistyfikacja, m.in. z tego powodu, że na temat AI alignment dużo się mówi, a zbyt mało robi. W dodatku nie wiadomo, który z ludzkich systemów wartości miałby stanowić tu podstawowy układ odniesienia.
AI bias (stronniczość AI): skłonność modeli AI do przedstawiania wyników, które wykazują objawy skłonności do dyskryminacji jednych grup społecznych, a promowania innych; występuje np. w systemach rekomendujących przyznawanie kredytów bankowych. Ulubiony motyw „postępowców”, którzy zdają się wierzyć, że możliwe jest czysto obiektywne poznawanie i opisywanie świata.
ASI (Artificial Superinteligence): sztuczna superinteligencja; teoretycznie wyobrażony poziom sztucznej inteligencji, który przewyższa ludzką inteligencję we wszystkich dziedzinach, w tym w kreatywności, rozwiązywaniu problemów, podejmowaniu decyzji i ogólnej mądrości. Jest także w stanie samodzielnie uczyć się i rozwijać, osiągając poziomy rozumowania, które są nieosiągalne dla ludzi. Chociaż ASI jest obecnie tylko koncepcją teoretyczną, to pole badań przyciąga uwagę wielu naukowców.
Czarnoskrzynkowość: cecha niektórych systemów technicznych, nie tylko cyfrowych (przy uogólnionym rozumieniu – każdego układu), polegająca na tym, że nie wiemy, ewentualnie nie jesteśmy w ogóle w stanie zrozumieć, w jaki sposób realizują one swoje cele. Przykład: dla osoby bez wiedzy fizycznej czarną skrzynką jest zwykły telewizor, który jakieś sygnały z anteny zamienia w obrazy i dźwięki – ale jak on to robi?! Czarnoskrzynkowość AI może wynikać z tajemnicy handlowej albo z technologicznej złożoności.
Doznania „piekielne”: przestrzeń cierpień, z których w żaden sposób nie można się wydobyć. Krokiem do zrozumienia natury tej przestrzeni może być uwaga kardynała Josepha Ratzingera, iż piekło to miejsce, do którego nie sięga żadna miłość.
Emergencja (wyłanianie się): właściwość niektórych systemów AI polegająca na tym, że posiadają one dodatkowe umiejętności, wykraczające poza te, które były zaprojektowane przez ich twórców.
Inteligencja: Zdolność systemów przetwarzających informacje do przystosowywania się do warunków otoczenia w sytuacji posiadania ograniczonych zasobów i niepełnej wiedzy na temat tego otoczenia. Przyjmujemy, że inteligencja jest w pierwszym rzędzie tą cechą, która pozwala danemu stworzeniu – człowiekowi albo zwierzęciu, albo maszynie – działać właściwie i przewidująco w jego otoczeniu. O myśleniu nie ma tu ani słowa, a owo „otoczenie” może być nader wąskie – np. dotyczyć wyłącznie gry w szachy. Prosimy o niemylenie inteligencji z mądrością.
Mądrość: zdolność do kierowania inteligencją poprzez zlecanie jej osiągania wartościowych celów.
Mnożnik siły: (force multiplier) pojęcie często używane przez wojskowych; tutaj w uogólnionym sensie oznacza rozwiązanie techniczne i/lub instytucjonalne, które zwiększa siłę oddziaływania danego podmiotu. Przykład: ujeżdżony koń lub rower powiększają szybkość przemieszczania się człowieka.
Moratorium technologiczne: spowolnienie lub nawet wstrzymanie rozwoju technologii w wybranych obszarach w celu odzyskania przez ludzi zdolności do panowania nad swoimi wytworami.
Odporność: zdolność systemu do wchłaniania zaburzeń i podtrzymania realizacji swoich zasadniczych funkcji i struktury.
P(doom): prawdopodobieństwo tego, że gdy AI stanie się bardziej inteligentna od ludzi, to przyczyni się – celowo lub przypadkiem – do likwidacji naszego gatunku. Jest ono określane liczbowo, np. 20 proc., 90 proc., ale zwykle, jeśli nie prawie zawsze, poziom oszacowania jest wzięty z kapelusza.
Radykalna asymetria: taka różnica potencjałów (zasobów) między aktorami konkurującymi na jakimś polu (gry militarnej, gospodarczej, prestiżowej etc.), która uniemożliwia słabszym aktorom rzucenie skutecznego wyzwania aktualnym hegemonom.
Rewolucja cyfrowa: zamiana zjawisk i procesów analogowych na cyfrowe.
Ryzyko: zmienność warunków działania w czasie, która rodzi możliwość wystąpienia zdarzeń niekorzystnych z perspektywy realizacji celów jakiegoś podmiotu. Przykład: opóźnienie pociągu, które powoduje niemożność podpisania kontraktu w ustalonym terminie.
Ryzyko lokalne: ryzyko, którego zaistnienie zaszkodzi tylko jakimś fragmentom danego systemu. Przykład: urwanie zewnętrznego lusterka auta nie pozbawia go zdolności jazdy.
Ryzyko systemowe: ryzyko, którego wystąpienie może zaburzyć funkcjonowanie całego systemu, aż do poziomu jego likwidacji. Przykład: pełnowymiarowa wojna jądrowa. „Racjonalna postawa w wypadku starcia z ryzykiem systemowym polega na zachowaniu maksymalnej ostrożności”.
Strukturalnie zatruta infosfera: przestrzeń komunikacji publicznej cechująca się podwyższonym poziomem dezorientacji, czego przejawami są: trudności odróżniania prawdy od fałszu; tego, co ważne od nieważnego; pilnego od niepilnego; przyjaciela od wroga. Taka infosfera powstała w wyniku upowszechnienia się mediów społecznościowych, co doprowadziło do stałego przeciążenia informacyjnego, wyparcia niosących ze sobą społeczne sensy całostek wiedzy przez ciągłe strumienie fragmentarycznych informacji, ekspansji dezinformacji i bzdur oraz wprowadzenia cyfrowych technik uzależniających, co łącznie przyniosło zbędny pośpiech i wielozadaniowość.
Sztuczna inteligencja: system maszynowy potrafiący z powodzeniem wykonywać zadania, z jakimi radzi sobie inteligencja ludzi. Przy innym ujęciu, powiemy, że AI to rozumowanie maszynowe, które na podstawie danych wejściowych, będących symbolami, tworzy dane wyjściowe takie jak treści, twierdzenia, prognozy, zalecenia lub decyzje mogące oddziaływać na środowisko cyfrowe lub realne. Ważną, może niezbędną rolę w tym pełni umiejętność odnajdywania analogii (wzorów).
Świadomość sytuacyjna: termin z wojskowości: sensowna interpretacja odbieranych danych, w celu zorientowania się, co najprawdopodobniej wydarzy się w przyszłości. Sięgnięcie tu po terminologię wojskową jest celowe, bowiem tworząc AI, niebacznie daliśmy się wepchnąć na pole słabo rozumianej przez nas walki o to, jaki będzie ludzki świat.
Techno-Entuzjazm: postawa oznaczająca daleko idące, zwykle bezrefleksyjne przyzwolenie na wprowadzenie w życie społeczne kolejnych nowych technologii jako narzędzi postępu.
Zagrożenia X (lub ryzyka X): zagrożenia egzystencjalne dla całej ludzkości. Obejmują one kompletną likwidację naszego gatunku lub też jakieś trwałe uwięzienie w domenie doznań piekielnych.
○ Co szczególnego masz do powiedzenia o AI?
○ Rozwój AI przebiega w kontekście gry o bogactwo i władzę
○ Co z naszej współpracy może wyniknąć tym razem?
○ Czy AI będzie potrafiła tylko tyle, na ile jej pozwolimy, czy raczej zachowa się jak Obcy?
○ Czy rozważając tematykę AI zmieścimy się w futerale myślenia naukowego?
○ Dlaczego w tej książce nie skupimy się na kwestii bezrobocia technologicznego?
K: Wiem, że na wiele książek masz pomysły (dużo gorzej idzie z ich realizacją...). Dlaczego wśród wielu intrygujących tematów ostatnio drążysz akurat kwestie sztucznej inteligencji? Nawet nie ukrywasz, że bardzo chcesz zrobić tę książkę.
A: Pierwsza, krótka odpowiedź wygląda tak: AI to temat jednocześnie ważny, jak i modny. Ważny, gdyż dotyczy sprawy tak podstawowej, jak kierunek rozwoju ludzkości, a nawet szans jej przetrwania. Modny, gdyż przynajmniej od czasu „odpalenia” w listopadzie 2022 przez firmę OpenAI ChataGPT na całym świecie skokowo wzrosło zainteresowanie sztuczną inteligencją.
Moim zdaniem nie ma przesady, gdy mówimy, że to, co teraz my – ludzkość – robimy z AI, a później to, co ona sama może zrobić z nami, jest nie tylko dla ludzkości istotne, ale że wręcz może przesądzić o naszym losie.
K: Przesądzić? W jakim sensie?
A: Och, w bardzo wielu wymiarach. Wchodząca w grę przyszła, ale także już trwająca, współpraca człowieka z AI może być tym czynnikiem, który wyznaczy możliwe ścieżki rozwoju ludzkiej cywilizacji. Jedne otworzy, inne zablokuje. Wśród tych ścieżek – oprócz wspaniałych, zapierających dech perspektyw rozwoju – jako prawdopodobną widzę też ścieżkę prowadzącą do trwałej degradacji człowieczeństwa. Jednak na tym ryzyka się nie kończą: najpoważniejsze jest to, co rozważa wielu badaczy i artystów (rzadziej polityków) – ryzyko kompletnego wymazania ludzkości z mapy istnienia.
Zauważ, że w dzisiejszej mediokratycznej (chciałoby się niestety rzec: idiotokratycznej) kulturze emocje milionów ludzi często są angażowane przez tematy zupełnie błahe, zaś kwestie superważne bywają rozważane tylko w małych gronach ekspertów. Chociaż często – dodam – wcale nie chodzi tu o sprawy tajne.
K: Na razie zostawmy te ścieżki. O rozbudowane scenariusze zapytam później. Zatem uważasz, że o AI warto publicznie rozmawiać, bo to temat aktualnie nurtujący zarówno wszelkiej maści ekspertów, jak i amatorów.
A: Doniosłość problematyki AI jest tak złożona, wielotorowa, że czasem, gdy o niej rozmawiam, gdy np. mam o tym wykład, jestem w kłopocie, żeby wybrać, od czego zacząć. Może teraz skupię się na jednym wymiarze: o co w istocie nam chodzi, gdy głowimy się nad AI? Uważam, że doprawdy pytamy o człowieka, o naturę ludzką, o naszą obecną kondycję, o stan naszej cywilizacji. O to, kim jesteśmy i kim chcielibyśmy być! Chwilami czuję się trochę niczym starożytni lub średniowieczni myśliciele uświadamiający sobie, jak trudno jest przeniknąć rzeczywistość.
K: Ale przecież po drodze była epoka oświecenia, wielkie odkrycia naukowe, fenomenalne sukcesy nauki i techniki, które na wielu polach pozwoliły „rozczytać” konstrukcję rzeczywistości. Liczne zasłony – np. te skrywające budowę materii czy mechanizmy ludzkiej psychiki – zostały szeroko rozsunięte.
A: Tak, ale wraz z rewolucją cyfrową nadeszło coś w rodzaju nowych „wieków ciemnych” – stworzona dzięki nauce i technice cywilizacja ludzka przestała być przejrzysta dla samej siebie. Tak jakby to zrozumienie działania świata, które zostało przyniesione przez naukę i technikę, przez ich owoc w postaci rewolucji cyfrowej zostało jakby odwrócone: zamienione w niepewność o rozmiarach wprost kosmicznych. Coraz powszechniejsze są głosy, że nie rozumiemy świata, że nie panujemy nad światem, który sami zbudowaliśmy. A ostatnie sukcesy na polu budowy AI wszystko to wprost niewiarygodnie spotęgowały. Rozwój sztucznej inteligencji przyniósł ze sobą taką ilość niewiadomych, że ludzkość stanęła może przed najpotężniejszą – najtrudniejszą do przedarcia się przez nią – zasłoną. Nigdy przyszłość nie była aż taką niewiadomą, jaką stała się w obliczu rosnących mocy AI.
Nie ma przesady, gdy mówimy, że to, co teraz my – ludzkość – robimy z AI, a później to, co ona sama może zrobić z nami, jest nie tylko dla ludzkości istotne, ale że wręcz może przesądzić o naszym losie.
K: OK. Zgadzamy się, że AI jest czymś, co do tej pory ludzkości się nie przydarzyło. Jednak dlaczego uważasz, że to właśnie ty masz do dodania coś na temat, na który wypowiadają się chyba już wszyscy. Wybitni uznani naukowcy, w tym współtwórcy obecnie najważniejszych systemów AI, tzw. wielkich modeli językowych (Large Language Models); badacze, których dorobek naukowy często jest – według uznanych w Akademii miar liczbowych (jak cytowania) nieporównywalnie większy od twojego. Zabierają głos liczni publicyści i dziennikarze. W Internecie wypowiadają się setki tysięcy, jeśli nie miliony ludzi. Oczywiście nie brak też głosów dziwacznych, logikę mających za nic.
Co takiego zatem masz do powiedzenia, aby do stale rosnącego infozgiełku, jak lubisz mówić, jeszcze dorzucać swoje trzy grosze?
A: Odpowiem ci i mam nadzieję także licznym Czytelnikom. Uważam, że pod pewnymi względami mam dość unikatowe kompetencje, by na temat AI, czy dokładniej tego, co AI robi z nami, ludźmi, rzucić nowe światło.
K: Możesz wskazać te kompetencje na tyle precyzyjnie, na ile potrafisz?
A: Wynikają one z mojej intelektualnej drogi akademickiej. Magisterium z historii; rozprawy magisterska i doktorska dotyczą zaś metodologii badań historycznych. To wpoiło mi poszanowanie do źródeł empirycznych i umiejętności ich fachowej krytyki. Ale to nie jest nic wyróżniającego, bo takie kompetencje, i to na pułapach wyższych od mojego, ma wiele osób. Zatem dalej.
Przez 12 lat – okres 1977–1989 – uczyłem historii filozofii studentów różnych kierunków niefilozoficznych – np. matematyki, ekonomii, sztuk pięknych. To było dla mnie wielkie ćwiczenie umiejętności abstrakcyjnego myślenia.
Gdy od roku akademickiego 1989/1990 „przebranżowiłem się” na socjologię, podążyłem drogą ku paradygmatowi tzw. konstruktywistycznego modelu poznania. Wydana w roku 1995 książka Przemoc i poznanie: studium z nie-klasycznej socjologii wiedzy, owoc kilku lat pracy i zagranicznych wyjazdów badawczych, była efektem przebudowy mojego sposobu interpretowania świata; nie tylko społecznego, ale też częściowo świata przyrody. Praca nad konstruktywizmem dała mi głęboki wgląd w architekturę i dynamikę rzeczywistości społecznej.
K: Poczekaj, przecież w nauce współczesnej konstruktywistów nie brakuje; nie dostrzegam tu nic unikatowego.
A: Jasne, że tak, ale pozwól, że dokończę. Unikatowość drogi intelektualno-życiowej, która – ufam – daje mi pewne przewagi w rozumieniu tego, co się ze społeczeństwami dzieje w obliczu „starcia” z AI, da się uchwycić dopiero, gdy dodam inne kluczowe etapy moich dociekań.
Praca nad Przemocą i poznaniem niejako „wbudowała” w mój umysł swoistą, bardzo eksploracyjnie pojemną „maszynkę”, heurystykę – interpretowania zjawisk społecznego świata. Od najprostszej ludzkiej interakcji – np. w sklepie, gdy kupuję odkurzacz – aż po wymiary geopolityczne, ze wszystkimi pośrednimi szczeblami ładów społecznych włącznie.
Realistyczną samoocenę jako badacza uzyskałem dzięki wyjazdom badawczym do renomowanych uczelni. Najważniejsze to: Oxford University (1988), Cambridge University (1990, 1991–1992); Macquarie University w Sydney (1993); University of Ann Arbor, Michigan (1993). Pobyty ważne nie tylko z badawczego, ale także, powiedzmy, psychoterapeutycznego punktu widzenia. Chłopak z Bydgoszczy, absolwent UAM w Poznaniu, pracownik UMK w Toruniu zobaczył, jak funkcjonują bardzo dobre uczelnie świata anglosaskiego, zobaczył co tam jest pijarem, a co rzeczywistością. Obejrzał sobie wymiary sceniczne tu i tam mając okazję zajrzenia za kulisy. A gdy mówię o kulisach, to mogę przejść do wymiaru chyba przedostatniego.
13 grudnia 1981 roku, wprowadzając w Polsce w jedną noc stan wojenny, gwałtownie zmieniono reguły gry w społeczeństwo – ze swoistej półdemokracji przeniesiono Polaków do brutalnego, zmilitaryzowanego autorytaryzmu. By zrozumieć, jak to się stało, zacząłem się interesować tajnymi służbami i ogólniej zakulisowymi wymiarami życia społecznego. Sprawne wprowadzenie stanu wojennego uświadomiło mi, że nie zrozumiemy pewnych zjawisk społecznych bez poświęcenia bliższej uwagi roli tajnych służb – zwłaszcza w systemach komunistycznych. Te służby to ukryty aktor, który, choć z trudem, ale jednak poddaje się eksploracji badawczej. Owocem zainteresowania tą problematyką były dwie książki. W uścisku tajnych służb: Upadek komunizmu i układ postnomenklaturowy (1993) oraz napisana wspólnie z prof. Marią Łoś z University of Ottawa, monografia Privatizing the Police-State: The case of Poland (2000).
K: Czuję, drodzy Czytelnicy, że zbliżamy się do punktu pt. Moje osobiste przygody z polityką…
A: Tak, niepotrzebne złośliwości... W sumie – uważam, że na temat AI mam do powiedzenia coś, co będzie wartością dodaną. Seria moich dłuższych zagranicznych wyjazdów badawczych nie miała kontynuacji, gdyż zaangażowałem się w życie publiczne. W latach 2006–2007 byłem ekspertem Komisji Weryfikacyjnej Wojskowych Służb Informacyjnych oraz Przewodniczącym Rady Programowej Centralnego Ośrodka Szkolenia Agencji Bezpieczeństwa Wewnętrznego. W roku 2007 doradcą ds. bezpieczeństwa państwa premiera Jarosława Kaczyńskiego, w latach 2008–2010 prezydenta Lecha Kaczyńskiego. Od roku 2015 pracuję dla prezydenta Andrzeja Dudy i szefów Biura Bezpieczeństwa Narodowego. Przez kilka lat byłem przedstawicielem prezydenta Dudy w Kolegium ds. służb specjalnych. Uczestniczyłem w różnych formalnych i nieformalnych grupach doradczych środowisk kierujących państwem.
K: No dobrze, ale właściwie to co ma pokazać ta wyliczanka?
A: To, że jestem badaczem społecznym o interdyscyplinarnym profilu, który dodatkowo uzyskał unikatowy wgląd w faktyczne, a nie te teoretyczno-książkowe mechanizmy władzy. Jestem nie tylko teoretykiem procesów społecznych, w tym mechanizmów władzy, ale przez lata robiłem też coś, co w socjologii nazywa się obserwacją uczestniczącą.
K: Dlaczego ten typ kompetencji miałby być tak ważny dla rozważań na temat AI?
A: Ponieważ niezbędne dla zrozumienia tego, co dzieje się teraz z AI oraz wokół AI, jest uchwycenie wzajemnych oddziaływań między społeczeństwem a AI. Do tego nie wystarczy największa nawet wiedza o tym, jak działają różne systemy AI, jakie technologie ich rozwoju są najbardziej obiecujące – słowem wiedza o budowie obecnych i wyłaniających się systemów AI. Dla uchwycenia wspomnianych oddziaływań niezbędna jest głęboka wiedza o architekturze systemów społecznych, o dynamice kultury jako bezpośredniego otoczenia człowieka. Taką wiedzę i heurystyki jej „odświeżania” uzyskałem dzięki studiom nad konstruktywizmem, nad tajnymi służbami i dzięki mojemu „flirtowi” z polityką. Zdobyłem dość niebanalny, tak sądzę, wgląd w mechanizmy władzy – te formalne i te nieformalne. Stawiam tezę, że nie zrozumiemy dobrze tego, jak AI może odmienić ludzki świat, bez posiadania kompetencji na temat faktycznych – a nie tylko tych np. głoszonych przez heroldów demokracji liberalnej – reguł funkcjonowania świata władzy.
Myślę, że nieźle rozumiem instytucjonalne i psychologiczne wymiary walki o władzę, sprawowania jej i tracenia. Mam narzędzia poznawcze i chyba pewien instynkt analityczny, który pozwala mi dojrzeć warstwy procesów przemian kultury, jakie umykają wielu innym badaczom – np. zmagania się różnych nieformalnych grup interesu.
I choć wiem, że gry o władzę korporacyjną poważnie różnią się od gry politycznej, to jednak podlegają one ogólnym, nie zawsze łatwym do artykulacji, wzorom gry w życie społeczne, w tym zabieganiu o bogactwo, wpływy i władzę. A to jest istotny kontekst, w jakim przebiega rozwój AI. Mało kto zwraca uwagę, że choć systemy AI są budowane przez superinteligentnych ludzi, często bardzo młodych, to wielu z nich ma nader ograniczone doświadczenie społeczne. Można powiedzieć, że w istocie są nie-do-socjalizowani. Słabo rozumieją to, jak działa społeczeństwo, w tym mechanizmy władzy – a zarazem budują narzędzia, które już od jakiegoś czasu wywracają do góry nogami życie społeczne. Zresztą podobnie jest, jak się zdaje, w wypadku wielu inwestorów angażujących środki w firmy budujące AI, np. przedstawicieli funduszy venture capital (kapitał inwestycyjny wysokiego ryzyka). Rewolucja cyfrowa umożliwiła uzyskanie ogromnych fortun bardzo młodym ludziom, również tym o niewielkiej wiedzy historycznej i społeczno-politycznej.
K: Przypomina to sytuację zabawy zapałkami przez małe dzieci – widzą zabawne ogniki, które same wywołują, ale nie zdają sobie sprawy z tego, jak coś zabawnego może przekształcić się w wielki, niszczycielski pożar.
A: No widzisz – tu właśnie jest pole do analizy socjologicznej. Zadanie uchwycenia tego, jak osoby utalentowane, ale często bardzo słabo zakorzenione w kulturze, tradycji, w świecie rodzicielskiej troski, ba, nawet w cywilizacyjnej tożsamości Zachodu, bez większej wiedzy o jego dziedzictwie, budują nowe generacje „zapałek”. Potężniejszych od wszystkiego, cokolwiek powstało w dziejach człowieka. To właśnie próbuję przeniknąć!
K: Zapytam teraz o coś, co w sumie dla mnie samej nie jest takie oczywiste, choć od lat pisujemy wspólne felietony do tygodnika „Sieci”. A te felietony to przecież często efekty naszych rozmów. Nawet napisaliśmy ze cztery większe artykuły wspólnie, co już było trudniejsze. Dlaczego mając do wyboru innych rozmówców – wiem, że wydawca, p. Michał Jeżewski, proponował ci pewne osoby – postanowiłeś, by w roli akuszerki zawartości twojego umysłu wystąpiła żona?
A: Wrodzona skłonność do ryzyka... Ale, poważniej, liczę na coś zaskakującego, co może wyłonić się w trakcie naszej pracy. Mamy tak odmienne sposoby postrzegania rzeczywistości, przy jednoczesnej zgodzie w wielu fundamentalnych sprawach. Sama powtarzasz, że rozwój technologiczny nie może bezkarnie tak gnać. Może nasze wspólne rozmowy uświadomią ludziom – i to jest chyba też zgodne z Twoimi rozmyślaniami – że jedna z największych strat cyfrowej fazy rozwoju technologii to zaniechanie pracy człowieka nad samym sobą, pracy podejmowanej wraz z innymi!
K: Tak, zamiast ćwiczyć charakter, masz eksperymentować z tożsamościami; przekraczać granice, nawet te biologiczne; żadnym ołtarzom się nie kłaniać – ostatnio usłyszałam tę formułkę z ust jednej dziennikarki-feministki. Ma być fajnie i łatwo – dzięki technologii oczywiście. Wiesz co, przypomina mi się pewien tekst. Esej Leszka Kołakowskiego, mamy to gdzieś na półce. Wielokrotnie go czytałeś, ba studiowałeś! Chodzi o napisany w roku 1973 artykuł Odwet sacrum w kulturze świeckiej. Zawsze, jak go czytałeś, mówiłeś „jakie to jest aktualne”. (Mała przerwa na znalezienie i przewertowanie książki Nasza wesoła apokalipsa, wyboru esejów Kołakowskiego, gdzie właśnie Odwet sacrum został zamieszczony). O, chyba o ten fragment mi chodzi:
„Być absolutnie wolnym względem sensu, względem wszelkiego nacisku tradycji, to usytuować się w próżni, a więc rozpaść się. Sens zaś pochodzi tylko z sacrum, ponieważ nie wytwarza go żadne badanie empiryczne. Utopia doskonałej autonomii człowieka i nadzieja na jego doskonalenie się nieskończone są, być może, najbardziej skutecznymi narzędziami samobójstwa, jakie kultura nasza wynalazła”.
Ładne, prawda?
A: (Kartkując esej) Zobacz, tak pokreśliłem cały ten tekst, tyle dopisków, a akurat pierwszego zdania tego fragmentu, który przed chwilą przeczytałaś, przy żadnej z dotychczasowych lektur nie zaznaczyłem. Dopiero teraz uderza mnie swoją trafnością.
K: Dla mnie najważniejsza jest myśl o tym, że sens pochodzi od sacrum. Ale na razie skupmy się na pierwszym zdaniu. „Być absolutnie wolnym względem sensu, względem wszelkiego nacisku tradycji, to usytuować się w próżni, a więc rozpaść się”. Brzmi to, jak wskazówka do scenariusza ambitniejszego filmu science fiction.
A: A moje pierwsze skojarzenie to ryba głębinowa: metafora ryby głębinowej, która może żyć tylko w głębinach. Wyciągnięta na powierzchnię jest rozrywana przez wewnętrzne ciśnienie.
K: Ryba głębinowa? One są chyba okropnie brzydkie... (Znajduję ilustrację ryby głębinowej z Wikipedii). Zobacz.
Co ma taka ryba do wywodu Leszka Kołakowskiego? A może takie jest twoje wyobrażenie człowieka?
A: Stosujesz teraz szkolną zagrywkę, udając, że nie rozumiesz, na czym polega posługiwanie się metaforami. Każda metafora czy korzystanie z analogii to pewien sposób modelowania. Modelowanie zaś oznacza po pierwsze – uproszczenie, na tym właśnie polegają korzyści z modelowania; a po drugie, skupienie się tylko na wybranych cechach całej sytuacji.
K: Dobra, darujmy Czytelnikom miniwykład o modelowaniu, wróćmy do ryby.
A: Wdzięk, by tak rzec, optyczny ryby głębinowej, nie ma tu nic do rzeczy. Chodzi o tę jej cechę, którą jest nieprzystosowanie do życia w warunkach niskich ciśnień zewnętrznych. To trwały zewnętrzny nacisk umożliwia tej rybie funkcjonowanie, czyli życie w równowadze. Bez tego zewnętrznego nacisku wewnętrzne siły rozrywają rybę. Człowiek przez wieki był zanurzony w religie, mitologie, magię, obyczaje, przesądy (choć w innych proporcjach niż ongiś, istnieją do dziś) czy szerzej kulturę. Z nich czerpał interpretacje i wskazówki zachowań. Nauka, jako zinstytucjonalizowana forma dociekań – liczne obszary kultury atakująca – wyłoniła się dość późno. Dziś nauka legitymizująca niemal nieograniczony rozwój technologiczny paradoksalnie przybliża nas do dekompresji kultury i tym samym destrukcji człowieka.
K: Odłóżmy na razie metafory i modelowania. Wróćmy do samej AI. Czego najbardziej należy się obawiać?
A: Słowa Kołakowskiego wskazują na kondycję całej niemal naszej (ludzkiej) kultury (cywilizacji). Oto AI pojawia się w okresie, gdy kultura ta – a przypominam, że tekst powstał ponad pół wieku temu – znajduje się na ścieżce samobójczej. W dodatku – ten wątek będę chciał w którymś z rozdziałów rozwinąć – AI pojawia się na naszej planecie niczym jakiś Obcy z filmów SF.
K: Nie przesadzasz? AI jest naszym tworem, dla niektórych wręcz „dzieckiem” postępu i jego dalszą dźwignią.
A: Widzę tu zero przesady. O tym, że ChatGPT wykazuje cechy emergentne, tzn. takie, które nie zostały mu przez inżynierów-projektantów przypisane, wiadomo już chyba od ponad roku. Przykładowo we wrześniu 2023 roku prof. Melanie Mitchell pisze: „Chociaż duże modele językowe (LLM) nie są wprost szkolone, by rozumować, wykazują one «emergentne» zachowania, które czasami wyglądają jak rozumowanie”.
Okazało się, że system ten wyewoluował w sposób zaskakujący dla jego twórców, a w dodatku pod pewnymi względami działa czarnoskrzynkowo. Znaczy to, że pewne zadania, które generacyjna AI wykonuje poprawnie, realizuje w sposób, który jest dla jego twórców niezrozumiały. Czyli stworzyliśmy coś, co już obecnie – przecież w raczkującej fazie rozwoju AI – niesie ze sobą niemało niespodzianek, wykazuje pewne cechy obcości.
K: No to mamy kolejną po rybie głębinowej metaforę, znacznie potężniejszą – Obcego. Istoty, która do nas przybywa, ujawnia się, ale odsłania tylko niektóre swoje możliwości, w dodatku nie znamy jej intencji; nie wiemy, czy jest bytem, który w ogóle ma jakieś intencje.
A: W wypadku Obcego wyobraźnia podsuwa tak wiele obaw, że nie wiem, którą omówić na początku. Zresztą – uwaga, tu dygresja – może nie ma początku; może pojęcie „początku” jest dane tylko Bogu, a człowiek jako istota, która nie jest stwórcą samego siebie, zawsze jest już gdzieś w środku! Zatem mówię od środka. Zawsze, nieuchronnie rozmawiamy ze środka pewnej opowieści, którą jest kultura.
Jednak niepokojem powinno napawać nas wszystkich uświadomienie sobie innej sytuacji. AI-Obcy nie jest „zapraszana” na łono cywilizacji pewnej siebie, będącej w świetnej kondycji. Przeciwnie: z AI, czyli Obcym, „wita się” cywilizacja w stanie chorobowym, ze zdezintegrowaną kulturą, głęboko spolaryzowana, ze zdestabilizowaną równowagą geostrategiczną, pękającą globalizacją, z potężnym deficytem sensu. AI przychodzi do cywilizacji, której „naturalne” działające przez wieki mechanizmy immunologiczne zostały osłabione czy wręcz przetrzebione – i to od wewnątrz, przez media społecznościowe jako główny mechanizm napędowy ostatniej fazy rewolucji cyfrowej. A jeśli ten Obcy zachowa się wobec nas jak pasożyt, który w pewnym momencie będzie wiedział więcej niż my sami o sobie?
K: Chcesz powiedzieć, że w obliczu AI stajemy bezbronni?
A: Dziś? Jeszcze nie całkiem. Nie jesteśmy jednak w stanie przewidzieć, jakiego formatu strategiem okaże się AI-Obcy. Już teraz uściślę, że gdy mówię o strategii, to przyjmuję to jej rozumienie, które zakłada, że „istotą strategii jest świadomość istnienia jakiegoś rywala, przeciwnika, wroga, który jest inteligentny i aktywnie reaguje na nasze działania”.
Zapowiadałaś, że dopiero później chcesz porozmawiać, czy w obliczu narastających ryzyk już osiągnęliśmy punkt krytyczny, więc teraz zasygnalizuję inne obawy związane z AI – moim zdaniem racjonalne.
Jedna z poważniejszych obaw mówi, że im większy sukces systemów AI, tym dalej idące unieważnienie niemal całego dotychczasowego dorobku ludzkości. Wszystkich naszych doświadczeń, całej wiedzy – i potocznej, i artystycznej, wreszcie naukowej.
K: Jak to miałoby się stać? A swoją drogą, gdy pomyślę o tym, jak niektóre aktualizacje różnych sprzętów elektronicznych, zwłaszcza smartfonów i komputerów, czynią je mniej przyjaznymi, wprowadzają nowe i niepotrzebne funkcje, komplikując tym samym użytkownikowi życie, to co będzie, jak życie zacznie nam optymalizować AI...
A: AI tak gruntownie może zmienić reguły gry w społeczeństwo, że wyprowadzi nas poza to, co dziś mieści się w przestrzeni możliwych ładów społecznych. Wtedy to, co obecnie wiemy, co w ogromnej mierze bazuje na depozycie wiedzy, jaką przekazali nam przodkowie, kompletnie utraci wartość. Na przykład teorie socjologiczne i ekonomiczne zostaną raz dwa przeterminowane, utracą wszelką przydatność „do spożycia”. Że – co więcej – nie będzie na nie miejsca nawet w muzeum. Wszelkie dotychczasowe wartości, lęki, nadzieje, uciechy… pójdą na wysypisko, gdy zmieni się ontologia, czyli głębokie zasady konstrukcyjne bytu społecznego.
Nick Bostrom, autor wydanej w roku 2014 książki Superinteligencja. Scenariusze, strategie, zagrożenia, formułuje taką radę:
„Sugeruję (…), że część najwybitniejszych umysłów mogłaby – zdawszy sobie sprawę z tego, że ich osiągnięcia poznawcze mogą się okazać przestarzałe w dającej się przewidzieć przyszłości – zechcieć skierować swoją uwagę na te problemy teoretyczne, w przypadku których rzeczywiście ma istotne znaczenie, czy rozwiązanie otrzymamy odrobinę wcześniej”.
K: Czy to sugestia realistyczna? Jak rozumiem, mówi ona, że badacze mają porzucić to, co ich dziś pasjonuje, i zająć się tym, co jest społecznie priorytetowe.
A: Bostrom jak mało kto jest świadom tego, że gdy AI „ruszy w górę”, gra w ludzkość zostanie dokumentnie odmieniona, że istnienie ludzkie, czy postludzkie, będzie przebiegało według reguł, które trudno przewidzieć lub może nawet nie sposób sobie wykoncypować. Jednak zarazem chyba przecenia idealizm poznawczy wielu badaczy – bo „słodycz odkrycia” możliwego do osiągnięcia już niebawem i uznanie otoczenia naukowców (pomińmy już szerszą sławę) okazuje się silniejsza niż dość abstrakcyjna troska o przyszłość ludzkości.
Na przykład w 2015 roku Geoffrey Hinton, dziś uważany za jednego z ojców chrzestnych generatywnej AI, twierdzi, że systemy polityczne sięgną po sztuczną inteligencję, by terroryzować ludzi. Bostrom go spytał: „Więc dlaczego prowadzisz badania?”. Autor artykułu „New Yorkera”, za którym to relacjonuję,reakcję Hintona opisuje i komentuje tak:
„«Mógłbym przedstawić zwykłe argumenty – powiedział Hinton. – Ale prawda jest taka, że perspektywa odkrycia jest zbyt słodka». Uśmiechnął się niezręcznie, a słowo to zawisło w powietrzu – echo Oppenheimera, który powiedział słynne zdanie o bombie: «Kiedy widzisz coś, co jest technicznie słodkie, śmiało to robisz i kłócisz się, co z tym zrobić, tylko po tym, jak odniesiesz sukces techniczny»” (kursywa w oryginale).
Widzę tu przewagę bieżącej ekscytacji nad roztropnym planowaniem. Będę chciał ten wątek zaprzeczenia ideału rozumności, często kojarzonego z epoką oświecenia, pogłębić w rozdziale o Techno-Entuzjazmie.
K: Teraz zatrzymam cię pytaniem: co to znaczy, że gra w ludzkość zostanie dokumentnie odmieniona? Nawet przy tak szerokiej dewastacji archetypów kulturowych, jaką mamy dziś – pomijam już obsesyjną laicyzację – nawet najbardziej „odjechane” scenariusze życia społecznego jednak jakoś bazują na potrzebie bliskości, potrzebie bycia kochanym etc. Jak rozmawiać o zagrożeniach AI z pozycji mniej subiektywnych odczuć niż te bazujące na przywiązaniu do pewnych „odwiecznych” wartości? Czy to będzie refleksja naukowa?
A: Za duża tu chyba gęstwina problemów, by je wszystkie teraz podjąć. Od bardzo dawna filozofowie nauki mówili, że jej częścią są także niesprawdzalne założenia. Nie tak dawno David Deutsch, profesor fizyki na Uniwersytecie w Oxfordzie, uznał za stosowne przypomnieć, że treść teorii naukowej nie „składa się wyłącznie z dających się przetestować przewidywań. Testowalne przewidywania typowej teorii naukowej to tylko niewielki skrawek tego, co mówi nam ona o świecie”.
K: Co tego wynika?
A: Moim zdaniem np. to: żyjemy w rzeczywistości nieostatecznej; nazwijmy ją maską.
K: Po co tak komplikujesz. Chrześcijaństwo uczy, że życie doczesne to tylko faza przejściowa. Ostatecznym celem jest zbawienie.
A: Bardzo proszę, nie przerywaj, próbuję skonstruować pewien wywód. Głęboka penetracja świadomości, jaźni, „ja”, np. w stylu analiz filozofa Thomasa Metzingera, wprowadza nas w rzeczywistość inną, bardziej wyglądającą jak zbliżona do tej „ostatecznej”. Metzinger dopuszcza, a może nawet zakłada, że AI w swoich dociekaniach może poprowadzić nie tylko siebie, ale także nas poza rzeczywistość maski. Nie sądzę, żeby Metzinger był gotów uznać, że to, co on sam i bliscy mu badacze już powiedzieli na temat świadomości, jest czysto subiektywne.
Jednak maska, ta rzeczywistość, której na co dzień doznajemy – jeśli chrześcijanie mają rację – jest darem otrzymanym od Boga. Pójście drogą AI może zatem oznaczać odrzucenie tego daru. Gdyby tak się stało, to, jak sądzisz, co by to oznaczało?
K: Tak pojmowaną drogą ku… właśnie AI(?) poszli już Adam i Ewa. Zostali za to wygnani z raju. Koło ludzkiej historii się domyka? Zobacz, gdzie myśmy zaszli już w pierwszej rozmowie...
A: Niejako w kontrapunkcie wobec sięgnięcia przez ciebie po motywy biblijne (a jestem pewien, że na powyższym motywie się nie skończy) chciałbym coś zaznaczyć. Mianowicie to, że chociaż AI – czy dokładniej jej relacje z ludzkością – jest tematem, przy którym nie można uniknąć spekulacji, to moim zdaniem warto za każdym razem, gdy to tylko możliwe, maksymalnie precyzyjnie odróżniać sytuacje, kiedy przytaczamy fakty, od sytuacji, kiedy rysujemy przypuszczenia.
K: Czy już teraz, na tym etapie naszej rozmowy, mógłbyś/chciałbyś zapowiedzieć, co będzie najważniejszą albo jedną z tych najważniejszych tez, jakie chciałbyś wyrazić (i – mam nadzieję – też uzasadnić) w dalszej części tej książki? A może chociaż to, co w ostatnim czasie jest najważniejszym kierunkiem twoich dociekań?
A: Główny kierunek wyznacza ocena, że przy wszelkich analizach AI bezwzględnym priorytetem musi być problematyka bezpieczeństwa. Jak nie zabezpieczymy trwania ludzkości w jakiejś cywilizowanej formie, to o czym tu w ogóle rozmawiać? Wydaje mi się to tak oczywiste, że nie mogę wyjść z „podziwu” jak wiele osób, skądinąd niegłupich, tego priorytetu nie dostrzega.
Główną tezę w tej fazie naszej rozmowy wyrażę tak: na obecnym etapie ludzkiej cywilizacji oraz w obecnej fazie rozwoju technologii AI (zapisujemy te słowa w marcu 2024) ryzyka związane z rozwojem sztucznej inteligencji wielokrotnie przekraczają korzyści, jakie ta technologia obecnie przynosi i w najbliższym czasie jest w stanie przynieść. Pozwól jednak, że uzasadnienie tej tezy – co wymaga „uruchomienia” szerszej wiedzy kontekstowej – przeniesiemy do jednego z późniejszych rozdziałów naszej książki.
K: Wyobraziłam sobie taką ciekawską rybę głębinową – czyli społeczeństwo – która wbrew instynktowi płynie w górę. Coraz bardziej traci swoje kształty, zwartość i sterowność ze względu na spadek ciśnienia (kultura przestaje być źródłem oporu, rozluźniając wszelkie reguły), a na dodatek napotyka intrygujący holownik, który wabi ją możliwością szybszego przemieszczania... Czy już masz wybrany, przemyślany wątek relacji AI ze światem społecznym, na którym chcesz się szczególnie skupić?
A: Z tego, co przed chwilą powiedziałem wynika, że za absolutnie esencjalny uznaję wymiar bezpieczeństwa egzystencjalnego, czyli ryzyk, jakie rozwój AI przynosi dla samego istnienia ludzkości. Jest wiele innych niezwykle fascynujących problemów – z kwestią uzyskania przez AI świadomości na czele – jednak w mojej perspektywie wszystkie one bledną w kontekście zagrożeń dla dalszego trwania naszego gatunku.
Jestem badaczem społecznym o interdyscyplinarnym profilu, który uzyskał unikatowy wgląd w faktyczne, a nie te teoretyczno-książkowe mechanizmy władzy. Jestem nie tylko teoretykiem procesów społecznych, ale przez lata robiłem coś, co w socjologii nazywa się obserwacją uczestniczącą.
K: Jesteś badaczem społecznym, o informatyce wiesz coś z trzeciej ręki, na uczeniu maszynowym, które stanowi podstawę obecnych sukcesów AI, nie znasz się zupełnie.
A: Dlatego nie będę się wypowiadał o bardzo wielu ważnych sprawach, frapujących dla fachowców-inżynierów. Na przykład o tym, jaka technologiczna strategia rozwoju AI jest najbardziej obiecująca – czy dalsze rozbudowywanie LLM-ów (wielkich modeli językowych) czy zupełnie innych.
Nie chciałbym też poświęcać szczególnej uwagi takim sprawom, jak wpływ dostępności do czatów dla uczniów i studentów oraz jak wyglądają perspektywy bezrobocia technologicznego. Te kwestie od dłuższego czasu są już szeroko dyskutowane, przykładowo w takich środowiskach, jak graficy, kompozytorzy czy inni twórcy, którzy chyba nie mają w zanadrzu żadnych specjalnych kompetencji, których AI nie opanowałaby już obecnie.
K: Czyli chciałbyś, żebyśmy eksplorowali wątki, które uznajesz za ważne, ale którym poświęcono jeszcze za mało uwagi.
A: Właśnie tak!
K: Gdy rozważaliśmy możliwy tytuł naszej książki, jeden z pomysłów brzmiał: AI jako pretekst. Jeśli nadal tak uważasz, to jednak nie mówisz, że to tylko pretekst, więc o co w istocie chodzi?
A: O władzę, o pieniądze, o wpływy, o ekscytację, o sławę, o ocalenie ludzkiego wymiaru świata, wreszcie o Zbawienie. Niekoniecznie w takiej kolejności.
K: To ostatnie najbardziej mnie interesuje; ciekawe, jak to rozwiniesz.
Słowniczek
○ „temat tego otoczenia”: P. Wang, On Defining Artificial Intelligence; https://sciendo.com/article/10.2478/jagi-2019-0002; odczyt 15.08.24, s. 17.
○ „wyłącznie gry w szachy”:https://wszystkoconajwazniejsze.pl/prof-jacek-koronacki-glosa/; odczyt 20.05.25.
○ „funkcji i struktury”: Por. G.M. Malinowski, Ekonomia niepewności, czyli jak nie być frajerem?, CeDeWu, Warszawa 2023, s. 252.
○ „likwidacji naszego gatunku”: Zob. https://pauseai.info/pdoom; odczyt 19.07.24.
○ „zachowaniu maksymalnej ostrożności”: G.M. Malinowski, Ekonomia niepewności, czyli jak nie być frajerem?, CeDeWu, Warszawa 2023, s. 125.
○ „cyfrowe lub realne”: Ta definicja nawiązuje do ujęcia zawartego na stronie: https://oecd.ai/en/wonk/definition; odczyt: 17.03.24.
○ „odnajdywania analogii (wzorów)”: Zob. https://www.britannica.com/technology/artificial-intelligence; https://oecd.ai/en/wonk/definition; odczyt 15.05.24.
Rozdział 1. Rozgrzewka intelektualna
○ „nie-klasycznej socjologii wiedzy”: UMK, Toruń.
○ „(1993)”: Antyk, Komorów.
○ „(2000)”: London: Macmillan oraz St. Martin’s Press: New York (później przekształcone w Palgrave).
○ „Nasza wesoła apokalipsa”: Wydawnictwo Znak, Kraków 2010.
○ „kultura nasza wynalazła”: Tamże, s. 228.
○ ilustracja:https://upload.wikimedia.org/wikipedia/commons/1/1b/Humpback_anglerfish.png; odczyt: 17.03.24.
○ „wyglądają jak rozumowanie”:https://aiguide.substack.com/p/can-large-language-models-reason; odczyt: 23.03.24.
○ „sami o sobie”: Tę ostatnią myśl Andrzej zaczerpnął od Thomasa Metzingera, zob. S. Harris, Nadając sens: Rozmowy o świadomości, moralności i przyszłości, Filia, Poznań 2023, s. 233.
○ „na nasze działania”: Malinowski 2023: s. 108.
○ „Superinteligencja. Scenariusze, strategie, zagrożenia”: Wydanie polskie: Helion SA, Gliwice 2021.
○ „otrzymamy odrobinę wcześniej”: Tamże, s. 453.
○ „odniesiesz sukces techniczny”: R. Khatchadourian, The doomsday invention: Will artificial intelligence bring us utopia or destruction?, „New Yorker”, 23.11.2015, https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom; odczyt: 05.05.24.
○ „ona o świecie”: Za: Sam Harris, Nadając sens: Rozmowy o świadomości, moralności i przyszłości, Filia, Poznań 2023, s. 52.