Zdrowy umysł w sieci algorytmów - Gerd Gigerenzer - ebook + książka

Zdrowy umysł w sieci algorytmów ebook

Gigerenzer Gerd

4,2

Ebook dostępny jest w abonamencie za dodatkową opłatą ze względów licencyjnych. Uzyskujesz dostęp do książki wyłącznie na czas opłacania subskrypcji.

Zbieraj punkty w Klubie Mola Książkowego i kupuj ebooki, audiobooki oraz książki papierowe do 50% taniej.

Dowiedz się więcej.
Opis

Wyobraźmy sobie, że pewna kawiarnia pozbyła się całej konkurencji przez to, że oferuje darmową kawę, więc nie mamy innego wyboru niż umawiać się właśnie tam. Podczas gdy rozkoszujemy się miłymi rozmowami z przyjaciółmi, zamontowane w stołach podsłuchy i kamery dokładnie monitorują nasze konwersacje i rejestrują, z kim siedzimy. W pomieszczeniu jest także pełno sprzedawców, którzy płacą za naszą kawę, ale nieustannie nam przerywają, proponując zakup swoich produktów i usług. W istocie klientami kawiarni są ci sprzedawcy, a nie Ty i Twoi przyjaciele. Na takiej zasadzie funkcjonują media społecznościowe.

Czy powinniśmy beztrosko oddać programom komputerowym prawo podejmowania za nas osobistych decyzji? Zdecydowanie nie. Inteligencja nie oznacza pokładania ślepej ufności w technologii, ale nie oznacza także przejawiania względem niej chorobliwej nieufności. Chodzi o to, by zdawać sobie sprawę z rzeczywistych możliwości AI i wiedzieć, co jest tylko chwytem marketingowym i artykułem techno-religijnej wiary. Chodzi także o zdolność zachowania kontroli nad urządzeniami.

A przede wszystkim o to, żeby nie przestać myśleć w świecie, który próbuje myśleć za nas.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)

Liczba stron: 477

Oceny
4,2 (18 ocen)
9
5
3
0
1
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.
Sortuj według:
CybirbV

Nie oderwiesz się od lektury

Media nieustannie zalewają nas treściami dotyczącymi sztucznej inteligencji i algorytmów, w których albo bezrefleksyjnie wychwala się nowoczesne rozwiązania technologiczne („już zaraz jezdnie zapełnią się w pełni autonomicznymi pojazdami” czy „programy oparte na SI wkrótce wyleczą ludzi z raka bez udziału lekarzy”), albo straszy się tym, jakie ogromne niosą ze sobą ryzyko („miliony ludzi stracą niebawem pracę”, „SI w każdej chwili może wymknąć się spod kontroli i zniszczyć ludzkość”). Brakuje w tym dyskursie wyważonego spojrzenia, mocno osadzonego w faktach. I to właśnie spojrzenie oferuje Gerd Gigerenzer w swojej książce. Autor wyjaśnia, dlaczego nasze obawy często są ulokowane w niewłaściwym miejscu. Tłumaczy też, że chociaż algorytmy są potężnym narzędziem, nie zawsze można je zastosować w każdym miejscu i czasie. „Zdrowy umysł” to rzetelna publikacja, którą powinien przeczytać każdy użytkownik internetu i nowoczesnych urządzeń, bo pozbawiona jest napuszonych haseł, nieuzasadnione...
30
monach

Nie oderwiesz się od lektury

Warto przeczytać. W dzisiejszych czasach lektura obowiązkowa. Łatwa w odbiorze. Wyjaśnia i naświetla wiele kwestii.
00
RadekZ1984

Nie oderwiesz się od lektury

Świetna książka pokazująca czym właściwie jest AI, jakie błędy popełnia, czym nie jest i dlaczego nasze umysły będą jeszcze miały coś do powiedzenia.
00
Jotka_Legimi

Nie oderwiesz się od lektury

Warto przeczytać, żeby podnieść własną świadomość cyfrową. Prezentuje rozsądne podejście.
00

Popularność




© Co­py­ri­ght by Co­per­ni­cus Cen­ter Press

© 2022 Gerd Gi­ge­ren­zer

All ri­ghts re­se­rved.

Ty­tuł ory­gi­nału

How to Stay Smart in a Smart World. Why Hu­man In­tel­li­gence Still Be­ats Al­go­ri­thms

Re­dak­cja

Ka­mila Byr­tek

Pro­jekt okładki i stron ty­tu­ło­wych

Ka­vStu­dio

Skład i kon­wer­sja do ebo­oka

mo­ni­ka­imar­cin.com

ISBN: 978-83-7886-708-1

Wy­da­nie I

Kra­ków 2023

Wy­dawca: Co­per­ni­cus Cen­ter Press Sp. z o.o.

pl. Szcze­pań­ski 8, 31-011 Kra­ków

tel. (+48) 12 448 14 12, 500 839 467

e-mail: re­dak­[email protected]

www.ccpress.pl

Dla Atheny

Wprowadzenie

Tato, a gdy by­łeś mały i nie było kom­pu­te­rów, to jak wcho­dzi­łeś do in­ter­netu?

– Sied­mio­let­nie dziecko z Bo­stonu

Je­śli wszystko będą ro­bić ro­boty, co my bę­dziemy ro­bić?

– Pię­cio­letni przed­szko­lak z Pe­kinu,

cy­tat za: Kai-Fu Lee, AI Su­per­o­wers

Wy­obraźmy so­bie, że cy­frowy asy­stent robi wszystko le­piej niż my. Co­kol­wiek po­wiemy, on po­wie le­piej. Co­kol­wiek po­sta­no­wimy, on nas po­prawi. Gdy spo­rzą­dzimy plan na ko­lejny rok, on poda do­sko­nal­szy. W pew­nej chwili być może w ogóle zre­zy­gnu­jemy z po­dej­mo­wa­nia sa­mo­dziel­nych de­cy­zji. Od­tąd sztuczna in­te­li­gen­cja bez­błęd­nie po­pro­wa­dzi na­sze fi­nanse, zre­da­guje za nas wia­do­mo­ści, wy­bie­rze nam part­nera ro­man­tycz­nego i za­pla­nuje, kiedy po­winny uro­dzić się na­sze dzieci. Będą do nas przy­cho­dzić prze­syłki z pro­duk­tami, o któ­rych na­wet nie wie­dzie­li­śmy, że są nam po­trzebne. Być może złoży nam wi­zytę pra­cow­nik so­cjalny, po­nie­waż cy­frowy asy­stent uznał, że na­sze dziecko ma po­czątki de­pre­sji. Po­nadto, za­nim jesz­cze za­czniemy ła­mać so­bie głowę nad tym, któ­rego kan­dy­data po­przeć w wy­bo­rach, asy­stent bę­dzie już znał od­po­wiedź i w na­szym imie­niu za­gło­suje. Jest tylko kwe­stią czasu, gdy firmy in­for­ma­tyczne przejmą kon­trolę nad na­szym ży­ciem, a nasz wierny asy­stent prze­obrazi się w au­to­ry­tarną su­per­in­te­li­gen­cję. Ni­czym stado owiec na­sze wnuki w uf­no­ści lub stra­chu będą cze­kać na roz­strzy­gnię­cia swego no­wego pana.

W ostat­nich la­tach mia­łem spo­tka­nia na wielu po­pu­lar­nych wy­da­rze­niach zwią­za­nych ze sztuczną in­te­li­gen­cją (AI) i wie­lo­krot­nie się prze­ko­ny­wa­łem, jak roz­po­wszech­niona jest bez­wa­run­kowa wiara w po­tęgę al­go­ryt­mów. Nie­za­leż­nie od dzie­dziny, przed­sta­wi­ciele firm in­for­ma­tycz­nych za­pew­niali słu­cha­czy, że ma­szyny będą wy­ko­ny­wać za­da­nia w spo­sób do­kład­niej­szy, szyb­szy i tań­szy. Co wię­cej, ich zda­niem za­stą­pie­nie lu­dzi przez opro­gra­mo­wa­nie przy­nie­sie po­zy­tywne skutki. W po­dob­nym du­chu for­mu­ło­wane są sądy, że Go­ogle zna swo­ich użyt­kow­ni­ków le­piej niż oni sami i że AI może lub w nie­od­le­głej przy­szło­ści bę­dzie mo­gła prze­wi­dy­wać za­cho­wa­nia lu­dzi z nie­mal prze­ra­ża­jącą do­kład­no­ścią. Same firmy in­for­ma­tyczne chwalą się tą zdol­no­ścią, gdy pro­po­nują swoje usługi re­kla­mo­daw­com, ubez­pie­czy­cie­lom i han­dlow­com. Mamy skłon­ność wie­rzyć w te za­pew­nie­nia. Taką nie­mal wszech­wie­dzę sztucz­nej in­te­li­gen­cji za­kła­dają na­wet pi­sa­rze, któ­rzy snują ka­ta­stro­ficzne wi­zje zdo­mi­no­wa­nia ludz­ko­ści przez ro­boty, a także nie­któ­rzy zde­cy­do­wani kry­tycy prze­my­słu in­for­ma­tycz­nego, po­tę­pia­jący go jako zło­wrogi ka­pi­ta­lizm nad­zoru i kon­troli i drżący o przy­szłość na­szej wol­no­ści i god­no­ści[1]. Z tego wła­śnie po­wodu wielu oba­wia się Fa­ce­bo­oka (obec­nie prze­mia­no­wa­nego na Metę) jako prze­ra­ża­ją­cej or­wel­low­skiej ma­szyny nad­zoru i kon­troli. Przy­padki wy­cieku da­nych i skan­dal zwią­zany z Cam­bridge Ana­ly­tica do­pro­wa­dziły do spo­tę­go­wa­nia tej obawy. Oparte na stra­chu czy uprze­dze­niu ro­zu­mo­wa­nie po­zo­staje nie­zmienne i prze­biega mniej wię­cej tak:

AI już po­ko­nała naj­lep­szych ludz­kich sza­chi­stów i gra­czy w Go.

Moc ob­li­cze­niowa kom­pu­te­rów po­dwaja się co parę lat.

A za­tem nie­długo ma­szyny wszystko będą ro­bić le­piej niż lu­dzie.

Na­zwijmy to ar­gu­men­tem o wyż­szo­ści AI nad ludzką in­te­li­gen­cją. Prze­wi­duje on, że su­per­in­te­li­gen­cja ma­szy­nowa zbliża się wiel­kimi kro­kami. Jego dwie prze­słanki są po­prawne, lecz wnio­sek – nie­upraw­niony.

W rze­czy­wi­sto­ści więk­sza moc ob­li­cze­niowa wy­star­cza do roz­wią­za­nia pew­nych pro­ble­mów, ale nie wszyst­kich. Jak do­tąd zdu­mie­wa­jące zwy­cię­stwa sztucz­nej in­te­li­gen­cji do­ty­czyły do­brze zde­fi­nio­wa­nych gier o usta­lo­nych re­gu­łach, ta­kich jak sza­chy czy Go. Po­dobne suk­cesy za­no­to­wała ona w roz­po­zna­wa­niu twa­rzy czy głosu, je­żeli wa­runki były względ­nie nie­zmienne. W sta­bil­nym oto­cze­niu AI prze­ściga czło­wieka. Kiedy przy­szłość nie­wiele się różni od prze­szło­ści, wiel­kie ilo­ści da­nych mogą być uży­teczne. Je­śli jed­nak zda­rzają się nie­spo­dzianki, zna­jo­mość na­wet ogrom­nej liczby da­nych – które za­wsze po­cho­dzą z prze­szło­ści – może nie być po­mocna w prze­wi­dy­wa­niu przy­szło­ści. Al­go­rytmy oparte na da­nych nie ostrze­gły nas przed kry­zy­sem fi­nan­so­wym z roku 2008 i za­po­wia­dały ła­twe zwy­cię­stwo Hil­lary Clin­ton w wy­bo­rach na pre­zy­denta USA w roku 2016.

W isto­cie wiele pro­ble­mów, z któ­rymi mamy do czy­nie­nia, nie ma cha­rak­teru do­brze zde­fi­nio­wa­nych gier, ale do­ty­czy sy­tu­acji na­ce­cho­wa­nych nie­pew­no­ścią, na przy­kład zna­le­zie­nia praw­dzi­wej mi­ło­ści, prze­wi­dze­nia, kto po­pełni prze­stęp­stwo, lub wła­ści­wego za­re­ago­wa­nia na na­głe, nie­ocze­ki­wane zda­rze­nia. W ta­kich przy­pad­kach więk­sza moc ob­li­cze­niowa i więk­sza ilość da­nych nie­wiele zmie­niają. Głów­nym źró­dłem nie­pew­no­ści są lu­dzie. Wy­obraźmy so­bie, jak skom­pli­ko­wa­łyby się sza­chy, gdyby król mógł dla ka­prysu po­gwał­cić za­sady, w re­ak­cji na co obu­rzona kró­lowa opu­ści­łaby sza­chow­nicę, pu­ściw­szy wcze­śniej z dy­mem wieże. Tam, gdzie wy­stę­pują lu­dzie, wiara w al­go­rytmy może pro­wa­dzić do złu­dze­nia pew­no­ści, które nie­chyb­nie pro­wa­dzi do nie­szczę­ścia.

Zro­zu­mie­nie, że zło­żone al­go­rytmy zwy­kle od­no­szą suk­ces w sta­bil­nych sy­tu­acjach, ale nie ra­dzą so­bie do­brze z nie­pew­no­ścią, sta­nowi eg­zem­pli­fi­ka­cję ogól­nego te­matu tej książki:

In­te­li­gen­cja ozna­cza zdol­ność ro­zu­mie­nia po­ten­cjału i nie­bez­pie­czeństw tech­no­lo­gii cy­fro­wych oraz de­ter­mi­na­cję utrzy­ma­nia kon­troli w świe­cie wszę­do­byl­skich al­go­ryt­mów.

Książkę tę na­pi­sa­łem, by po­móc czy­tel­ni­kowi zro­zu­mieć moż­li­wo­ści tech­no­lo­gii cy­fro­wych ta­kich jak AI, a także – co na­wet waż­niej­sze – ich ogra­ni­cze­nia i nie­bez­pie­czeń­stwa. W cza­sie, gdy tech­no­lo­gie te stają się co­raz bar­dziej roz­po­wszech­nione i do­mi­nu­jące, chciał­bym wy­po­sa­żyć czy­tel­nika w stra­te­gie i me­tody za­cho­wa­nia kon­troli nad swoim ży­ciem tak, by nie zo­stał on roz­je­chany przez wa­lec zmian. Czy po­win­ni­śmy bez­tro­sko od­dać pro­gra­mom kom­pu­te­ro­wym prawo po­dej­mo­wa­nia za nas oso­bi­stych de­cy­zji? Zde­cy­do­wa­nie nie. In­te­li­gen­cja nie ozna­cza po­kła­da­nia śle­pej uf­no­ści w tech­no­lo­gii, ale nie ozna­cza także prze­ja­wia­nia wzglę­dem niej cho­ro­bli­wej nie­uf­no­ści. Cho­dzi o to, by zda­wać so­bie sprawę z rze­czy­wi­stych moż­li­wo­ści AI i wie­dzieć, co jest tylko chwy­tem mar­ke­tin­go­wym i ar­ty­ku­łem techno-re­li­gij­nej wiary. Cho­dzi także o to, żeby opa­no­wać zdol­ność kon­tro­lo­wa­nia urzą­dze­nia, a nie być przez nie kon­tro­lo­wa­nym.

In­te­li­gen­cja, o któ­rej mowa, nie jest tym sa­mym, co po­sia­da­nie kom­pe­ten­cji cy­fro­wych po­zwa­la­ją­cych wy­ko­rzy­sty­wać tech­no­lo­gię. Pro­gramy kształ­ce­nia na ca­łym świe­cie dążą do pod­nie­sie­nia kom­pe­ten­cji cy­fro­wych po­przez ku­po­wa­nie ta­ble­tów i ta­blic in­te­rak­tyw­nych do sal lek­cyj­nych i przy­ucza­nie dzieci do ich wy­ko­rzy­sty­wa­nia. Pro­gramy te jed­nak rzadko uczą dzieci ro­zu­mieć za­gro­że­nia zwią­zane z tech­no­lo­giami cy­fro­wymi. Nic więc dziw­nego, że więk­szość osób, które od dziecka obyte są z tech­no­lo­giami cy­fro­wymi, nie umie od­róż­nić ukry­tej re­klamy od wia­do­mo­ści i daje się zmy­lić przez wy­gląd strony in­ter­ne­to­wej. Na przy­kład ba­da­nie, w któ­rym wzięło udział 3466 ta­kich „cy­fro­wych tu­byl­ców”, wy­ka­zało, że 96 pro­cent z nich nie wie, jak spraw­dzić wia­ry­god­ność strony in­ter­ne­to­wej lub po­stów[2].

In­te­li­gentny świat nie po­lega po pro­stu na wsta­wie­niu do po­koju in­te­li­gent­nego te­le­wi­zora (smart TV), uma­wia­niu się na randki on­line i tego ro­dzaju ga­dże­tach. Jest to świat prze­obra­żony przez tech­no­lo­gię cy­frową. Gdy uchy­liły się drzwi do in­te­li­gent­nego świata, wielu za­częło so­bie wy­obra­żać, że oto wkro­czymy do raju, gdzie wszy­scy będą mieli do­stęp do drzewa praw­dzi­wych wia­do­mo­ści, które osta­tecz­nie po­łoży kres ciem­no­cie, kłam­stwom i ze­psu­ciu. Zo­staną ujaw­nione fakty o zmia­nie kli­matu, ter­ro­ry­zmie, uchy­la­niu się od pła­ce­nia po­dat­ków, wy­zy­ski­wa­niu bied­nych i gwał­ce­niu god­no­ści ludz­kiej. Zo­staną wy­kryci i zmu­szeni do dy­mi­sji nie­mo­ralni po­li­tycy i chciwi biz­nes­meni. Nie­moż­liwe sta­nie się szpie­go­wa­nie oby­wa­teli i na­ru­sza­nie pry­wat­no­ści przez rządy. Do pew­nego stop­nia ma­rze­nie to się zi­ściło, choć raj oka­zał się także nieco ska­żony. Jed­nak, przede wszyst­kim na na­szych oczach od­bywa się prze­obra­że­nie spo­łe­czeń­stwa. Nie można po­wie­dzieć, że świat staje się lep­szy lub gor­szy, gdyż zmie­nia się sam nasz spo­sób my­śle­nia o do­bru i złu. Na przy­kład jesz­cze nie­dawno lu­dzie byli bar­dzo wraż­liwi na punk­cie wszel­kich na­ru­szeń pry­wat­no­ści i urzą­dzali de­mon­stra­cje prze­ciwko rzą­dom i kor­po­ra­cjom, które pró­bo­wały ich nad­zo­ro­wać lub po­zy­ski­wać ich dane oso­bowe. Ak­ty­wi­ści o róż­nych orien­ta­cjach po­li­tycz­nych, mło­dzi li­be­ra­ło­wie i uznane or­ga­ni­za­cje wspól­nie urzą­dzali ma­sowe pro­te­sty prze­ciwko spi­sowi po­wszech­nemu w Niem­czech w 1987 roku, oba­wia­jąc się, że kom­pu­tery nie za­gwa­ran­tują ano­ni­mo­wo­ści od­po­wie­dzi, a gniewni lu­dzie ob­kle­ili Mur Ber­liń­ski ty­sią­cami nie­wy­peł­nio­nych kwe­stio­na­riu­szy. W au­stra­lij­skim spi­sie po­wszech­nym z 2001 roku po­nad 70 ty­sięcy lu­dzi za­de­kla­ro­wało, że są wy­znaw­cami re­li­gii „Jedi” (z filmu Gwiezdne wojny), a w 2011 roku oby­wa­tele bry­tyj­scy pro­te­sto­wali prze­ciwko py­ta­niom, które ich zda­niem za bar­dzo in­ge­ro­wały w ich pry­wat­ność, ta­kim jak py­ta­nie o wy­zna­nie[3]. Dzi­siaj re­agu­jemy wzru­sze­niem ra­mion na to, że nasz in­te­li­gentny dom przez dwa­dzie­ścia cztery go­dziny na dobę re­je­struje, co ro­bimy, nie wy­łą­cza­jąc sy­pialni, a in­te­li­gentna lalka na­szego dziecka na­grywa każdy po­wie­rzony jej se­kret. Wraż­li­wość na punk­cie pry­wat­no­ści i god­no­ści ad­ap­tuje się do tech­no­lo­gii lub może na­wet w ogóle stać się po­ję­ciem z od­le­głej prze­szło­ści. Kie­dyś ma­rzono, że in­ter­net ofia­ruje nam wol­ność; dzi­siaj dla wielu wol­ność ozna­cza dar­mowy in­ter­net.

Od nie­pa­mięt­nych cza­sów lu­dzie two­rzą im­po­nu­jące nowe tech­no­lo­gie, z któ­rych jed­nak nie za­wsze umieją mą­drze ko­rzy­stać. Je­śli chcemy czer­pać roz­liczne ko­rzy­ści z tech­no­lo­gii cy­fro­wej, po­win­ni­śmy się na­uczyć my­śleć w świe­cie, który pró­buje my­śleć za nas. Nie mo­żemy so­bie po­zwo­lić na bez­tro­skę, ale mu­simy być czujni i za­cho­wy­wać kon­trolę.

Zachowanie kontroli

Każdy, kto nie jest zu­peł­nie lek­ko­myślny, cza­sami po­święca uwagę swemu bez­pie­czeń­stwu. Ja­kie nie­szczę­ście z więk­szym praw­do­po­do­bień­stwem może nas spo­tkać w ciągu naj­bliż­szych dzie­się­ciu lat?

• Zo­sta­niemy za­bici w za­ma­chu ter­ro­ry­stycz­nym.

• Zo­sta­niemy za­bici przez kie­rowcę za­ję­tego swoim smart­fo­nem.

Je­śli czy­tel­nik wy­brał opcję za­ma­chu ter­ro­ry­stycz­nego, to znaj­duje się w więk­szo­ści. Od czasu za­ma­chów z 11 wrze­śnia 2001 roku, son­daże prze­pro­wa­dzane w Ame­ryce Pół­noc­nej i Eu­ro­pie wy­ka­zują, że lu­dzie uwa­żają ter­ro­ryzm za naj­więk­sze za­gro­że­nie dla ich ży­cia. W przy­padku nie­któ­rych jest to naj­więk­szy ich lęk. Jed­no­cze­śnie bez spe­cjal­nego za­kło­po­ta­nia więk­szość lu­dzi przy­znaje się do pi­sa­nia lub czy­ta­nia ese­me­sów pod­czas pro­wa­dze­nia sa­mo­chodu. Przez dzie­sięć lat do roku 2020 w Sta­nach Zjed­no­czo­nych z rąk ter­ro­ry­stów, is­lam­skich, pra­wi­co­wych czy in­nych zgi­nęło rocz­nie prze­cięt­nie 36 osób[4]. W tym sa­mym okre­sie po­nad 3 ty­siące osób rocz­nie zgi­nęło w wy­pad­kach spo­wo­do­wa­nych przez roz­tar­gnio­nych kie­row­ców – któ­rzy czę­sto za­jęci byli ese­me­sami, czy­ta­niem lub stre­amo­wa­niem na swo­ich smart­fo­nach[5]. Liczba ta od­po­wiada łącz­nej licz­bie ofiar za­ma­chów z 11 wrze­śnia, a do­ty­czy tylko jed­nego roku.

Więk­szość Ame­ry­ka­nów boi się także za­ma­chu ter­ro­ry­stycz­nego bar­dziej niż broni pal­nej, choć jest mniej praw­do­po­dobne, że zo­staną za­bici przez ter­ro­ry­stę niż przez dziecko ba­wiące się bro­nią palną w ich wła­snym domu. Każdy, kto nie mieszka w kraju ta­kim jak Afga­ni­stan lub Ni­ge­ria, ze znacz­nie więk­szym praw­do­po­do­bień­stwem może zgi­nąć w wy­padku sa­mo­cho­do­wym spo­wo­do­wa­nym przez roz­tar­gnio­nego kie­rowcę, być może na­wet sie­bie sa­mego. Nie­trudno zresztą zro­zu­mieć dla­czego. Czas re­ak­cji dwu­dzie­sto­latka ob­słu­gu­ją­cego te­le­fon zwal­nia do czasu re­ak­cji sie­dem­dzie­się­cio­latka bez te­le­fonu[6]. Zja­wi­sko to okre­śla się mia­nem „chwi­lo­wego sta­rze­nia się mó­zgu”.

Dla­czego lu­dzie pi­szą lub czy­tają ese­mesy pod­czas pro­wa­dze­nia po­jazdu? Być może nie zdają so­bie sprawy z tego, ja­kie to nie­bez­pieczne. Opie­ra­jąc się na ba­da­niach, stwier­dzi­łem jed­nak, że więk­szość do­brze zdaje so­bie z ist­nie­nia za­gro­że­nia[7]. Nie cho­dzi o brak świa­do­mo­ści, ale o brak sa­mo­kon­troli. „Gdy nad­cho­dzi wia­do­mość, po pro­stu mu­szę spoj­rzeć, choćby nie wiem co”, wy­ja­śnia pe­wien stu­dent. O sa­mo­kon­trolę co­raz trud­niej od czasu, gdy plat­formy in­ter­ne­towe wpro­wa­dziły no­ty­fi­ka­cje, po­lu­bie­nia i inne sztuczki psy­cho­lo­giczne ma­jące na celu prze­kie­ro­wa­nie uwagi użyt­kow­ni­ków z tego, co się dzieje do­okoła, na za­war­tość ich stron. A prze­cież można by unik­nąć tylu nie­szczęść, gdyby lu­dzie byli w sta­nie po­ko­nać od­ruch spraw­dza­nia te­le­fonu, gdy po­winni uwa­żać na drogę. Do­ty­czy to nie tylko mło­dych osób. „Nie pisz­cie do bli­skich ese­me­sów, kiedy wie­cie, że oni w da­nej chwili pro­wa­dzą sa­mo­chód”, po­wie­działa wstrzą­śnięta matka, która zna­la­zła swoją ciężko ranną córkę na od­dziale in­ten­syw­nej te­ra­pii, z po­ra­nioną twa­rzą i bez jed­nego oka, po tym, jak wy­słała dziecku „durny ese­mes”[8] . Smart­fon jest wspa­nia­łym wy­na­laz­kiem, ale wy­maga, by mą­drze ko­rzy­stali z niego my­ślący lu­dzie. W tym przy­padku zdol­ność za­cho­wa­nia kon­troli nad tech­no­lo­gią służy ochro­nie oso­bi­stego bez­pie­czeń­stwa na­szego i na­szych bli­skich.

Nadzór i kontrola nad masami stanowi problem, jest problemem, a nie rozwiązaniem

Jedną z przy­czyn tego, że bo­imy się bar­dziej za­ma­chu ter­ro­ry­stycz­nego niż kie­rowcy ze wzro­kiem utkwio­nym w ekran smart­fona, jest znacz­nie więk­sza uwaga me­diów i po­li­ty­ków po­świę­cona ter­ro­ry­zmowi niż roz­tar­gnio­nym kie­row­com. W celu chro­nie­nia swo­ich oby­wa­teli rządy na ca­łym świe­cie eks­pe­ry­men­tują z sys­te­mami kon­troli opar­tymi na roz­po­zna­wa­niu twa­rzy. Sys­temy są nie­za­wodne w przy­padku roz­po­zna­wa­nia twa­rzy w kon­tek­ście la­bo­ra­to­ryj­nym, gdy wy­ko­rzy­sty­wane są fo­to­gra­fie z do­ku­men­tów, apli­ka­cji o pracę czy inne do­brze oświe­tlone zdję­cia przed­sta­wia­jące głowy lu­dzi w po­dob­nych usta­wie­niach. Czy jed­nak są do­kładne w świe­cie rze­czy­wi­stym? Bli­sko miej­sca, gdzie miesz­kam, prze­pro­wa­dzono taki test.

Wie­czo­rem 19 grud­nia 2016 roku dwu­dzie­stocz­te­ro­letni is­lam­ski ter­ro­ry­sta upro­wa­dził wielką cię­ża­rówkę i wbił się nią w za­tło­czony ber­liń­ski ry­nek bo­żo­na­ro­dze­niowy, pełny tu­ry­stów i miej­sco­wych de­lek­tu­ją­cych się kieł­ba­skami i grza­nym wi­nem, za­bi­ja­jąc dwa­na­ście osób i ra­niąc czter­dzie­ści dzie­więć. Rok póź­niej nie­miec­kie mi­ni­ster­stwo spraw we­wnętrz­nych za­in­sta­lo­wało sys­temy roz­po­zna­wa­nia twa­rzy na jed­nym z ber­liń­skich dwor­ców ko­le­jo­wych, aby prze­te­sto­wać do­kład­ność tych urzą­dzeń w roz­po­zna­wa­niu po­dej­rza­nych. Po rocz­nym okre­sie pi­lo­ta­żo­wym mi­ni­ster­stwo w ko­mu­ni­ka­cie dla prasy ob­wie­ściło z dumą dwa wy­niki: osiem­dzie­się­cio­pro­cen­tową do­kład­ność tra­fień, co ozna­cza, że na dzie­się­ciu po­dej­rza­nych sys­temy po­praw­nie iden­ty­fi­ko­wały ośmiu, a błęd­nie dwóch; oraz współ­czyn­nik fał­szy­wych alar­mów wy­no­szący 0,1 pro­cent, co ozna­cza, że tylko je­den na ty­siąc prze­chod­niów zo­stał omył­kowo wzięty za po­dej­rza­nego. Mi­ni­ster uznał sys­tem za wielki suk­ces i gło­sił, że ogól­no­kra­jowy nad­zór jest wy­ko­nalny i po­żą­dany.

Oświad­cze­nie to wy­wo­łało burz­liwą dys­ku­sję. Jedni wy­ra­żali prze­ko­na­nie, że za­pew­nie­nie więk­szego bez­pie­czeń­stwa uspra­wie­dli­wia do­dat­kowy nad­zór, pod­czas gdy dru­dzy bali się, że ka­mery za­czną w któ­rymś mo­men­cie peł­nić funk­cję „tele­ekra­nów” z po­wie­ści Geo­rge’a Or­wella Rok 1984. Nikt jed­nak nie kwe­stio­no­wał do­kład­no­ści sys­temu[9]. Za­miast opo­wia­dać się po jed­nej ze stron w tej emo­cjo­nal­nej de­ba­cie, za­sta­nówmy się nad tym, co by się stało, gdyby ta­kie sys­temy roz­po­zna­wa­nia twa­rzy zo­stały sze­roko za­im­ple­men­to­wane. Każ­dego dnia przez dworce ko­le­jowe Nie­miec prze­wija się około dwa­na­ście mi­lio­nów pa­sa­że­rów. Po­mi­ja­jąc kil­ku­set po­szu­ki­wa­nych po­dej­rza­nych, są to nor­malni lu­dzie zdą­ża­jący do pracy lub po­dró­żu­jący dla przy­jem­no­ści. Ro­biący wra­że­nie ni­ski wskaź­nik fał­szy­wych wy­ni­ków po­zy­tyw­nych wy­no­szący 0,1 pro­cent prze­kłada się na pra­wie 12 ty­sięcy prze­chod­niów dzien­nie, któ­rzy zo­sta­liby fał­szy­wie zi­den­ty­fi­ko­wani jako po­dej­rzani. Każdy z nich mu­siałby zo­stać za­trzy­many, prze­szu­kany na oko­licz­ność po­sia­da­nia broni lub nar­ko­ty­ków i być może aresz­to­wany do czasu po­twier­dze­nia toż­sa­mo­ści[10]. Na­le­ża­łoby po­świę­cić do­dat­kowe za­soby po­li­cyjne na do­kładne ba­da­nie tych nie­win­nych oby­wa­teli za­miast na efek­tywne za­po­bie­ga­nie prze­stęp­stwom, co ozna­cza, że taki sys­tem w rze­czy­wi­sto­ści skut­ko­wałby ob­ni­że­niem bez­pie­czeń­stwa. Osta­tecz­nie po­wstałby sys­tem nad­zoru ogra­ni­cza­jący wol­ność jed­nostki i na do­da­tek szko­dzący ży­ciu spo­łecz­nemu i go­spo­dar­czemu.

Roz­po­zna­wa­nie twa­rzy może być przy­datne, lecz do in­nego celu: iden­ty­fi­ka­cji da­nej osoby, a nie ma­so­wego prze­sie­wa­nia. Po stwier­dze­niu do­ko­na­nia prze­stęp­stwa na sta­cji me­tra lub prze­je­cha­nia przez sa­mo­chód na czer­wo­nym świe­tle na­gra­nie wi­deo może po­móc w iden­ty­fi­ka­cji sprawcy. W ta­kiej sy­tu­acji wiemy, że osoba ta po­peł­niła prze­stęp­stwo. Na­to­miast gdy ba­damy każ­dego na dworcu, nie wiemy, czy te osoby są po­dej­rza­nymi. Więk­szość nie jest, co – po­dob­nie jak w przy­padku ma­so­wych ba­dań prze­sie­wo­wych w me­dy­cy­nie – pro­wa­dzi do wiel­kiej liczby fał­szy­wych alar­mów. Funk­cja roz­po­zna­wa­nia twa­rzy spraw­dza się za to do­sko­nale, wy­ko­nu­jąc za­da­nie na­zy­wane uwie­rzy­tel­nia­niem. Dzięki niej mo­żemy od­blo­ko­wać te­le­fon, po pro­stu pa­trząc w ekran. Ina­czej niż sprawca ucie­ka­jący w me­trze, pa­trzymy wprost w oko ka­mery, trzy­ma­jąc ją bli­sko twa­rzy, i nie po­ru­szamy się; prak­tycz­nie za­wsze to my sta­ramy się od­blo­ko­wać apa­rat. W tej sy­tu­acji po­wstaje bar­dzo sta­bilny świat: na­le­żymy do niego tylko my i nasz te­le­fon. Rzadko zda­rzają się błędy.

Gdy za­mie­rzamy dys­ku­to­wać o za­le­tach i wa­dach sys­te­mów roz­po­zna­wa­nia twa­rzy, mu­simy roz­róż­nić trzy moż­liwe sy­tu­acje: wiele z wie­loma, je­den z wie­loma i je­den z jed­nym. W trak­cie ana­lizy prze­sie­wo­wej wiele osób jest po­rów­ny­wa­nych z wie­loma in­nymi oso­bami znaj­du­ją­cymi się w ba­zie da­nych; w iden­ty­fi­ka­cji jedna osoba jest po­rów­ny­wana z wie­loma; z ko­lei w uwie­rzy­tel­nia­niu jedna osoba jest po­rów­ny­wa­nia z jedną inną osobą. Im mniej­sza nie­pew­ność – jak w iden­ty­fi­ka­cji, ale nie w ma­so­wym prze­sie­wa­niu – tym wyż­sza spraw­ność sys­temu. Przy­po­mnijmy so­bie wdar­cie się tłumu w stycz­niu 2021 roku do Ka­pi­tolu Sta­nów Zjed­no­czo­nych, gdzie sys­temy roz­po­zna­wa­nia twa­rzy szybko zi­den­ty­fi­ko­wały nie­któ­rych uczest­ni­ków, któ­rzy zdo­łali wtar­gnąć do gma­chu. Ogólna kon­sta­ta­cja jest taka, że sztuczna in­te­li­gen­cja nie jest do­bra ani zła, a jest po pro­stu bar­dziej uży­teczna w pew­nych za­da­niach, a mniej uży­teczna w in­nych.

Po­wyż­sze ro­zu­mo­wa­nie ma wiele wspól­nego z na­szymi oba­wami co do za­gro­że­nia pry­wat­no­ści. Na ogół nie­po­koi nas moż­li­wość ma­so­wego nad­zoru spra­wo­wa­nego przez rządy, a nie iden­ty­fi­ka­cja spraw­ców i uwie­rzy­tel­nia­nie. Oka­zuje się, że ma­sowy nad­zór jest tym, w czym sys­temy roz­po­zna­wa­nia twa­rzy naj­bar­dziej za­wo­dzą. Zro­zu­mie­nie tego klu­czo­wego za­gad­nie­nia po­maga nam chro­nić wol­no­ści in­dy­wi­du­alne, które ce­nimy w za­chod­nich de­mo­kra­cjach, przed rzą­dami za­in­te­re­so­wa­nymi nad­zo­ro­wa­niem wła­snych oby­wa­teli.

„Nie mam nic do ukrycia”

Fraza ta prze­wija się czę­sto w dys­ku­sjach do­ty­czą­cych me­diów spo­łecz­no­ścio­wych, które gro­ma­dzą wszel­kie dane oso­bowe, ja­kie tylko wpadną w ich ręce. Wy­po­wia­dają ją za­zwy­czaj użyt­kow­nicy, któ­rzy wolą pła­cić swo­imi da­nymi niż pie­niędzmi. I fraza ta może być na­wet praw­dziwa w od­nie­sie­niu do tych z nas, któ­rzy pro­wa­dzą spo­kojne ży­cie bez szcze­gól­nych kło­po­tów zdro­wot­nych, ni­gdy nie na­ro­bili so­bie wro­gów i nie są skłonni do za­bie­ra­nia głosu w obro­nie praw oby­wa­tel­skich za­gro­żo­nych przez rząd. Rzecz nie spro­wa­dza się jed­nak do ukry­wa­nia cze­goś ani do swo­body pu­bli­ko­wa­nia bez opłat zdjęć ślicz­nych ko­tów. Fir­mom in­for­ma­tycz­nym jest obo­jętne, czy mamy coś do ukry­cia, czy nie. Po­nie­waż nie pła­cimy za ich usługi, mu­szą one sto­so­wać psy­cho­lo­giczne sztuczki, które spra­wią, że bę­dziemy spę­dzać z ich apli­ka­cjami jak naj­wię­cej czasu. Nie je­ste­śmy klien­tami; klien­tami są re­kla­mo­dawcy, któ­rzy płacą fir­mom in­for­ma­tycz­nym za nie­ustanne przy­cią­ga­nie na­szej uwagi. Wielu z nas nie po­trafi się roz­stać ze smart­fo­nem, nie do­sy­pia z po­wodu swego no­wego part­nera w łóżku, z tru­dem znaj­duje czas na inne za­ję­cia i nie­cier­pli­wie czeka na ko­lejny za­strzyk do­pa­miny, ja­kiego do­star­cza każdy nowy „lajk”. Jia To­len­tino tak w „New Yor­ke­rze” opi­sała swoje zma­ga­nia z te­le­fo­nem ko­mór­ko­wym: „No­szę ze sobą wszę­dzie ten te­le­fon, jakby to był zbior­nik z tle­nem. Wpa­truję się w niego, gdy ro­bię śnia­da­nie i gdy wy­no­szę śmieci, ruj­nu­jąc to, za co naj­bar­dziej lu­bię pracę w domu – po­czu­cie kon­troli, względny spo­kój”[11]. Inni przej­mują się, gdy ja­kaś obca osoba na­pi­sze zgryź­liwy ko­men­tarz o ich wy­glą­dzie lub in­te­li­gen­cji. Jesz­cze inni dry­fują w kie­runku grup eks­tre­mi­stycz­nych, które pa­dają ła­twym łu­pem fake new­sów i mowy nie­na­wi­ści.

Ludz­kość dzieli się na tych, któ­rzy nie za bar­dzo przej­mują się tym, że tech­no­lo­gia cy­frowa na nich od­dzia­łuje, i tych, któ­rzy – jak To­len­tino – są prze­ko­nani, że wpro­wa­dza ich ona w uza­leż­nie­nie po­dobne do tego, ja­kiego do­świad­cza na­ło­gowy ha­zar­dzi­sta nie­zdolny do my­śle­nia o ni­czym in­nym niż o gra­niu. Nie­mniej, moż­liwa jest tech­no­lo­gia, a w szcze­gól­no­ści me­dia spo­łecz­no­ściowe, które nie będą okra­dać lu­dzi z wol­nego czasu i snu. To nie me­dia spo­łecz­no­ściowe jako ta­kie spra­wiają, że się uza­leż­niamy, ale mo­del biz­ne­sowy oparty na sper­so­na­li­zo­wa­nej re­kla­mie. To grzech pier­wo­rodny, z któ­rego biorą po­czą­tek wszyst­kie szkody, ja­kie od­no­szą użyt­kow­nicy.

Darmowa kawiarnia

Wy­obraźmy so­bie, że pewna ka­wiar­nia po­zbyła się ca­łej kon­ku­ren­cji przez to, że ofe­ruje dar­mową kawę, wsku­tek czego nie mamy in­nego wy­boru niż uma­wiać się wła­śnie tam. Pod­czas gdy roz­ko­szu­jemy się mi­łymi roz­mo­wami z przy­ja­ciółmi, za­mon­to­wane w sto­łach pod­słu­chy i ka­mery do­kład­nie mo­ni­to­rują na­sze kon­wer­sa­cje i re­je­strują, z kim sie­dzimy. W po­miesz­cze­niu jest także pełno sprze­daw­ców, któ­rzy płacą za na­szą kawę, ale nie­ustan­nie nam prze­ry­wają, pro­po­nu­jąc za­kup sper­so­na­li­zo­wa­nych pro­duk­tów i usług. W isto­cie klien­tami ka­wiarni są ci sprze­dawcy, a nie ty i twoi przy­ja­ciele. Na ta­kiej za­sa­dzie funk­cjo­nują plat­formy ta­kie jak Fa­ce­book[12].

Plat­formy me­diów spo­łecz­no­ścio­wych mo­głyby funk­cjo­no­wać w zdrow­szy spo­sób, gdyby były oparte na mo­delu biz­ne­so­wym praw­dzi­wej ka­wiarni lub sta­cji te­le­wi­zyj­nej, ra­dio­wej czy in­nej in­sty­tu­cji, gdzie klient płaci za do­bra, z któ­rych chce ko­rzy­stać. W 1998 roku Ser­gey Brin i Larry Page, mło­dzi za­ło­ży­ciele firmy Go­ogle, na­wet kry­ty­ko­wali wy­szu­ki­warki in­ter­ne­towe oparte na re­kla­mach jako nie­uchron­nie fa­wo­ry­zu­jące bar­dziej re­kla­mo­daw­ców niż klien­tów[13]. Wkrótce jed­nak, ule­ga­jąc pre­sji in­we­sto­rów, ustą­pili i zbu­do­wali naj­więk­szy ist­nie­jący mo­del sper­so­na­li­zo­wa­nej re­klamy. W tym mo­delu biz­ne­so­wym to­wa­rem jest na­sza uwaga. Rze­czy­wi­stymi klien­tami są firmy umiesz­cza­jące na stro­nach in­ter­ne­to­wych swoje re­klamy. Im wię­cej lu­dzi wi­dzi re­klamy, tym wię­cej płacą re­kla­mo­dawcy, co pro­wa­dzi do tego, że mar­ke­tin­gowcy me­diów spo­łecz­no­ścio­wych prze­pro­wa­dzają cią­głe eks­pe­ry­menty, które mają na celu mak­sy­ma­li­za­cję czasu, jaki spę­dzamy na ich stro­nach, i wzbu­dze­nie w nas chęci jak naj­szyb­szego po­wrotu. Do­brym przy­kła­dem jest od­ruch się­ga­nia po te­le­fon pod­czas pro­wa­dze­nia sa­mo­chodu. Krótko mó­wiąc, istotą tego mo­delu biz­ne­so­wego jest prze­ję­cie kon­troli nad cza­sem i uwagą użyt­kow­ni­ków w naj­wyż­szym moż­li­wym stop­niu.

By słu­żyć re­kla­mo­daw­com, firmy in­for­ma­tyczne w każ­dym mo­men­cie zbie­rają dane o tym, gdzie je­ste­śmy, co ro­bimy i ja­kie strony prze­glą­damy. Na pod­sta­wie na­szych zwy­cza­jów bu­dują one coś w ro­dzaju awa­tara nas sa­mych. Gdy re­kla­mo­dawca za­miesz­cza re­klamę, po­wiedzmy naj­now­szego pi­sto­letu lub dro­giej po­madki do ust, re­klama ta jest po­ka­zy­wana tym in­ter­nau­tom, któ­rzy z naj­więk­szym praw­do­po­do­bień­stwem w nią klikną. Na ogół re­kla­mo­dawcy płacą fir­mie in­for­ma­tycz­nej za każ­dym ra­zem, gdy in­ter­nauta klik­nie w re­klamę, lub za każde wy­świe­tle­nie. Aby za­tem zwięk­szyć praw­do­po­do­bień­stwo klik­nię­cia w re­klamę lub jej zo­ba­cze­nia, po­dej­muje się wszel­kie moż­liwe dzia­ła­nia w celu skło­nie­nia nas do po­zo­sta­nia na stro­nie jak naj­dłu­żej. Po­lu­bie­nia, no­ty­fi­ka­cje i inne sztuczki psy­cho­lo­giczne służą temu, by nas uza­leż­nić od ko­rzy­sta­nia ze smart­fona – o każ­dej po­rze dnia i nocy. Tak więc to nie na­sze dane są sprze­da­wane, ale na­sza uwaga, czas i sen.

Gdyby Go­ogle czy Fa­ce­book opie­rały się na mo­delu usługi za opłatą, za­biegi te nie by­łyby ko­nieczne. Ar­mie in­ży­nie­rów i psy­cho­lo­gów, któ­rzy prze­pro­wa­dzają eks­pe­ry­menty nad tym, jak przy­kuć nas do ekra­nów, mo­głyby pra­co­wać nad bar­dziej uży­tecz­nymi in­no­wa­cjami tech­no­lo­gicz­nymi. Me­dia spo­łecz­no­ściowe na­dal gro­ma­dzi­łyby okre­ślone dane słu­żące udo­sko­na­le­niu re­ko­men­da­cji tak, by le­piej od­po­wia­dały na­szym okre­ślo­nym po­trze­bom, ale nie mia­łyby już mo­ty­wa­cji do zbie­ra­nia in­nych zby­tecz­nych in­for­ma­cji, ta­kich jak dane mo­gące wska­zy­wać na to, czy cier­pimy na de­pre­sję, mamy raka lub je­ste­śmy w ciąży. Znik­nąłby bo­wiem główny po­wód, dla któ­rego są gro­ma­dzone – sper­so­na­li­zo­wana re­klama. Przy­kła­dem firmy, która już za­sto­so­wała taki mo­del usługi za opłatą, jest Net­flix[14]. Z per­spek­tywy użyt­kow­ni­ków małą nie­do­god­no­ścią by­łoby to, że mu­sie­li­by­śmy co mie­siąc uisz­czać nie­wielką kwotę, by ko­rzy­stać z me­diów spo­łecz­no­ścio­wych. Jed­nak dla me­diów spo­łecz­no­ścio­wych wielką prze­wagą zy­skow­niej­szego planu pła­ce­nia da­nymi jest to, że lu­dzie znaj­du­jący się na szczy­cie struk­tury na­leżą obec­nie do świa­to­wej elity bo­gac­twa i wła­dzy.

Nie dać się zdominować przez technologię

Przy­kłady te dają pierw­szą wska­zówkę co do tego, jak można nie dać się zdo­mi­no­wać przez tech­no­lo­gię. Je­śli chcemy oprzeć się po­ku­sie od­czy­ta­nia wia­do­mo­ści, gdy pro­wa­dzimy po­jazd, mu­simy umieć za­cho­wać kon­trolę nad tech­no­lo­gią. Moż­li­wo­ści i ogra­ni­cze­nia sys­te­mów roz­po­zna­wa­nia twa­rzy po­ka­zują, że ta tech­no­lo­gia spraw­dza się w dość sta­bil­nych sy­tu­acjach, ta­kich jak od­blo­ko­wa­nie te­le­fonu lub kon­trola gra­niczna, gdzie zdję­cie pasz­por­towe jest po­rów­ny­wane ze zdję­ciem wy­ko­na­nym na miej­scu. Gdy jed­nak prze­sie­wamy twa­rze w trud­nych do prze­wi­dze­nia wa­run­kach co­dzien­nej rze­czy­wi­sto­ści, sztuczna in­te­li­gen­cja so­bie nie ra­dzi, bo wsz­czyna zbyt wiele fał­szy­wych alar­mów, co może pro­wa­dzić do ogrom­nych pro­ble­mów (masy nie­win­nych osób mu­sia­łyby być za­trzy­my­wane i prze­szu­ki­wane). Wresz­cie pro­blemy po­wo­do­wane przez me­dia spo­łecz­no­ściowe – utrata czasu, snu i zdol­no­ści kon­cen­tra­cji na sku­tek uza­leż­nie­nia – nie są winą me­diów spo­łecz­no­ścio­wych jako ta­kich, ale za­sto­so­wa­nego planu biz­ne­so­wego pła­ce­nia da­nymi. Do po­ko­na­nia tych po­waż­nych pro­ble­mów nie wy­star­czy zmiana usta­wień pry­wat­no­ści ani wpro­wa­dze­nie pań­stwo­wej re­gu­la­cji tre­ści in­ter­ne­to­wych. Pro­blemy na­leży roz­wią­zać u ich źró­dła przez zmianę ca­łego mo­delu biz­ne­so­wego. Rządy mu­szą zdo­być się na od­wagę po­li­tyczną nie­zbędną w celu ochrony lu­dzi, któ­rych re­pre­zen­tują.

Można by są­dzić, że po­moc w ro­zu­mie­niu moż­li­wo­ści i za­gro­żeń tech­no­lo­gii cy­fro­wej po­winna być pod­sta­wo­wym ce­lem wszyst­kich sys­te­mów edu­ka­cyj­nych i rzą­dów. Tak jed­nak nie jest. Nie wspo­mina się o tym na­wet w do­ku­men­cie „Klu­czowe za­gad­nie­nia trans­for­ma­cji cy­fro­wej w ra­mach G20” Or­ga­ni­za­cji Współ­pracy Go­spo­dar­czej i Roz­woju z 2017 roku ani w „Bia­łej księ­dze w spra­wie sztucz­nej in­te­li­gen­cji” wy­da­nej w 2020 roku przez Ko­mi­sję Eu­ro­pej­ską[15]. Pro­gramy te sku­piają się na in­nych waż­nych za­gad­nie­niach, mię­dzy in­nymi two­rze­niu hu­bów in­no­wa­cyj­no­ści, in­fra­struk­tury cy­fro­wej, do­brego usta­wo­daw­stwa i zwięk­sze­niu za­ufa­nia lu­dzi do sztucz­nej in­te­li­gen­cji. Nic więc dziw­nego, że więk­szość „cy­fro­wych tu­byl­ców” nie po­trafi od­róż­niać fak­tów od fake’ów i wia­do­mo­ści od re­klamy.

Roz­wią­za­nie tych pro­ble­mów wy­maga cze­goś wię­cej niż roz­wi­ja­nia in­fra­struk­tury i re­gu­la­cji. Po­trzebny jest czas na re­flek­sję i prze­pro­wa­dze­nie so­lid­nych ba­dań. Czy zda­rzyło się czy­tel­ni­kowi, że mu­siał długo cze­kać na in­fo­li­nii, za­nim ktoś się ode­zwał? Być może ad­res lub al­go­rytm pre­dyk­cyjny wska­zał, że je­ste­śmy klien­tem ma­ło­war­to­ścio­wym. A czy czy­tel­nik za­uwa­żył, że pierw­szy wy­nik w wy­szu­ki­wa­niach Go­ogle’a nie jest naj­bar­dziej uży­teczny? Praw­do­po­dob­nie za pierw­szy wy­nik re­kla­mo­dawca naj­wię­cej za­pła­cił[16]. Czy czy­tel­nik zdaje so­bie sprawę z tego, że jego uko­chany in­te­li­gentny te­le­wi­zor re­je­struje jego pry­watne roz­mowy od­by­wa­jące się w sa­lo­nie lub sy­pialni?[17]

Je­śli wszystko to nie jest dla ko­goś no­wo­ścią, trudno mu bę­dzie zro­zu­mieć, że dla więk­szo­ści lu­dzi jest. Nie­wiele osób zdaje so­bie sprawę z tego, że al­go­rytmy okre­ślają ich czas ocze­ki­wa­nia lub ana­li­zują, co na­gry­wają ich in­te­li­gentne te­le­wi­zory, z czego po­tem od­no­szą ko­rzyść nie­znane im in­sty­tu­cje. Jak wy­ka­zują ba­da­nia, około 50 pro­cent do­ro­słych użyt­kow­ni­ków nie ro­zu­mie, że po­cząt­kowe wy­niki wy­szu­ki­wa­nia in­ter­ne­to­wego są w rze­czy­wi­sto­ści re­kla­mami, a nie naj­bar­dziej ade­kwat­nym lub po­pu­lar­nymi wy­ni­kami[18]. Zresztą re­klamy są na­wet ozna­czone jako spon­so­ro­wane, lecz na prze­strzeni lat co­raz bar­dziej upodob­niły się do na­tu­ral­nych wy­ni­ków wy­szu­ki­wa­nia (to zna­czy do nie-re­klam). Od 2013 roku re­klamy Go­ogle’a nie mają już spe­cjal­nego ko­lo­ro­wego tła, a za­miast tego wpro­wa­dzona zo­stała żółta ikonka „Ad” [„Re­klama”]; w roku 2020 żółty ko­lor usu­nięto, a słowo „Ad” za­częło się wy­świe­tlać na czarno, żeby nie dało się go ła­two od­róż­nić od na­tu­ral­nych wy­ni­ków wy­szu­ki­wa­nia. Re­kla­mo­dawcy płacą za każde klik­nię­cie w ich re­klamę, dla­tego je­śli użyt­kow­nicy błęd­nie są­dzą, że pierw­sze wy­niki są naj­bar­dziej ade­kwatne, jest to do­bre dla in­te­re­sów Go­ogle’a.

Jak po­wie­dzia­łem, wielu sze­fów firm i po­li­ty­ków od­nosi się z nad­mier­nym en­tu­zja­zmem do Big Data i di­gi­ta­li­za­cji. En­tu­zjazm nie ozna­cza jed­nak jesz­cze zro­zu­mie­nia. Wy­daje się, że wielu nad­gor­li­wych pro­ro­ków nie ma po­ję­cia, o czym mówi. We­dług ba­da­nia prze­pro­wa­dzo­nego wśród 400 dy­rek­to­rów w osiem­dzie­się­ciu du­żych fir­mach no­to­wa­nych na gieł­dzie 92 pro­cent z nich nie po­siada żad­nego istot­nego lub po­twier­dzo­nego do­świad­cze­nia w za­kre­sie di­gi­ta­li­za­cji[19]. Po­dob­nie, kiedy Mark Zuc­ker­berg zo­stał we­zwany do zło­że­nia ze­znań przed człon­kami ame­ry­kań­skiego Se­natu i Izby Re­pre­zen­tan­tów w spra­wie naj­now­szej kon­tro­wer­sji zwią­za­nej z na­ru­sze­niem pry­wat­no­ści na Fa­ce­bo­oku, naj­więk­sze wra­że­nie zro­biły nie jego przy­go­to­wane od­po­wie­dzi, ale to, jak ame­ry­kań­scy po­li­tycy mało wie­dzą na te­mat nie­przej­rzy­stego spo­sobu dzia­ła­nia me­diów spo­łecz­no­ścio­wych[20]. Gdy za­sia­da­łem w Ra­dzie Do­rad­czej do Spraw Kon­su­menc­kich przy nie­miec­kim Mi­ni­ster­stwie Spra­wie­dli­wo­ści i Ochrony Kon­su­men­tów, zaj­mo­wa­li­śmy się tym, jak spra­wo­wany jest nad­zór nad taj­nymi al­go­ryt­mami firm przy­go­to­wu­ją­cych oceny po­ten­cjal­nych kre­dy­to­bior­ców (ra­tingi kre­dy­towe) przez in­sty­tu­cje od­po­wie­dzialne za ochronę da­nych, któ­rych rolą jest dba­nie o to, by al­go­rytmy da­wały wia­ry­godne wskaź­niki zdol­no­ści kre­dy­to­wej, wolne od dys­kry­mi­na­cji ze względu na płeć, rasę lub inne in­dy­wi­du­alne ce­chy. Gdy naj­więk­sza firma przy­go­to­wu­jąca ra­tingi kre­dy­towe przed­sta­wiła swój al­go­rytm, wła­dze przy­znały, że nie dys­po­nują wy­star­cza­jącą wie­dzą in­for­ma­tyczną i sta­ty­styczną do prze­pro­wa­dze­nia jego oceny. Osta­tecz­nie firma sama przy­szła wła­dzom z po­mocą, wy­zna­cza­jąc eks­per­tów, któ­rzy na­pi­sali ra­port, a na­wet opła­ca­jąc ich ho­no­ra­ria[21]. Wy­daje się, że brak wie­dzy jest re­gułą, a nie wy­jąt­kiem w na­szym świe­cie in­te­li­gent­nych tech­no­lo­gii. Mu­simy to jak naj­szyb­ciej zmie­nić.

Paternalizm technologiczny

Pa­ter­na­lizm (od ła­ciń­skiego słowa pa­ter ozna­cza­ją­cego ojca) jest po­glą­dem, we­dług któ­rego pewna wy­brana grupa ma prawo trak­to­wać in­nych lu­dzi jak dzieci, które po­winny do­bro­wol­nie pod­dać się jej au­to­ry­te­towi. Hi­sto­rycz­nie pa­ter­na­lizm uspra­wie­dli­wiano w ten spo­sób, że pa­nu­jąca grupa zo­stała wy­brana przez Boga, sta­nowi ary­sto­kra­tyczną elitę, po­siada ta­jemną wie­dzę lub nie­by­wałe bo­gac­two. Ci, któ­rzy pod­le­gają jej wła­dzy, uwa­żani są za istoty niż­sze, gdyż na przy­kład są płci żeń­skiej, mają od­mienny ko­lor skóry, są ubo­dzy lub nie­wy­kształ­ceni. W XX wieku pa­ter­na­lizm zna­lazł się w od­wro­cie po tym, jak ogromna więk­szość lu­dzi uzy­skała w końcu szansę na na­ucze­nie się czy­ta­nia i pi­sa­nia, a rządy przy­znały za­równo męż­czy­znom, jak i ko­bie­tom wol­ność słowa i po­ru­sza­nia się, a także prawo gło­so­wa­nia w wy­bo­rach. Dzięki tej re­wo­lu­cji, któ­rej gor­liwi zwo­len­nicy byli wtrą­cani do wię­zie­nia, a na­wet od­da­wali swoje ży­cie, na­stępne po­ko­le­nia – w tym na­sze – mo­gły wziąć sprawy w swoje ręce. W XXI wieku jed­nak je­ste­śmy świad­kami na­ro­dzin no­wego pa­ter­na­li­zmu kor­po­ra­cji, które wy­ko­rzy­stują ma­szyny do prze­wi­dy­wa­nia i ma­ni­pu­lo­wa­nia za­cho­wa­niami lu­dzi, nie­za­leż­nie od tego, czy oni się na to zga­dzają, czy nie. Jego pro­rocy ogła­szają na­wet na­dej­ście no­wego Boga – wszyst­ko­wie­dzą­cej su­per­in­te­li­gen­cji, zna­nej jako AGI (ar­ti­fi­cial ge­ne­ral in­tel­li­gence, sztuczna in­te­li­gen­cja ogól­nego ro­dzaju), która ma prze­wyż­szyć ludzki mózg pod każ­dym wzglę­dem. Do czasu jej na­dej­ścia mamy pod­po­rząd­ko­wać się jej pro­ro­kom[22].

Tech­no­kra­tyzm jest prze­ko­na­niem, że wszel­kie pro­blemy spo­łeczne można roz­wią­zać przez za­sto­so­wa­nie od­po­wied­niego al­go­rytmu. Pa­ter­na­lizm tech­no­lo­giczny sta­nowi jego na­tu­ralną kon­se­kwen­cję – rządy al­go­ryt­mów. Nie musi opie­rać się na fik­cyj­nej su­per­in­te­li­gen­cji; ocze­kuje od nas tylko tego, że po­zwo­limy kor­po­ra­cjom i rzą­dom re­je­stro­wać to, gdzie prze­by­wamy, co ro­bimy i z kim się kon­tak­tu­jemy, se­kunda po se­kun­dzie, a także że za­ufamy, iż dzięki tym za­pi­som świat sta­nie się lep­szy. We­dług słów by­łego szefa Go­ogle’a Erica Schmidta: „Na­szym ce­lem jest do­pro­wa­dze­nie do tego, by użyt­kow­nicy Go­ogle’a mo­gli za­da­wać py­ta­nia w ro­dzaju: Co po­wi­nie­nem zro­bić ju­tro? lub Jaka praca bę­dzie dla mnie naj­lep­sza?”[23]. Nie­mała liczba po­pu­lar­nych pi­sa­rzy usi­łuje wzbu­dzić nasz re­spekt przed pa­ter­na­li­zmem tech­no­lo­gicz­nym, opo­wia­da­jąc hi­sto­rie, które co naj­mniej oszczęd­nie go­spo­da­rują prawdą[24]. Co bar­dziej za­ska­ku­jące, na­wet nie­któ­rzy wy­bitni ba­da­cze nie wi­dzą gra­nic za­sto­so­wań AI i twier­dzą, że ludzki mózg to je­dy­nie nie­zbyt do­sko­nały kom­pu­ter i tam, gdzie tylko się da, na­leży za­stę­po­wać lu­dzi przez al­go­rytmy[25]. AI po­wie nam, co mamy ro­bić, a my po­win­ni­śmy tylko słu­chać i wy­ko­ny­wać po­le­ce­nia. Mu­simy tylko tro­chę po­cze­kać, aż AI bar­dziej się roz­wi­nie. Co za­sta­na­wia­jące, ni­gdy nie mówi się, że rów­nież lu­dzie po­winni bar­dziej się roz­wi­nąć.

Pi­sząc tę książkę, chcia­łem, by czy­tel­nicy otrzy­mali re­ali­styczny po­gląd na to, co może osią­gnąć sztuczna in­te­li­gen­cja, i jak jest ona wy­ko­rzy­sty­wana do wy­wie­ra­nia na nas wpływu. Nie po­trze­bu­jemy no­wego pa­ter­na­li­zmu; było go zbyt wiele w mi­nio­nych stu­le­ciach. Nie­po­trzebna nam jest jed­nak rów­nież tech­no­lo­giczna pa­nika, przy oka­zji upo­wszech­nia­nia się każ­dej prze­ło­mo­wej tech­no­lo­gii. Kiedy wy­na­le­ziono po­ciągi, le­ka­rze ostrze­gali pa­sa­że­rów przed moż­liwą śmier­cią z po­wodu braku po­wie­trza[26].Upo­wszech­nie­nie ra­dia zro­dziło obawy, że nad­mierne słu­cha­nie może wy­rzą­dzać krzywdę dzie­ciom, które po­trze­bują wy­tchnie­nia, a nie jazzu[27]. Za­miast stra­chu lub za­chwy­tów, świat cy­frowy po­trze­buje le­piej po­in­for­mo­wa­nych i kry­tycz­nych oby­wa­teli, któ­rzy pra­gną za­cho­wać kon­trolę nad swoim ży­ciem.

Książka ta nie sta­nowi aka­de­mic­kiego wpro­wa­dze­nia do AI lub jej pod­dzie­dzin, ta­kich jak ucze­nie ma­szy­nowe lub Big Data. Mówi ona o na­szych do­świad­cze­niach ze sztuczną in­te­li­gen­cją: za­ufa­niu, za­wo­dach, zro­zu­mie­niu, uza­leż­nie­niu oraz oso­bi­stych i spo­łecz­nych prze­obra­że­niach. Zo­stała na­pi­sana dla sze­ro­kiego kręgu od­bior­ców jako prze­wod­nik po wy­zwa­niach świata tech­no­lo­gii i ko­rzy­sta z wy­ni­ków mo­ich wła­snych ba­dań mię­dzy in­nymi nad po­dej­mo­wa­niem de­cy­zji w wa­run­kach nie­pew­no­ści, ja­kie pro­wa­dzi­łem w In­sty­tu­cie Roz­woju Ludz­kiego im. Maxa Plancka. Na kar­tach tej książki nie ukry­wam mo­ich oso­bi­stych po­glą­dów na te­mat wol­no­ści i god­no­ści ludz­kiej, lecz sta­ram się trzy­mać ści­śle fak­tów i po­zwa­lam czy­tel­ni­kowi wy­ro­bić so­bie wła­sne opi­nie. Je­stem głę­boko prze­ko­nany, że lu­dzie nie są tak głupi i nie­zdolni do funk­cjo­no­wa­nia jak czę­sto się za­kłada – o ile tylko po­zo­stają ak­tywni i ko­rzy­stają z wła­snego mó­zgu, który roz­wi­nął się w skom­pli­ko­wa­nym pro­ce­sie ewo­lu­cyj­nym. Nie­bez­pie­czeń­stwo, że lu­dzie uwie­rzą w ne­ga­tywną nar­ra­cję o wyż­szo­ści AI nad ludzką in­te­li­gen­cją i bier­nie po­zwolą wła­dzom lub ma­szy­nom „opty­ma­li­zo­wać” swoje ży­cie na ich za­sa­dach, staje się każ­dego dnia co­raz po­waż­niej­sze i to ono szcze­gól­nie zmo­ty­wo­wało mnie do na­pi­sa­nia tej książki. Po­dob­nie jak moje po­przed­nie książki Gut Fe­elings i Risk Sa­vvy, Zdrowy umysł w sieci al­go­ryt­mów jest żar­li­wym we­zwa­niem do za­cho­wa­nia na­szego wy­wal­czo­nego w cięż­kich zma­ga­niach dzie­dzic­twa wol­no­ści oso­bi­stej i de­mo­kra­cji.

Obec­nie mamy i w naj­bliż­szej przy­szło­ści na­dal bę­dziemy mieli do czy­nie­nia z kon­flik­tem dwóch sys­te­mów – au­to­kra­tycz­nego i de­mo­kra­tycz­nego – który przy­po­mina czasy zim­nej wojny. W od­róż­nie­niu jed­nak od tam­tej epoki, w któ­rej broń ją­drowa po­zwa­lała utrzy­mać ja­kąś rów­no­wagę mię­dzy obiema po­tę­gami, tech­no­lo­gia cy­frowa może ła­two prze­chy­lić szalę na ko­rzyść sys­te­mów au­to­kra­tycz­nych. Mie­li­śmy tego przy­kłady w cza­sie pan­de­mii CO­VID-19, gdy nie­któ­rym au­to­kra­tycz­nym pań­stwom udało się za­ha­mo­wać roz­prze­strze­nia­nie wi­rusa za po­mocą sys­te­mów ści­słej cy­fro­wej kon­troli.

Nie będę w sta­nie omó­wić wszyst­kich aspek­tów zwią­za­nych z roz­le­głą dzie­dziną di­gi­ta­li­za­cji, ale przed­sta­wię wy­bór te­ma­tów, które wy­ja­śniają ogólne za­sady ma­jące szer­sze za­sto­so­wa­nie, ta­kie jak za­sada sta­bil­nego świata i błąd tek­sań­skiego strzelca wy­bo­ro­wego omó­wione w roz­dziale 2 oraz za­sada przy­sto­so­wa­nia do AI i błąd ro­syj­skiego czołgu omó­wione w roz­dziale 4. Jak czy­tel­nik mógł za­uwa­żyć, po­słu­guję się ter­mi­nem AI, sztuczna in­te­li­gen­cja, w sze­ro­kim sen­sie, obej­mu­ją­cym wszel­kie ro­dzaje al­go­ryt­mów, które wy­ko­nują za­da­nia ludz­kiej in­te­li­gen­cji, ale tam, gdzie to ko­nieczne, będę uwzględ­niał nie­zbędne róż­nice.

Każda kul­tura musi pro­wa­dzić roz­mowę o przy­szłym świe­cie, w któ­rym lu­dzie pra­gnę­liby żyć. Trudno spo­dzie­wać się jed­nej od­po­wie­dzi. Ist­nieje jed­nak ogólne prze­sła­nie, które daje się za­sto­so­wać do wszel­kich wi­zji. Po­mimo – albo wła­śnie z po­wodu – in­no­wa­cji tech­no­lo­gicz­nej bar­dziej niż kie­dy­kol­wiek mu­simy po­le­gać na na­szych mó­zgach.

Za­czniemy od za­gad­nie­nia bli­skiego sercu każ­dego – po­szu­ki­wa­nia praw­dzi­wej mi­ło­ści – oraz od taj­nych al­go­ryt­mów, które są tak pro­ste, że każdy jest w sta­nie je zro­zu­mieć.

I

LUDZKI RO­MANS Z AI

Nasz pro­blem nie po­lega na tym, że za­czy­nają po­wsta­wać „in­te­li­gentne ma­szyny”, ale na tym, że ludz­kość głu­pieje.

 – Astra Tay­lor