44,00 zł
George Gilder, pisarz, którego najczęściej cytował prezydent Ronald Reagan, powraca z nową, przełomową teorią kapitalizmu.
W Wiedzy i władzy Gilder przedstawia nową teorię tłumaczącą wytwarzanie bogactwa w kapitalizmie i opisuje, jak amerykańska gospodarka może odzyskać żywotność i ponownie zacząć się rozwijać. Jego zdaniem nastał czas, aby gospodarka kierowała się zasadami wolnorynkowego kapitalizmu, inaczej zostanie pogrzebana pod kopcem długów.
Autor przekonuje, że kryzysy finansowe są nieodłączną cechą kapitalizmu i podstawą jego sukcesu, stymulując rozwój. Niezmiernie ważne jest to, aby im zaradzać, nie osłabiając samego kapitalizmu. Gilder wywodzi, że wizja dynamicznego i kreatywnego przedsiębiorstwa ma również wymiar moralny. Socjalizm jest reakcyjny, gdyż zakłada stałe systemy i wyznaczanie wielkości produkcji z góry: wiadomo już wszystko, popyt poprzedza podaż. Socjalizm jest zatem deterministyczny, kapitalizm – altruistyczny, z natury jest dawaniem, gdyż zakłada pewne ryzyko wynikające z niepewności. Gilder podkreśla dobrodziejstwa kreatywności, która zawsze nas zaskakuje. Zaskoczenie zaś jest w jego opinii istotą kapitalizmu, a także istotą informacji i przedsiębiorczości. A ponieważ wiedza jest rozproszona, rozproszona musi być również władza.
„George Gilder […] intelektualny tytan, autentyczny współczesny Prometeusz, heroicznie przynosi ludzkości ogień wiedzy i… władzy”.
Ralph Benko, „Forbes”
Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:
Liczba stron: 469
Interesujący się nowymi firmami inwestor
z Laboratoriów Bella sortuje szum i wiedzę
WYSIADAM Z POCIĄGU metra zielonej linii pięć na stacji przy Wall Street, jak robiłem to milion razy wcześniej. Może się to dziać w tym roku albo mogło się zdarzyć przed wieloma laty. Nie ma to znaczenia. Uważnie szuram nogami, przesuwając się ze stadem ludzkich istot, z których połowa ma na sobie garnitury, a druga połowa — torby kurierów rowerowych; przechodzę przez obrotowe bramki, po czym ramię w ramię ze spieszącymi się ludźmi wychodzę na Wall Street, gramoląc się w górę zaśmieconymi schodami.
Ostre, kłujące słońce. Widać wszystko, ale nic z tego nie staje się centrum uwagi. Rozprasza mnie hałas. Trąbią kierowcy, grzechoczą młoty udarowe, facet sprzedaje dziennik „New York Post”, gdzie opublikowano materiał o niedawnej zbrodni na tle seksualnym, o której mnóstwo pisali użytkownicy Twittera. Obok mnie przejeżdżają z rykiem pikapy. Poniżej zgrzyt kół pociągu metra. Karetka z włączonymi syrenami wjeżdża na chodnik, aby ominąć jakąś budowę. Kiepska muzyka — ktoś rapuje „Turn it up! Bring the Noise” — bije z kawiarni Starbucks, w której się przekonuję, że nie ma toalety. Kręci mi się w głowie. Ledwie mogę myśleć.
Ale pod tym całym hałasem słyszę pewien dźwięk, jakieś thab–dab, thab-dab, uporczywy rytm reggae, niekiedy głośny, czasami cichy, to szybszy, to wolniejszy, ale pulsacja nie zanika, jest nieustanna. Czy to uderzenia serca, przewidywalny rytm życia? Czy przenosi jakiś sygnał, pewną różnicę, pewien przyrost nowych informacji? Czy to cenna modulacja jakiejś fali nowej kreatywności w kanałach gospodarki?
Mam do zainwestowania „pięćset koła” innych ludzi. „Nie stracę niczego z waszego kapitału i znajdę nowy Microsoft” — powiedziałem im w 1995 roku. Co sobie do cholery wyobrażałem? Tu jest tak głośno, że trudno dostrzec sens w czymkolwiek. Każda opowieść brzmi dobrze i wszystkie akcje sprawiają wrażenie dobrej okazji — ale tych opowieści jest tak wiele, wzajemnie się zatapiają. Zbyt wielka liczba opowieści zasadniczo stapia się w jedną, niekończącą się oscylację rynkową — przypadkowy ruch w czasie, który zwiedzie większość analityków technicznych biorących ją za pewien sygnał. Ci analitycy będą dyszeć i łapczywie chwytać szum.
Myślę, że jestem inny. Mam alfę, słonko, co w żargonie Wall Street oznacza, że potrafię uzyskać stopy zwrotu z inwestycji przekraczające stopy rynkowe. Uważam, że umiem znaleźć zaskakujące zyski, stopę zysku zapewnianą przez prawdziwą wiedzę. Mówią to oczywiście wszyscy, ale większość inwestorów ma tylko betę, czyli wyłącznie wahania, wyłącznie przypadkowy ruch fali. Gdy indeksy idą w górę, ci wojownicy beta osiągają lepsze wyniki, ale gdy indeksy spadają, wojownicy giną.
Aby wytwarzać alfę, potrzebuję pomocy, ukierunkowania, oznakowania, analityków, a niekiedy także nawet sprzedawców mających przy sobie brandy. Ale prawie jedynym drogowskazem w polu widzenia jest wyciągnięte ramię George’a Washingtona na skrzyżowaniu Wall Street i Broad Street, wskazujące budynek nowojorskiej giełdy naprzeciwko — prawie ostrzeżenie, że należy uważać na tych facetów w sportowych marynarkach o zabawnych kolorach. Na drugim narożniku znajduje się siedziba główna banku J.P. Morgan, mieszcząca się przy Wall Street 23, gdzie w 1920 roku anarchiści odpalili ładunki wybuchowe. Teraz wysadzają te banki od środka, wykorzystując łatwopalne iluzje alfy.
Muszę zapędzić te pieniądze do pracy, nabyć akcje, których notowania wzrosną od pięciu do dziesięciu razy, i udowodnić, że moja alfa jest prawdziwa. W tej książce oraz w opisanym w niej klasycznym modelu Claude’a Shannona alfę określa się słowem „entropia”. Ale zasadniczo są one tym samym. To nieoczekiwany sygnał, zaskoczenie powodujące pozytywną zmianę, sytuacja, w której spółka zarabia więcej, niż się spodziewano, nieoczekiwana stopa zwrotu, komunikaty wśród szumu panującego na Wall Street. Przewidywalne stopy zwrotu są już zawarte w cenach, w stopach oprocentowania. Muszę osiągać pozytywne zaskoczenia, stopy zwrotu wyższe od zakładanych, które nie zawierają się implicite w obecnych cenach, do tego muszę je osiągać nie tylko dziś czy jutro, ale miesiąc po miesiącu, rok po roku. I muszę je zabezpieczać akcjami kupowanymi z myślą o krótkiej sprzedaży, akcjami o rozdmuchanej wartości, których notowania idą na dno szybciej niż Titanic. Dość proste, prawda? Szkoda, że tak nie jest.
Jadąc rano metrem, byłem medium dla Larry’ego, faceta w marynarce i spodniach w stylu casual, który w 1973 roku zarządzał pieniędzmi „go-go”, jak to zwaliśmy (zwrot oznaczał spekulacyjne, krótkookresowe działania na giełdzie). „Ach — mówi Larry — to były czasy. Upojne. Obsługujący instytucje sprzedawca z White Weld telefonował do mnie codziennie o dziewiątej, aby mnie wcześnie poinformować o tym, co jego analitycy mówią o Polaroidzie, Xeroksie czy firmie Philip Morris. Przy zawieraniu transakcji koszt wynosił siedemdziesiąt pięć centów od akcji, ale kto się tym przejmował, tylko pięćdziesiąt spółek się liczyło, te Nifty Fifty, i te akcje się kupowało, nigdy nie sprzedawało. Być może jakieś pomysły brałem z działu Heard on the Street z »Wall Street Journal« bądź z działu Inside Wall Street w »Business Week«”.
Niestety, te wzrostowe spółki Nifty Fifty zmieniły się w bezwartościowy stos, a z popiołów powstał fundusz Vanguard, pionierska firma Johna Bogle’a. Napędzany przez big bang deregulacji rynku, negocjowane prowizje i niższe koszty transakcji fundusz Vanguard w 1975 roku doszedł do tego, że alfa to mit, że nie ma śmiertelników, którzy zdołają pobić rynek, wobec czego indeksował wszystko. Kupując uczestnictwo w funduszu Vanguard, po prostu nabywało się statystyczną próbkę rynku. Przypominało to usuwanie z cen całej wiedzy. W komedii Golfiarze powiedziano, że Danny Noonan ma być piłką; fundusz Vanguard mówił nam, że mamy być rynkiem. Ale jeśli jesteśmy rynkiem, nie kształtujemy go; odbija się nas i nami drybluje. Claude Shannon, bezkonkurencyjny specjalista od inwestycji alfa, o czym się przekonamy podczas lektury tej książki, nie byłby tym rozbawiony.
Dwadzieścia pięć lat później indeksuje się bezmyślnie znaczną część rynku. Oznacza to, że wszystko jest betą. Wiedza jest wypłukiwana przez falę szumu i szybkiego tradingu. Wchodzą komputery, odchodzą ludzie; to aż nazbyt urzeczywistnione klasyczne wizje science fiction z lat siedemdziesiątych. Krzyk bezdomnego grającego w grę Angry Birds zainstalowaną w iPhonie kończy mój seans w metrze z mądrością lat siedemdziesiątych.
Indeks to rynek. To nośnik, kanał, jak to w matematycznym modelu ujął Claude Shannon z Laboratoriów Bella (Bell Labs) w przełomowej książce poświęconej teorii informacji. Kierowanie się indeksem może przynieść jedynie przewidywalną rynkową stopę zwrotu, w większości pozbawioną zysków osiąganych dzięki kreatywności i innowacji, które w wielkim stopniu zapewniają spółki nowe, nieuwzględniane przy obliczaniu indeksów. Musiałem pokonać indeksy — i to dużą różnicą. A to oznacza, że potrzebowałem wiedzy. Wykorzystując kanał, wiedza zapowiada deformację średniej. Jest to zasygnalizowane przez zaskoczenie, wyniki odbiegające od oczekiwanych, i lepsze, i gorsze, ale urzeczywistni się dopiero wtedy, gdy zrozumie się to, co odbiega od oczekiwań, czyli informację.
Gdy zaczynała się opisywana w tej książce rewolucja informatyczna, miałem pewną przewagę. Swoją karierę bowiem zaczynałem w Laboratoriach Bella, trzydzieści pięć lat po Shannonie. W pierwszy dzień pracy otrzymywało się teczkę ze sztucznej skóry mającą dwadzieścia dwa centymetry na trzydzieści. W dolnym narożniku znajdował się znaczek firmowy. Przy każdym wejściu i wyjściu stali strażnicy, którzy sprawdzali, czy pracownicy… hm, nie wyprowadzają firmowego sprzętu na wolność. Strażnicy jednak kierowali się pewną zasadą — nie przeszukiwali firmowych teczek.
W czasach, kiedy nie było jeszcze komputerów osobistych, pracownicy Laboratoriów Bella — no, dobrze, o mnie chodzi! — próbowali wynieść do domu minikomputer PDP-11 Digital Equipment, rozbierając go i wynosząc w częściach w firmowych teczkach, tak jak pisarz kompanijny z serialu M*A*S*H, kapral Radar O’Reilly, wysyłał do domu dżipa w częściach. Plotka głosi, że przez te firmowe torby William Shockley i jego współpracownicy wynaleźli tranzystor. Maszyny z lampami elektronicznymi nie pasowały — za dużo materiału, za mało informacji. W Laboratoriach Bella redukowaliśmy wszystko do informacji. Dziś to niemal wyłącznie informacja, a klejnoty koronne, czyli programy tej firmy, można wynieść na pamięci USB.
W każdym razie po kilku latach odszedłem z Laboratoriów Bella i przeniosłem się na Wall Street.
Gdy powoli szedłem tą ulicą, thab-dab stawało się coraz głośniejsze. To był rynek, puls ulicy. To, o czym myślą wszyscy. Codziennie uderza nas strumień informacji z wielką siłą, jak z sikawki strażackiej, docierając na bieżąco z „Wall Street Journal”, Yahoo! Finance, otrzymywanych na bieżąco notowań giełdowych i z komunikatów dla mediów oraz StockTwits.
Nadal jednak nie mam wiedzy, interpretując te zaskoczenia, o których inni nie wiedzą, które napędzą nową opowieść. Trzeba pracować i myśleć, i żyć w stresie, i się niepokoić, aby domyślać się tych zaskoczeń, najpierw badając ten puls.
Podczas tej bitwy zostanie oddzielonych jedynie kilka maleńkich klejnocików, spostrzeżeń i wglądów składających się na nową wiedzę. Jeśli się tak nie stanie, moje „pięćset koła” wraca do szamba indeksu. Trzeba wysłyszeć to thab-dab.
Poza kilkoma wyjątkowymi okresami baniek rynkowych nie ma zysku, jeśli nie ma szumu. Jeżeli jest to aż tak dotkliwie oczywiste jak w przypadku spółek Nifty Fifty z lat siedemdziesiątych; jeżeli małżeństwa emerytów rozmawiają o kupnie dodatkowych akcji Apple w ciszy Admiral’s Club na lotnisku, zmykaj, aż powróci szum.
Będąc inwestorem, muszę czuć ten puls każdego dnia i przesiewać bezsensowną gadaninę, aby oddzielić złoto. Ten puls musi pobrzmiewać w moich żyłach, ale tylko w ten sposób mogę zrozumieć, co rynek mówi dziś. Później muszę walczyć z uspokajającym efektem tego thab-dab konwencjonalnego myślenia i odważyć się wyjść w szum, ku granicom, tam, gdzie coś może się zdarzyć, aby znaleźć nowe informacje i to, co nastąpi, co może doprowadzić do wiedzy. Wytropić to równie trudno jak humbaka, ale to tam jest.
W gąszczu tendencji występujących na Wall Street trudno jednak rozpoznać, co jest prawdziwe, a co jest tylko syntetyzowanym dźwiękiem. „Reg FD” — kompletne ujawnienie informacji zgodne z regulacjami — oznacza, że co kwartał spółki jedynie podają „wskazówki” dotyczące tego, jak postrzegają działalność biznesową, podczas konferencji prasowych, kiedy do publicznej wiadomości przekazywane są informacje o zyskach, gdy padają pytania w rodzaju: „Gratulacje z powodu znakomitego kwartału; jak się zmieni wasza stawka podatkowa?”. Claude Shannon być może nazwałby to przekazem o zerowej entropii. Usuwa się z rynku informacje, gdy ja ich potrzebuję coraz więcej.
Gdy beta wynosi 1,0, każda próbka rynku dokładnie podsumowuje średnie rynkowe. To wgląd wyciągnięty z informacji — tej alfy — która na Wall Street oddziela zwycięzców od drzemiących. Indeksowanie jest stertą śmieci — informacja jest tak stopiona i stłumiona, że raczej wiedzę skrywa, niż ujawnia. Wszystko tylko beta, alfy wcale.
Co wobec tego robią najlepsi współcześni menedżerowie zarządzający pieniędzmi? Żyją dla tego pulsu, w tym pulsie, ale później dochodzą do tego, często wykorzystując wytrenowany instynkt, co jest odmienne i co się zmieni — gdzie pojawią się zaskoczenia — gdzie Shannon ukrył entropię. To cenna wiedza. Nie ma już spółek Nifty Fifty, których akcjami handlowali traderzy w garniturach casual, nie ma indeksowania, nie ma otwierania i zamykania pozycji tego samego dnia, nie ma inwestowania na podstawie momentum, nie ma więcej głupot.
Przeniosłem się więc do Palo Alto w środku Doliny Krzemowej. Czemu do Doliny Krzemowej, gdzie dom o powierzchni stu czterdziestu metrów kwadratowych kosztuje dwa i pół miliona dolarów? Bo tam pojawiają się zaskoczenia. Okazało się, że pobicie rynku nie ma nic wspólnego z handlem czy bebechami Wall Street. Wiąże się z rozumieniem i przewidywaniem zaskoczeń, zmian i tkaniny produktywności gospodarki. Reszta to szum.
Każdego dnia w Dolinie Krzemowej ktoś pisze pomysłowy program komputerowy, który zmienia handel detaliczny, albo wykorzystuje teorię informacji, aby napisać algorytm zapewniający bezpieczeństwo, albo wynajduje nowy sposób kształtowania wiązek Wi-Fi. To wszystko zaskoczenia. Odejście od mnóstwa transakcji giełdowych, aby wejść w mikroskopowe szczegóły zmian dokonujących się w dziedzinie techniki oraz badać ich wpływ na interfejsy między ludźmi a maszynami, a także zająć się tym, dlaczego upadnie wiele istniejących branż, to jedyny sposób zdobycia rzeczywistej wiedzy umożliwiającej działanie.
Nie ma dnia, w którym coś mnie nie zaskoczy. Wiele lat temu spotkałem się z zespołem, który potrafił bardzo tanio przesyłać pięć gigabitów informacji na sekundę kilkumetrowym przewodem, co wtedy było niewyobrażalne. Nie wiedziałem, że to potraficie, ale voila` , tak narodził się system HDMI (high-definition multimedia interface, interfejs multimedialny o wysokiej rozdzielczości). Prawie mogę zagwarantować, że właśnie w ten sposób sygnał wideo o wysokiej rozdzielczości dochodzi do waszych telewizorów z płaskimi ekranami. Rzecz zmieniająca zasady gry — nie z dnia na dzień, ale przez lata. Nie był to może kolejny Microsoft, ale coś dostatecznie dobrego. Przeszło od szumu do opowieści, pulsacji i wytworzono olbrzymie bogactwo.
Nie ujmie tego żaden indeks. Indeks działa wstecz. Zasadnicza alfa, czyli entropia, sygnał modulujący ten linearny postęp — informacja na tyle lekka, że można ją schować w torbie Bella albo zapisać w pamięci USB, aby dzięki niej kształtować przyszłość — pochodzi z wiedzy o zaskoczeniach w dziedzinie przedsiębiorczości opracowywanych na krawędzi szumu.
Wielka opowieść o rozwoju gospodarki zmienia się każdego dnia. To produktywność i postęp. Właśnie ten wysokoenergetyczny przekaz rynek jako medium przenosi w przyszłość.
Andy Kessler
WIĘKSZOŚĆ LUDZI zdaje sobie sprawę z tego, że ich życie gospodarcze jest pełne niespodzianek. Nie jesteśmy w stanie przewidzieć jutrzejszej wartości posiadanych przez nas domów czy mieszkań ani cen akcji na giełdzie. Nie umiemy antycypować chorób ani wypadków drogowych, zachowania naszych dzieci ani dochodów naszych rodziców. Nie ma takiej możliwości, żebyśmy wiedzieli, jaka pogoda będzie za jakiś tydzień. Nie umiemy przewidzieć, jakie studia zapewnią najlepsze zarobki czy karierę na całe życie. Wiadomości nieustannie nas zaskakują. Niemal w ogóle nie umiemy przewidywać przyszłości.
Ekonomia jednak utrzymuje, że jakimś dziwnym zrządzeniem jej ten życiowy fakt nie dotyczy. Od Adama Smitha po dziś dzień ta dyscyplina naukowa zajmuje się przede wszystkim wykazywaniem, że wydarzenia gospodarcze nie zdumiewają. Przy podaży zboża wynoszącej x i popycie y cena będzie z. Gdy zmieni się x albo y, pozostawiając całą resztę bez zmian, cena wyniesie przewidywalne z. Dostrzeżenie uporządkowanych zasad rządzących widomym chaosem życia było znaczącym osiągnięciem, które nadal zdumiewa. Ekonomiści tacy jak Steven Levitt, słynny autor Freakonomii, oraz Gary Becker z Uniwersytetu Chicagowskiego stali się gwiazdami medialnymi z powodu niezwykłej zdolności ukazywania tego, „co powinniśmy byli wiedzieć”1. Dokładniejsze badania ujawniają jednak, że nawet ci uzdolnieni analitycy są mądrzy przede wszystkim po fakcie. Prosperują raczej dzięki temu, że wyjaśniają nam, co się stało, niż w wyniku prognozowania przyszłości na podstawie wcześniejszej wiedzy.
Stała cecha ludzkiej natury powoduje, że człowiek z pasją poszukuje systemu w doświadczeniu, zastępując zaskoczenie porządkiem. Pod koniec XVIII wieku, gdy Adam Smith napisał książkę Bogactwo narodów, to pragnienie ładu znalazło spełnienie w najbardziej zdumiewającym osiągnięciu intelektualnym XVII stulecia, mianowicie wynalazku rachunku różniczkowego i całkowego. Napędzana przez rachunek różniczkowy i całkowy nowa fizyka Izaaca Newtona i jego naśladowców wydobyła matematyczny ład z tego, co wcześniej było mieszaniną alchemii i astronomii, projekcji i modlitw. Nowa fizyka opisywała wszechświat, którym rządziły zwięźle ujęte reguły pozwalające z wielką dokładnością przewidywać zdarzenia. Nauka zaczęła oznaczać usuwanie zaskoczeń. Wygnała cudy, ponieważ cudy są przede wszystkim niespodziewane.
Eliminacja niespodzianek w pewnych dziedzinach to warunek kreatywności w innych. Jeżeli kompas przestanie wskazywać północ, nikt nie będzie mógł odkryć Ameryki. Świat kurczy się do tajemnicy pogody i fal. Przełomowe odkrycia determinizmu w fizyce zapewniły wiarygodny kompas na trzy stulecia postępu.
Zainspirowany wizją Newtona, że wszechświat to „wielka maszyna”, Smith próbował się doszukać podobnej mechanicznej przewidywalności w ekonomii. W tym przypadku „niewidzialna ręka” bodźców rynkowych odgrywa rolę grawitacji w fizyce klasycznej. Skodyfikowany w ciągu następnych 150 lat i zwieńczony Zasadami ekonomiki Alfreda Marshalla model klasyczny pozostaje triumfem ludzkiego umysłu, zaskakująco jasnym i użytecznym opisem systemów gospodarczych oraz najważniejszych zasad, które pozwalają im doskonale funkcjonować.
W tym całym imponującym osiągnięciu nie wzięto jednak pod uwagę jednej wyrwy nie do przekroczenia między fizyką a każdą nauką badającą ludzkie zachowanie, mianowicie zaskoczeń, które wynikają z wolnej woli i ludzkiej kreatywności. Cudy niedopuszczalne w deterministycznej fizyce nie tylko są czymś normalnym w ekonomii, lecz stanowią najważniejsze wydarzenia gospodarcze. Cud bowiem to po prostu innowacja, nagły i obfity dodatek informacji do systemu. Newtonowska fizyka nie dopuszcza nowych informacji takiego rodzaju — opisuje się system i gotowe. Gdy opisze się system gospodarczy, opisane zostaną tylko okoliczności sprzyjające albo niesprzyjające przyszłym innowacjom.
W fizyce Newtona równania obejmują i opisują zmianę, ale nie potrzeba opisywać sprawcy powodującego tę zmianę, twórcy nowych informacji. (Newton był żarliwym chrześcijaninem, ale w jego systemie Boga i aniołów zwolniono z obowiązku kierowania sferami niebieskimi). W gospodarce jednak wszystko, co użyteczne bądź interesujące, zależy od sprawców zmian zwanych przedsiębiorcami. Ekonomia zajmująca się wyłącznie systemami — czyli ekonomia rynków, lecz nie ludzi — cechuje się fatalną wadą.
Wadliwa od fundamentów, całość ekonomii nie poprawiła się wiele z czasem. Ponieważ i skostniał w akademicki establishment, i zmutował do matematyki, Newtonowski model stał się iluzją determinizmu w burzliwym świecie ludzkich działań. Ekonomiści zajęli się przede wszystkim mechanicznymi modelami rynków i nie zważali na obdarzonych wolą ludzi zamieszkujących te rynki.
Jedni ekonomiści obsesyjnie zajęli się sprawnością rynków, inni natomiast ich wadami. Ogólnie uważani za przedstawicieli przeciwnych szkół — „słodkowodnej” i „słonowodnej”, chicagowskiej i cambridge’owskiej, lewicowej i konserwatywnej, austriackiej i keynesowskiej2 — reprezentanci obu stron podzielają pewną zasadniczą wizję ekonomiczną. Uważają bowiem, że ich dyscyplina odnosi sukcesy o tyle, o ile eliminuje zaskoczenia — czyli o tyle, o ile nieuchronne działanie maszyny przeważa nad inicjatywami ludzi.
Ekonomiści „wolnorynkowi” są przekonani o triumfie systemu i chcą go zostawić w spokoju, aby sam odnalazł własną równowagę, stabilny stan optymalnej alokacji zasobów. Socjaliści zauważają wady systemu i chcą odgórnie narzucać równowagę. Ani jedni, ani drudzy nie poświęcają wiele czasu rozmyślaniom nad cudami, które systematycznie ocalają nas od równowagi głodu i śmierci.
Niedawny kryzys finansowy był przypuszczalnie pierwszym w historii, który spowodowali ekonomiści. Upojeni modelami statystycznymi nie zważali na większe wymiary ludzkiej kreatywności i wolności. W pewnym oczywistym przykładzie „strukturyzowane instrumenty finansowe” — czyli konglomeraty tysięcy wątpliwych kredytów hipotecznych, pokrojonych, posiekanych i ponownie połączonych, a następnie chwiejnie ubezpieczonych od niewypłacalności — miały wyeliminować zaskoczenie spowodowane przez niewypłacalność osób zaciągających kredyty hipoteczne. Przypadki niespłacania kredytów hipotecznych, które i tak nastąpiły i wywołały krach, nie wzięły się z tego, że kredytobiorcy nie spłacali ich przez jakąś zagregowaną niezdolność do obsługi zadłużenia, jak to zakładali ekonomiści, lecz były skutkiem wolnych działań nabywców nieruchomości mieszkalnych. Postawiwszy na to, że ceny tych nieruchomości będą stale wzrastały, po prostu spletli dłonie i sobie poszli, gdy wartość tych domów i mieszkań gwałtownie spadła. Bankowcy wzięli pod uwagę wszystko oprócz wolnej woli.
Prawdziwy błąd jednak polegał na tym, że oddalili się od siebie ludzie, którzy rozumieli sytuację w świecie przeciętnych ludzi, i ludzie podejmujący decyzje. John Allison był prezesem BB&T, banku działającego w Karolinie Północnej, który z zyskiem przeszedł przez kryzys po tym, jak wartość jego aktywów wzrosła z 4,5 miliarda dolarów w 1989 roku, kiedy objął stanowisko, do 152 miliardów dolarów w roku 2008. Allison przypisał swój sukces decentralizacji władzy w oddziałach banku.
Ostrzegał jednak, że zdecentralizowanej władzy trzeba strzec przed kierującymi się dobrymi intencjami elitami, które „lubią kierować systemem i nie znoszą odchyleń”. Prezesując, musiał podkreślać w kontaktach z podległymi mu menedżerami, że przy podejmowaniu decyzji na skalę lokalną „dostajemy lepsze informacje, dostajemy szybciej decyzje i lepiej rozumiemy rynek”3.
Allison wyrażał zasadniczy wgląd nowej ekonomii informacji. Sednem kapitalizmu jest ujednolicenie wiedzy i władzy. Friedrich Hayek, najwybitniejszy ekonomista szkoły austriackiej, ujął to następująco: „Zakładanie, że całą wiedzę można dać jednemu umysłowi, […] to lekceważenie wszystkiego, co ważne i znaczące w rzeczywistym świecie”4. Ponieważ wiedza jest rozproszona, rozproszona musi być również władza. Wybitni intelektualiści reprezentujący szkołę klasyczną, na przykład Thomas Sowell, oraz przedstawiciele szkoły ekonomii podaży, tacy jak Robert Mundell, dopracowali tę teorię5. Wszyscy oni dostrzegali, że wiedza mająca zasadnicze znaczenie w gospodarkach powstaje w jednostkowych ludzkich umysłach, a wobec tego jest z natury odśrodkowa, rozproszona i rozdzielona.
Najwidoczniejszą cechą ludzkich istot jest ich zróżnicowanie, będące skutkiem czynników genetycznych, rozmnażania płciowego, perspektywy i doświadczeń. Im więcej wolności w gospodarce, tym bardziej uwidoczni się to cechujące ludzi zróżnicowanie wiedzy. Natomiast władza polityczna powstaje w procesach przebiegających „z góry na dół” — tak działają rządy, monopole, twórcy regulacji i elitarne instytucje — z których wszystkie dążą do stłumienia różnorodności i narzucenia porządku. Z tego powodu władza zawsze zmierza do centralizacji.
Wojna między centryfugą wiedzy a dośrodkową siłą władzy pozostaje zasadniczym konfliktem we wszystkich gospodarkach. Godzenie tych impulsów to nowa ekonomia, ekonomia, która wolnej woli i innowacyjnych przedsiębiorców nie odsyła na obrzeża, lecz umieszcza w środku systemu. To ekonomia zaskoczenia, która dokonuje dystrybucji władzy, gdy rozszerza zakres wiedzy. To ekonomia nierównowagi i zakłóceń, testująca swoje wynalazki w tyglu rynku, na którym panuje konkurencja. To ekonomia, która pozostaje w zgodzie z nieustannie zaskakującymi wahaniami występującymi w naszym życiu.
W pewnym sensie przedstawiłem taką ekonomię ponad trzydzieści lat temu w książce zatytułowanej Bogactwo i ubóstwo, po czym wprowadziłem ją ponownie w 2012 roku w nowym wydaniu. Książka ta była poświęcona ekonomii ukazywanej jako „w wielkim stopniu samoczynne i w większości nieprzewidywalne płynięcie wzrastającej odmienności i zróżnicowania oraz nowych produktów i metod produkcji […] pełne tajemnicy cechującej wszystko, co jest żywe i rośnie (jak pomysły i firmy)”. Zapowiadając to, co nazwano ekonomią podażową (z powodu jej pogardy dla zwykłego popytu pieniężnego), książka ta opiewała zaskoczenia kreatywności w dziedzinie przedsiębiorczości. Wydana w przekładach na piętnaście języków oryginalna praca była czytana na całym świecie i przez pół roku pozostawała na pierwszym miejscu listy bestsellerów we Francji. Spośród żyjących autorów byłem najczęściej cytowanym przez prezydenta Ronalda Reagana.
W dziesięcioleciach, które upłynęły między publikacją dwóch wydań Bogactwa i ubóstwa, zacząłem inwestować w nowe spółki i bardzo się zaangażowałem w badania dynamiki technologii komputerowych i sieciowych oraz badania teorii informacji będących podstawą tych technologii. W trakcie tego procesu zacząłem dostrzegać, jak w nowy sposób podchodzić do spraw ekonomii i zaskoczenia.
Gdy wyraźnie skupiamy się na wiedzy i władzy, pozwala to nam wykroczyć poza wynikające ze złej woli zarzuty socjalizmu i faszyzmu, pazerności i wykorzystywania stanowisk do osiągania korzyści, „ekonomii wudu” i teorii „ściekania”, opracowywanych z obojętnością programów cięć oraz rozkapryszonej i nadmiernej rozrzutności, konserwatywnego dogmatyzmu i liberalnej swobody.
Zaczniemy od twierdzenia, że kapitalizm nie jest przede wszystkim systemem bodźców, lecz systemem informacji. Później przechodzimy do przyznania tego, co tłumaczy najpotężniejsza nauka tej epoki, twierdząc, że samą informację najlepiej określać jako zaskoczenie — jest raczej tym, czego nie możemy przewidzieć, niż tym, co przewidzieć potrafimy. O wzroście gospodarczym decyduje przede wszystkim nie nabywanie rzeczy wskutek dążenia do nagród pieniężnych, lecz ekspansja zamożności poprzez naukę i odkrycia. Gospodarka nie rozwija się przez manipulacje pazernością i obawami za pomocą łapówek i kar, lecz w następstwie akumulacji zaskakującej wiedzy poprzez prowadzenie falsyfikowalnych eksperymentów swobodnie funkcjonujących przedsięwzięć. W tym procesie uczenia się zasadnicze znaczenie ma możliwość niewypłacalności i bankructwa.
Ponieważ ten system w większym stopniu opiera się na koncepcjach niż na bodźcach, nie jest procesem, który ulega zmianom dopiero po wielu dziesięcioleciach syzyfowych prac. Gospodarka to „noosfera” (system, którego podstawą są umysły), wobec czego może odżywać tak szybko, jak szybko mogą się zmieniać umysły i programy polityczne.
Ta nowa ekonomia — informacyjna teoria kapitalizmu — już działa w przebraniu. Ukryta za złożonym aparatem matematycznym, zarekwirowana przez jego twórców i umieszczona w tym, co nazywa się technologią informatyczną, napędza najpotężniejsze maszyny i sieci tej ery. W teorii informatycznej ludzkie wytwory bądź komunikaty uważa się za przekazy przesyłane pewnym kanałem, którym może być i przewód elektryczny, i świat, przeciwstawiające się potędze szumu, a wyniki ocenia się na podstawie ich nowości lub wywoływanego zaskoczenia, co jest określane jako „entropia” i konsumowane jako wiedza. Teraz jest gotowa się ujawnić oraz przekształcić ekonomię, gdy już przekształciła światową gospodarkę.
S. Levitt, S. Dubner, Freakonomics: A Rogue Economist Explains the Hidden Side of Everything, wydanie poprawione i rozszerzone, William Morrow, 2006 (wydanie polskie: Freakonomia. Świat od podszewki, Kraków: Znak, 2011); G. Becker (laureat Nagrody Nobla), G.N. Becker, The Economics of Life: From Baseball to Affirmative Action to Immigration, How Real-World Issues Affect our Everyday Life, New York: McGraw-Hill, 1996 (wydanie polskie: Ekonomia życia. Od baseballu do akcji afirmatywnej i imigracji, czyli w jaki sposób sprawy realnego świata wpływają na nasze codzienne życie, Gliwice: Onepress, 2006). W książce zatytułowanej Redeeming Economics: Rediscovering the Missing Element (Wilmington: ISI Books, 2010) John D. Mueller wykpiwa pewne prostsze tezy Levitta i Beckera dla mas, odmiennie podchodząc do sprawy konieczności nowej ekonomii. Zob. szczególnie rozdział 8, An Empirical Test: Fatherhood and Homicide (s. 185–187). [wróć]
Praca Marka Skousena zatytułowana Vienna & Chicago: A Tale of Two Schools of Free Market Economics (Washington: Capital Press, 2005) to arcydzieło zwięzłej i erudycyjnej historii gospodarczej oraz analizy omawiającej te kanoniczne źródła austriackiej i chicagowskiej myśli ekonomicznej. Odkrywcza i wartościowa jest również jego książka zatytułowana The Big Three in Economics: Adam Smith, Karl Marx, and John Maynard Keynes (Armonk: M.E. Sharpe, 2007). Cenne tło dla tej publikacji zapewniają: D. Warsh, Knowledge and the Wealth of Nations (New York: W.W. Norton & Company, 2007; wydanie polskie: Wiedza i bogactwo narodów, Warszawa: IWI, 2013) oraz G.L.S. Shackle, Epistemics and Economics: A Critique of Economic Doctrines (Cambridge: Cambridge University Press, 1972). [wróć]
J. Allison, The Financial Crisis and the Free Market Cure, New York: McGraw-Hill, 2012. Allison opisuje tam, jak prowadzony przez niego bank doskonale przeszedł przez kryzys. Pisze też o potrzebnej korekcie gloryfikacji „wielkich bankowców”, takich jak Hank Paulson czy Tim Geithner. [wróć]
Rozstrzygające stwierdzenie co do problemu wiedzy Friedrich Hayek zawarł w artykule zatytułowanym The Use of Knowledge in Society, „American Economic Review” XXXV (1945), s. 30. Pisze tak: „Szczególny charakter problemu racjonalnego ładu gospodarczego jest przesądzony dokładnie przez to, że znajomość okoliczności, które musimy wykorzystywać, nigdy nie istnieje w formie skoncentrowanej bądź zintegrowanej, lecz wyłącznie w postaci rozproszonych fragmentów wiedzy niepełnej i często sprzecznej, które mają wszystkie odrębne jednostki. Gospodarczy problem społeczeństwa nie jest więc tylko problemem tego, jak dokonać alokacji »danych« zasobów — jeśli słowo »dane« ma oznaczać dane jednemu umysłowi, który świadomie rozwiązuje problem postawiony przez te »dane«. To raczej problem tego, jak zapewnić najlepszy sposób wykorzystania zasobów znanych każdemu z członków społeczeństwa do celów, których względne znaczenie jest znane wyłącznie tym jednostkom. Ujmując to krótko, można też powiedzieć, że to problem wykorzystania wiedzy, która nie jest dana nikomu w pełni. […] Tak więc problem w ogóle nie zostaje rozwiązany, jeżeli możemy wykazać, że wszystkie fakty, gdyby były znane jednemu umysłowi (jak hipotetycznie zakładamy, uważając, że są dane obserwującemu ekonomiście), przesądziłyby o rozwiązaniu w jedyny sposób; musimy zamiast tego wykazać, jak rozwiązanie zostaje wytworzone przez interakcje ludzi, z których każdy ma tylko częściową wiedzę. Zakładanie, że całą wiedzę można dać jednemu umysłowi w ten sam sposób, w który w naszych założeniach jest dana nam, ekonomistom przedstawiającym wyjaśnienia, to odsuwanie problemu przez błędne założenia i lekceważenie wszystkiego, co ważne i znaczące w rzeczywistym świecie”. [wróć]
Książka Thomasa Sowella zatytułowana Knowledge and Decisions (New York: Basic Books, 1980) wprowadziła mnie w sferę przybywających konsekwencji kwestii wiedzy w ekonomii oraz szkód wyrządzanych przez ingerencje władzy politycznej. Jego książka mogłaby nosić tytuł „Wiedza i władza”, ale tytuł swojej publikacji wziąłem z tytułu książki Arnolda KlingaUnchecked and Unbalanced: How the Discrepancy Between Knowledge and Power Caused the Financial Crisis and Threatens Democracy (Lanham: Rowman & Littlefield, 2010), którą otwiera następujące zdanie: „Książka ta stanowi próbę zbadania problemu różnic między tendencjami obserwowanymi w dwóch dziedzinach: wiedza staje się bardziej rozproszona, a władza polityczna jest coraz bardziej skupiona”. W swojej książce wykazuję, że wgląd Klinga jest głęboko zakorzeniony w teorii informacji, która leży u podstaw współczesnej gospodarki światowej. [wróć]
PO RAZ PIERWSZY zetknąłem się z teorią informacji w centrum współczesnej gospodarki kapitalistycznej w 1993 roku, podczas wyjazdu w rejon piaszczystych wzgórz La Jolla w Kalifornii, na północ od San Diego.
Udałem się tam do założonej osiem lat wcześniej firmy Qual comm Corporation. Poprzez skomputeryzowanie komunikacji między wszystkimi przenośnymi urządzeniami używanymi przez nas każdego dnia, mianowicie telefonami komórkowymi, iPadami, czytnikami Kindle czy netbookami — korporacja Qualcomm stała się jedną z najcenniejszych i najbardziej wpływowych firm świata. W 2012 roku jej wartość rynkowa przekroczyła 110 miliardów dolarów, w wyniku czego korporacja pokonała Intela, najwyżej wycenianego amerykańskiego producenta mikroprocesorów. Ale na początku lat dziewięćdziesiątych firma Qualcomm budziła wrogość, którą zwykle wywoływały wyłącznie koncerny tytoniowe.
Pisząc co miesiąc artykuły dla pisma „Forbes ASAP” poświęconego najnowszym technologiom, przekonałem się, że otaczają mnie zajadli wrogowie tego najwyraźniej niewinnego dostawcy usług bezprzewodowych. Przedstawiciele kadr zarządzających najwyższych szczebli i zajmujący wysokie stanowiska doradcy — niekiedy zdarzało się nawet, że inżynierowie lub naukowcy — nalegali, abym ujawnił spiskowy fanatyczny kult, którym kieruje Qualcomm, aby zwieść cały świat i nakłonić go do przyjęcia tego, co nazywali niemożliwie złożoną i fizycznie niepraktyczną cyfrową technologią bezprzewodową. Gdy wygłaszałem odczyt w Niemczech, żarliwy przeciwnik Qualcommu przerwał mi, ostrzegając moich słuchaczy — szefów europejskich firm telekomunikacyjnych — przed moim wywrotowym przekazem, że technologia tej korporacji zwycięży.
Przeciwko systemowi stosowanemu przez Qualcomm zwykle wysuwano zarzut, że „gwałci prawa fizyki”. Tak mi tłumaczył Bruce Lusignan, profesor Uniwersytetu Stanforda wykładający na wydziale elektrycznym. Będąc naukowcem mającym na swoim koncie szesnaście patentów z dziedziny przetwarzania sygnałów i dziedzin pokrewnych, Lusignan zasadniczo wie, o czym mówi. Zwracał uwagę, że prawa fizyki „wolą przesył analogowy od cyfrowego”. Jego zdaniem, gdyby tyle zainwestowano w modernizację istniejącego systemu, ile przeznaczono na rozwój cyfrowego, przyszłość telefonów komórkowych byłaby analogowa.
Lusignan miał rację co do praw fizyki. Sygnały analogowe reprodukują pełne fale dźwiękowe głosów nie w postaci fal próbkowanych dwukrotnie w czasie cyklu (jednego herca), aby uzyskać numeryczne przybliżenie dźwięku, lecz w formie pełnych fal elektrycznych. Przesył sygnału analogowego jest zdecydowanie skuteczniejszy w przypadku transmisji dźwięku, a do tego wtedy wykorzystywano go w ponad 60 procentach wszystkich usług w amerykańskich sieciach komórkowych.
Lusignan nie wziął jednak pod uwagę efektu praw informacji, w wyniku którego korporacja Qualcomm przezwyciężyła prawa fizyki. W naszych czasach intelektualny prestiż fizyki, przynajmniej wśród osób spoza środowiska naukowego, jest ogromny. Jeśli jednak chodzi o przekazywanie informacji, modele fizyczne są stosunkowo ubogie w porównaniu z modelami chemicznymi, które z kolei kiepsko wypadają zestawione z biologicznymi. Kilka tysięcy linii kodu genetycznego (maleńki ułamek genomu dowolnego organizmu) przenosi więcej informacji od czegokolwiek z dziedziny fizyki.
Podziwiamy fizykę, ponieważ w porównaniu z biologią jest stosunkowo kompletna. Doskonale wiemy, jak funkcjonuje Układ Słoneczny; układ immunologiczny wprawia nas w zakłopotanie. Dokonaliśmy rozszczepienia atomu, zanim znaleźliśmy lek na chorobę Heinego–Medina. Fizyka jest kompletniejsza właśnie z tego powodu, że informacje zawarte w tym systemie są bardzo ograniczone. Zabicie wirusa bez zabijania człowieka, który go przenosi, okazuje się zadaniem ogromnie bardziej złożonym i wymagającym znacznie więcej informacji niż krążenie po orbicie planety, badanie Marsa czy obrócenie Hiroszimy w popiół. Przypomnijmy, że ostatnia z tych rzeczy wymagała jedynie samolotu o napędzie śmigłowym, silnika spalinowego oraz bomby skonstruowanej w niecałe pięć lat.
Fizyka nie jest ostatnim słowem. Firma Qualcomm zatriumfowała, wykraczając poza fizykę, do dziedziny nowej nauki informacji, przekształcając fizyczną rzadkość „pasma przesyłu” w obfitość komunikacji bezprzewodowej.
„Pasmem” jest widoczna fizyczna przepustowość połączenia; może to być połączenie za pomocą przewodu, fal radiowych, kabla wykorzystywanego w telewizji kablowej, sieci światłowodowej, w której przesyła się fale świetlne, albo tajemniczej „chmury” telekomunikacyjnej. Po stronie odbiorcy musimy potrafić odróżnić sygnał od „szumu”, czyli słowo od przewodu. Jeżeli treść ma dotrzeć, musi istnieć możliwość oddzielenia ładunku od opakowania.
W dziedzinie biologii Francis Crick nazwał ten postulat głównym dogmatem: informacja może płynąć od komunikatu genetycznego do jego wcielenia w białkach — od słowa do ciała — lecz nie w kierunku przeciwnym. Podobnie jest w komunikacji — wszelki przepływ o przeciwnym kierunku, od fizycznego nośnika do treści komunikatu, jest nazywany szumem.
Przesył można polepszyć między innymi przez eliminację szumu: przez zapewnienie maksymalnej stabilności kanału, aby każdą modulację nośnika można uważać za „sygnał”. Komunikujemy się, wykorzystując fizyczny kontrast między cichym kanałem a głośnym sygnałem. Qualcomm to wszystko zmieni, uznając, że nie będzie eliminować szumu, lecz wykroczy ponad niego i przekształci go w informację. Opanowanie permutacji szumu, o czym miałem się przekonać, ma zasadnicze znaczenie dla osiągnięć Qualcommu i koncepcji przyjmowanych w teorii informacji.
Zanim się wybrałem do Qualcommu, w dziedzinie najnowszych technologii największy entuzjazm wywoływała we mnie fizyka krzemu. W 1989 roku napisałem książkę zatytułowaną Microcosm: The Quantum Era in Science and Technology (Mikro kosmos. Era kwantowa w nauce i technologii). Wykorzystałem wtedy fizykę, aby zrozumieć dynamikę nowej branży półprzewodnikowej. Z upodobaniem przywoływałem poetyckie wizje Blake’a, który widział „światy w ziarenkach piasku”. Uważałem, że słowa te zapowiadają mikroprocesor, w którym olbrzymie sieci złożonych obwodów mieszczą się na okruchach nieprzejrzystego krzemu. Rozszerzyłem tę wizję, mówiąc o „rozprzestrzenianiu ziaren piasku na całym świecie” poprzez globalne sieci szkła i światła. Byłem przekonany, że dzięki przejrzystemu krzemowi światłowodów pojawia się nowa i bezprecedensowa obietnica obfitości pasma przesyłu. W obu przypadkach opanowanie fizycznych własności krzemu, umożliwiające przewidywanie i kontrolę jego zachowania, położyło podwaliny pod branżę, w której nieustannie zaskakuje kreatywność.
Zachęcony przez Willa Hicksa, pioniera optyki światłowodów, oraz Paula Greena, inżyniera pracującego w IBM, w 1991 roku stwierdziłem, że te światowe sieci szkła i światła — z pasmami miliony razy szerszymi od tych, które można było uzyskać za pomocą przewodów miedzianych — wprowadzą nas w nową erę ekonomii. Optyka światłowodów umożliwiła nam prawie nieograniczoną szerokość pasma wykorzystywanego do przepływu informacji między państwami, które kiedyś były połączone przede wszystkim wąskimi kanałami handlu morskiego i przewodami miedzianymi cechującymi się znacznym poziomem szumu. Sieci wykonane ze szkła pozwoliły osiągnąć nową ekonomię obfitości. Nazwałem to „włóknosferą” (fibersphere), uznając to przede wszystkim za osiągnięcie fizyki kwantowej i jej inżynieryjnej pochodnej, mianowicie chemii stanu stałego.
Wkrótce się jednak zorientowałem, że ta sfera światłowodowa będzie potrzebować atmosfery tak, jak nasze płuca potrzebują powietrza, jeśli ma służyć mobilnym ludzkim istotom wszędzie tam, dokąd wyruszą. A w atmosferze pasmo przesyłu było znacznie mniej obfite. Nie będzie można konkurować ze Słońcem w San Diego pod względem przesyłania sygnałów fotonowych przez atmosferę. Ograniczone do częstotliwości pozostających poza hiperszerokopasmowym strumieniem światła słonecznego pasmo w atmosferze napotka niepokojące ograniczenia. Niedostatki pas ma były katalizatorem przyczyniającym się do powstania teorii informacji, która stała się podstawą komunikacji bezprzewodowej.
Gdy ostrzegano mnie przed Qualcommem, niewiele wiedziałem o tej firmie i o teorii informacji. Pomyślałem jednak, że powinienem się udać do siedziby głównej tej korporacji, zanim jakiś profesor fizyki z Palo Alto zdecyduje się na zastosowanie aresztu obywatelskiego wobec szefostwa.
Przy niewielkim stoliku stojącym w miejscu, z którego widać było atrium nowej siedziby Qualcommu, założyciele tej firmy, Andrew Viterbi i Irwin Jacobs, próbowali mi wyjaśnić swoją kontrowersyjną technologię. Wysoki i szczupły Jacobs mówił cicho i używał prostych porównań, aby opisać zalety rozwiązania stosowanego przez Qualcomm. Niski i tęgi Viterbi z determinacją dążył do tego, aby wyłożyć decydujące elementy teorii informacji. Wyczuwało się napięcie między nimi. Jeden mówił do mnie, a drugi promował. Nie zdziwiłem się, gdy niecałe dziesięć lat później Viterbi odszedł ze spółki.
Obaj pod względem intelektualnym stali znacznie wyżej od większości szefów, których poznałem, nawet w mózgowej Dolinie Krzemowej. Irwin Jacobs jaśniej tłumaczył mi swój system i więcej jego zdań mogłem cytować w artykułach publikowanych przez „Forbes”. Powiedział mi później, że poszedł do Massachusetts Institute of Technology w połowie lat pięćdziesiątych, aby studiować fizykę i inżynieryjne zastosowania elektromagnetyzmu. Wtedy jednak ekscytację budził wyłącznie Claude Shannon, „wesołkowaty omnibus” (tak go określił John Horgan), który niecałą dekadę wcześniej pierwszy sformułował prawa teorii informacji. Jacobs ostatecznie studiował teorię informacji z Paulem Eliasem, Robertem Fano i Shannonem, a gdy został profesorem, miał gabinet blisko gabinetu Shannona.
Ale to Andrew Viterbi przedstawił mi trudną zagadkę teorii informacji, która spowodowała, że przez dwudziestolecie badałem koncepcje Shannona — od komunikacji, poprzez biologię, po ekonomię. Viterbi na serio uważał, że sekret wyższości Qualcommu polega na dostrzeganiu, iż system komunikacji cechuje się największą przepustowością i sprawnością, gdy krążące w nim treści najbardziej przypominają nie dobrze widoczny kanał i zdecydowany sygnał, lecz niewyraźny strumień „szumu białego”.
Co mógł mieć na myśli? Stukałem we własne neurony, aby zrozumieć koncepcję szumu jako nośnika informacji. Wydawało się, że pogląd Viterbiego owija zagadkę Qualcommu w tajemnicę. Nie ma przecież wątpliwości, że szum jest przeciwieństwem komunikacji, a „biały” oznacza, iż hałas jest równomiernie rozłożony między wszystkie częstotliwości, czyli „barwy” szumu, chowając tajemnicę do enigmy jednorodnych interferencji, by doprowadzić do końca ten zapożyczony od Churchilla obraz.
Stwierdzenie Viterbiego nie tylko kłóciło się ze zdrowym rozsądkiem, ale także przeczyło temu, co mówili niemal wszyscy z tej branży, z którymi rozmawiałem. To może tłumaczyć, dlaczego reszta branży była tak niechętnie nastawiona wobec Qualcommu. Wszystkie firmy telekomunikacyjne angażowały się w zwalczanie szumu, pracowały nad tym, aby go wygnać, stłumić interferencje, uzyskać lepszy stosunek sygnału do szumu i zwiększyć głośność sygnału, aby pokonać brzęczenie. Branża skupiała się wokół standardów przesyłu cyfrowego, które rozbijały strumień sygnału na porcje dopasowane do jednostek czasu i przydzielały jednostki czasu tylko pojedynczym komunikatom bez szumu pochodzącego od innych przesyłów.
Ulubionym systemem cyfrowym był wielodostęp z podziałem czasowym (TDMA), popularny w Europie. Firmy telekomunikacyjne wykorzystywały go do udostępniania lub powielania wszystkich połączeń przewodowych, przy których nie trzeba się było zajmować kapryśnością komunikacji bezprzewodowej. Poprzez umieszczenie każdego pakietu danych w wyłącznym przydziale czasowym i w przydzielonej częstotliwości wielodostęp z podziałem czasowym chronił te pakiety przed interferencjami.
Ta cecha jednak powodowała, że wielodostęp z podziałem czasowym był systemem stosunkowo sztywnym i niesprawnym, gdyż marnowano wszystkie niewykorzystane przydziały jednostek czasu. (Przeważająca część przewodów łączących telefony stacjonarne przez większość czasu jest przecież pusta). Wielodostęp z podziałem czasowym pozwala, aby cenne przydziały czasowe nieodwracalnie mijały jak puste wagony towarowe puszczone po torach. Co więcej, ponieważ tradycyjna strategia polegała na tym, aby krzykiem wypełnić cały wyłączny kanał (w przypadku wielodostępu z podziałem czasowym wyłączny tylko na chwilę), „ściany” przydziałów czasowych w tym systemie musiały być grube. To oznaczało, że trzeba było brać większą część pasma na izolację, aby zdarzenia w domu sąsiadów nie przedostawały się jako szum.
Całkowicie odmiennie działał system Qualcommu, zwany wielodostępem z podziałem kodowym (CDMA). Zamiast mówić głośniej, aby było ich słychać z większej odległości, wszyscy komunikujący się mieli mówić ciszej. Irwin Jacobs porównywał system Qualcommu z przyjęciem, podczas którego każda para komunikujących się osób używała własnego języka. Rozpoznawali, że ktoś się do nich zwraca, nie dlatego, że wykorzystywano przydziały czasowe czy wąskie pasma częstotliwości, lecz w następstwie stosowania kodów. Te kody, rozprzestrzenione w całym dostępnym spektrum, każdemu, kto nie miał dekodera, przypominały szum biały.
W pracy An Introduction to Information Theory: Symbols, Signals, and Noise (Wprowadzenie do teorii informacji. Symbole, sygnały i szum) John R. Pierce, bliski współpracownik Shannona w Laboratoriach Bella (to on ukuł słowo „tranzystor”) wprowadza liczby na tę międzynarodową imprezę1. Inżynierowie mogą wybierać między dwiema strategiami, aby zmaksymalizować przepustowość kanału: mogą poszerzyć pasmo sygnału albo zwiększyć stosunek siły sygnału do szumu. Większość branży dążyła do tego, aby podnieść stosunek siły sygnału do szumu, czyli mówić głośniej, aby być lepiej słyszanym. James Gleick komentował to następująco w doskonałej pracy zatytułowanej The Information (Informacja): „Każdy inżynier, gdy go poproszono o przepuszczenie większej ilości informacji przez jakiś kanał, wiedział, co należy zrobić: zwiększyć siłę”2. Pierce wykazał jednak w roku 1980, że podwojenie szerokości pasma sygnału z czterech megaherców do ośmiu megaherców umożliwia ponadtrzydziestotrzykrotny spadek stosunku siły sygnału do szumu3. Zmniejszenie siły sygnału i poszerzenie pasma okazało się w tym przykładzie ponadszesnastokrotnie skuteczniejsze niż zwiększenie siły sygnału przy utrzymaniu tej samej szerokości pasma. Pojawił się pewien paradoks głośności. Można było słyszeć kogoś lepiej, gdy mówił głośniej, ale gdy głośniej mówili wszyscy, komunikacja tonęła w ogólnym hałasie.
Pierce konkludował następująco: „Jeżeli chcemy się zbliżyć do granicy Shannona dla wybranego pasma, musimy na elementy kodu wybrać długie, złożone fale sygnału przypominające szum gaussowski4. Na tym polegał pomysł Andrew Viterbiego, który zdecydował o sukcesie wielodostępu z podziałem kodowym z rozproszonym widmem.
Otulony w rozszerzony kod, który sprawiał wrażenie słabego szumu tła, ten komunikat z rozproszonym widmem mógł wędrować, tylko nieznacznie wchodząc w interferencje z innymi komunikatami. Szum stopniowo narastał w komórce, gdy przybywało telefonujących użytkowników. Umożliwiając to, że wszystkie połączenia telefoniczne wykorzystują wszystkie częstotliwości w komórce przez cały czas, bez marnotrawnej sztywności przydziałów czasowych wielodostępu z podziałem czasowym ani głośnego chaosu przesyłu analogowego sygnału o dużej sile, wielodostęp z podziałem kodowym zapewniał maksymalizację przepustowości. Aby znaleźć miejsce dla większej liczby użytkowników w czasie korków na autostradzie, kodowane połączenia mogły się nawet przenosić do mniej zatłoczonych sąsiednich komórek, ponieważ wszystkie połączenia i komórki wykorzystywały te same częstotliwości.
Osiągnięcia Qualcommu ekscytowały mnie, gdyż myślałem o przyszłości bezprzewodowego internetu. Dostrzegłem, że wielodostęp z podziałem kodowym będzie znacznie lepszym rozwiązaniem do przesyłu krótkich i nieregularnych porcji danych, które mogłyby się nie mieścić w przydziałach czasowych albo w wąskich pasmach częstotliwości. Koktajlowe przyjęcie wielodostępu z podziałem kodowym zmaksymalizuje komunikację, gdy wszyscy będą mówili jak najciszej w wybranym przez nich języku, czyli kodzie. Dla wszystkich innych w komórce ta komunikacja będzie nie do odróżnienia od szumu tła. Te „quasi-szumowe” kody będą łatwe do przełożenia dla coraz potężniejszych mikroprocesorów stosowanych w telefonach komórkowych, które Qualcomm będzie dostarczać za rozsądną cenę na podstawie umowy sprzedaży bądź umowy licencyjnej. Nie ulegało wątpliwości, że przy pozostałych rzeczach takich samych strategia Qualcommu przeważy.
Faktyczne wiadomości okazały się jednak jeszcze lepsze. Okazało się bowiem, że pozostałe rzeczy nie były takie same. W świecie, w którym obowiązuje prawo Moore’a mówiące, że koszt mocy obliczeniowej spada o połowę co dwa lata, ekonomia krzemu faworyzowała technologie marnotrawiące moce obliczeniowe komputerów, ale zachowujące „fizyczne” zasoby, takie jak spektrum bezprzewodowe. Na tym polegał prawdziwy sens „gospodarki informacji”, którą Peter Drucker i inni dostrzegali tylko w zarysach.
W gospodarce mającej za podstawę informację przedsiębiorcy opanowują naukę informacji, aby pokonać prawa obowiązujące w naukach wyłącznie fizycznych. Mogą odnosić sukcesy z powodu zaskakującej potęgi praw rządzących informacją, które służą ludzkiej kreatywności. W teorii informacji zasadniczym pojęciem jest miara wolności wyboru. Zasadą rządzącą materią, z drugiej strony, nie jest wolność, lecz ograniczenie — materia bowiem waży i zajmuje przestrzeń.
Potęgę każdej nauki ogranicza jej potencjał informacyjny. Na ogół przeceniamy technologiczną przydatność fizyki i obowiązujących w niej praw właśnie przez to, że jej ograniczony potencjał informacyjny powoduje, iż wydaje się bardzo racjonalna i przewidywalna. Claude Shannon jednak wykazał, że przewidywalność i informacja działają w przeciwny sposób.
Nie jest tak, że wykraczanie poza prawa fizyki przez prawa rządzące informacją to pomysł piękny, ale niemożliwy do zrealizowania. W najdynamiczniejszych sektorach gospodarki dzieje się tak od ubiegłego stulecia. To samo stopniowe wykraczanie poza to, co fizyczne, przez to, co informacyjne, wykraczanie idei za materię, napędzało rozwój gospodarczy przez całą ludzką historię i wcześniej. W poprzednich erach ten proces był mniej oczywisty, ponieważ potęga informacji przejawiała się nie w wykraczaniu poza prawa fizyki, lecz w zaprzęganiu tych praw. Od koła, poprzez rzymskie łuki, po kruche skrzydła samolotu braci Wright odrywającego się od piasku w Kitty Hawk człowiek wykorzystywał fizykę, aby zmniejszyć ciężar materii, aby kontrolować, kierować czy podpierać więcej, wykorzystując do tego mniej, aby ożywić materię umysłem. W wieku informacji to sama fizyka została przytłumiona. Na początku lat dziewięćdziesiątych Qualcomm był ośrodkiem tych wysiłków.
Użyte przez Irwina Jacobsa porównanie z przyjęciem wtedy uśmierzyło na chwilę moje zastrzeżenia. Nadal jednak w tamtym czasie nie pojmowałem, o czym do mnie mówił Andrew Viterbi. Wróciłem do redakcji pisma „Forbes ASAP” zdecydowany przedrzeć się przez prace Shannona dotyczące teorii informacji, aby dotrzeć do sedna tej widomej zagadki „białego” lub przypadkowego szumu i maksymalnego przesyłu informacji. Spowodowało to, że stałem się entuzjastycznym zwolennikiem Qualcommu, najlepszej z największych spółek giełdowych w latach dziewięćdziesiątych, której wartość wzrosła dwudziestopięciokrotnie przez dziesięć lat. Popchnęło mnie to również w stronę informacyjnej teorii kapitalizmu, która jest odejściem od tradycyjnej ekonomii w tak wielkim stopniu, w jakim odejściem od protokołów wcześniej stosowanych w telekomunikacji był wielodostęp z podziałem kodowym. Od równowagi i porządku spontanicznego z koncepcji Adama Smitha i jego następców, od rynków sterowanych niewidzialną ręką i konkurencji doskonałej, podaży i popytu oraz nagród i kar zostałem popchnięty w stronę teorii nierównowagi i braku porządku oraz informacji i szumu, które były elementami decydującymi o zrozumieniu postępu gospodarczego.
J.R. Pierce, An Introduction to Information Theory: Symbols, Signals, and Noise, New York: Dover Books, 1980, wydanie 2, poprawione. Ten obejmujący wiele zagadnień tekst autorstwa jednego z najbliższych współpracowników i uczniów Claude’a Shannona przechodzi od fizyki do muzyki, ilustrując, z jaką mocą teoria informacji oświetla całe życie intelektualne. [wróć]
J. Gleick, The Information, New York: Pantheon, 2011. Najogólniejsze, a zarazem najbardziej zrozumiałe studium teorii informacji, ożywione pokaźną biografią Claude’a Shannona. [wróć]
J.R. Pierce, An Introduction…, dz. cyt, s. 178. [wróć]
J.R. Pierce, An Introduction…, dz. cyt. Głębsze permutacje szumu są do- brze wyjaśnione w pracy: E. Beltrami, What Is Random?: Chance and Order in Mathematics and Life, New York: Springer-Verlag, 1999, s. 131–143. Autor tłumaczy tam to zagadnienie na przykładzie spektrum szumu białego, różowego, czerwonego i czarnego. [wróć]
OBECNEGO KRYZYSU polityki gospodarczej nie można uważać po prostu za niepowodzenie albo konserwatywnej, albo socjalistycznej ekonomii w starciu z konkurentką. Nie można go uważać — chociaż Paul Krugman czy Ron Paul mogliby tego chcieć — za wskrzeszenie debaty prowadzonej przez szkoły keynesowską i austriacką, czyli za starcie, w którym po jednej stronie walczą John Maynard Keynes i Paul Samuelson, a po drugiej znajdują się Friedrich Hayek i Ludwig von Mises. Ścisłej nauki, która przede wszystkim spowodowała obecny kryzys, nie rozwinięto w okresie, kiedy Keynes i Hayek prowadzili swoje przełomowe badania.
Tą nową nauką jest nauka informacji. Teoria informacji w pełnej krasie to bardzo złożona i opisana matematycznie teoria. Jej konsekwencje dla ekonomii można jednak wyrazić za pomocą pewnej liczby twierdzeń prostych i zrozumiałych. Wszelka informacja jest zaskoczeniem; tylko zaskoczenie może uchodzić za informację. To fundamentalny aksjomat teorii informacji. Informacja to zmiana między tym, co wiedzieliśmy przed przesyłem, a tym, co wiemy po nim.
Od czasów Adama Smitha do naszych dni ekonomia skupia się na istocie porządku gospodarczego. Znaczną część czasu poświęconego badaniom ekonomiści klasyczni i neoklasyczni przeznaczyli na obserwację mechanizmów, dzięki którym rynki w sytuacji zmiany — szczególnie zmiany cen — przywracały nowy porządek, nową równowagę. Smith i jego kontynuatorzy szli w ślady Newtona i Leibniza, konstruując naukę badającą systemy.
Brakowało im natomiast nauki zajmującej się brakiem porządku i przypadkowością, matematyki innowacji, rygorystycznej miary wolności wyboru i mandatu dla tej wolności. Dla ekonomii odpowiednia nauka pojawiła się w samą porę. Potężny kryzys gospodarczy naszych czasów, kryzys zarówno teorii, jak i praktyki, jest kryzysem informacji. Można go zrozumieć i rozwiązać wyłącznie dzięki jakiejś ekonomii informacji. Zapoczątkowana przez takich tytanów, jak Kurt Gödel, John von Neumann i Alan Turing, matematyczna struktura tej nowej ekonomii została dokończona przez Claude’a Elwooda Shannona (1916–2001), należącego do najwybitniejszych umysłów XX wieku.
W długiej karierze w Massachusetts Institute of Technology oraz Laboratoriach Bella w AT&T Shannon zajmował się zabawkami, grami i zaskoczeniami. Wszystkie jego wynalazki początkowo nie były doceniane, później jednak stawały się nawracającymi motywami jego czasów i technologii tych czasów — od informatyki i sztucznej inteligencji po strategię inwestycyjną i architekturę internetu. Będąc chłopakiem w burzliwych latach dwudziestych, mieszkający na śnieżnej północy stanu Michigan młody Claude — wnuk rolnika majsterkowicza, posiadacza patentu chroniącego wynalezioną przez niego pralkę — zrobił linię telegraficzną z ogrodzenia z drutu kolczastego biegnącego od jego domu do domu przyjaciela odległego o osiemset metrów. „Później — powiedział — wysępiliśmy sprzęt telefoniczny w miejscowej centrali i podłączyliśmy telefon”. W ten sposób podsumował przełomowy moment w historii jego późniejszego pracodawcy, czyli przejście od telegrafu do telefonu.
Nie ma zapisów co do tego, co Shannon i świat nazwali później „przepustowością kanału” zrobionego z płotu. Jednak kontynuatorzy Shannona podczas konferencji branżowych przypisywali drutowi kolczastemu „przepustowość Shannona” wynoszącą gigabity na sekundę i żartowali o „granicy Shannona” w długiej nitce makaronu.
Wkład Shannona w rozwój telefonii nastąpił po jego wkładzie w rozwój technik obliczeniowych, a oba z kolei zostały przytłumione przez wyższe abstrakcje w teorii informacji. Jego nagrodzona praca magisterska obroniona w Massachusetts Institute of Technology zapoczątkowała erę komputeryzacji, ponieważ Shannon wykazał, że przekaźniki elektryczne wykorzystywane wówczas w centralach telefonicznych mogą wyrażać dziewiętnastowieczną algebrę logiki wynalezioną przez George’a Boole’a, która stała się dominującą logiką w technikach obliczeniowych. Najważniejszy pomysł pojawił się dzięki podobieństwu do gry w dwadzieścia pytań: sprowadzenie złożonego problemu do ciągu binarnych wyborów tak–nie (jest możliwe, że właśnie Shannon pierwszy nazwał je bitami). Następnie ten telefoniczny majsterkowicz zaczął pracować w Laboratoriach Bella, gdy były w szczytowym okresie kreatywności, kiedy były miejscem, w którym młody geniusz mógł swobodnie jeździć na jednokołowym rowerze po korytarzach, żonglując nad głową kilkoma piłkami.
Zajmował się tam kryptografią w czasie II wojny światowej i przy herbacie gawędził o myślących maszynach z Alanem Turingiem, brytyjskim matematykiem, który odwiedził laboratoria. Można twierdzić, że przedstawiona przez Turinga koncepcja ogólnej abstrakcyjnej architektury komputerowej każe go uważać za przodka teorii informacji. Gdy pracował w Bletchley Park w Wielkiej Brytanii, Turing w ogromnym stopniu przyczynił się do złamania niemieckich kodów, co w wielkiej mierze zdecydowało o zwycięstwie aliantów. Podczas tych spotkań przy herbacie w czasie wojny dwaj kryptografowie z obsesją na punkcie technik obliczeniowych dyskutowali także o tym, co Shannon nazwał rozwijającymi się „pojęciami z dziedziny teorii informacji” (Turing zapewnił „sporo negatywnych komentarzy”).
W 1948 roku Shannon opublikował te koncepcje w piśmie „The Bell System Technical Journal”. Była to licząca siedemdziesiąt osiem stron monografia zatytułowana The Mathematical Theory of Communication (Matematyczna teoria komunikacji). (Rok później wydano ją w formie książkowej z wprowadzeniem Warrena Weavera, jednego z najwybitniejszych amerykańskich naukowców okresu wojny)1. Ta publikacja stała się najważniejszym dokumentem dominującej technologii tamtej epoki i nadal znajduje oddźwięk jako teoretyczna podbudowa internetu.
Zdaniem pierwszej żony Claude’a Shannona zniewalający magnetyzm jego twarzy był „chrystusowy”. Podobnie jak Leonardo da Vinci i Charles Babbage, inny pionier technik obliczeniowych, według rzekomego świadka skonstruował pływające buty pozwalające chodzić po wodzie. Z drugą żoną, która również była computer, czyli obliczeniowcem, gdy ją poznał w AT&T, stworzył dom pełen pianin, jednokołowych rowerów, maszyn grających w szachy i jego własnego zaskakującego zbioru poważnie zabawnych gadżetów. Należały do nich mechaniczna biała myszka o imieniu Tezeusz — skonstruował ją krótko po napisaniu monografii o teorii informacji — która potrafiła nauczyć się drogi wyprowadzającej z labiryntu, kalkulator wykorzystujący rzymskie cyfry, talerz frisbee z napędem rakietowym, wyciąg krzesełkowy, którym jego dzieci jeździły do pobliskiego jeziora, diorama, w której trzech maleńkich klownów żonglowało jedenastoma pierścieniami, dziesięcioma piłkami i siedmioma maczugami, oraz analogowy aparat obliczeniowo-radiowy zbudowany z pomocą Edwarda Thorpa, profesora Massachusetts Institute of Technology grającego w blackjacka, w celu wygrania na ruletce w Las Vegas. (Maszyna działała w piwnicy Shannona, ale zawiodła w kasynie). Odnoszący później niewiarygodne sukcesy przy inwestycjach w akcje spółek z sektorów najnowszych technologii Shannon podkreślał istotne różnice między kasynem a giełdą, różnice umykające części jego kontynuatorów.
Gdy napisałem książkę zatytułowaną Microcosm: The Quantum Era in Science and Technology (Mikrokosmos. Era kwantowa w nauce i technologii), poświęconą historii mikroprocesora, byłem zafascynowany fizyką i pewien, że wynalezienie tranzystora w Laboratoriach Bella w 1948 roku to najważniejsze wydarzenie dziesięciolecia po II wojnie światowej. Dzisiaj odkrywam, że fizycy są zafascynowani teorią informacji. Uważam, podobnie jak James Gleick, autor jego biografii, że opracowana przez Shannona teoria informacji była przełomem porównywalnym z wynalezieniem tranzystora. Tranzystory napotyka się dzisiaj wszędzie w technologii informatycznej, a teorie Shannona odgrywają rolę we wszystkich rozwijających się systemach tej epoki. Będąc powszechnymi zasadami, stają się coraz płodniejsze z upływem czasu. Co kilka tygodni natrafiam na kolejne przedsiębiorstwo, którego działalność opiera się na teoriach Shannona. Pracują w tych firmach zapaleni młodzi inżynierowie dążący do tego, aby przezwyciężyć granicę Shannona. Wygląda na to, że obecna technologia jest zarówno ograniczona przez Shannona, jak i przez Shannona umożliwiona. Taki jest współczesny świat.
Wyobraźmy sobie charakterystyczne cechy ekonomii braku porządku, nierównowagi i zaskoczenia, które mogłyby tłumaczyć i mierzyć wkłady dokonywane przez przedsiębiorców. Taka ekonomia zaczynałaby się od formy porządku i równowagi przyjmowanej w teorii Adama Smitha. Sam Smith mówił o prawach własności, wolnym handlu, mocnej walucie i umiarkowanym opodatkowaniu, uważając je za warunki konieczne dobrobytu. Miał rację, gdyż brak porządku, nierównowaga, chaos i szum ograniczają twórcze akty prowadzące do wzrostu gospodarczego. Ostateczna entropia fizyczna uważana za śmierć cieplną wszechświata, w jego całkowitym braku porządku, nie zapewnia miejsca na wynalazki czy zaskoczenie. Ale nieład przedsiębiorczości nie jest chaosem czy zwykłym szumem. Brak porządku w dziedzinie przedsiębiorczości jest pewną kombinacją ładu i zaburzeń, które można by nazwać „nieładem pouczającym”.
Shannon definiował informację w kategoriach cyfrowych bitów i mierzył ją za pomocą pojęcia entropii informacyjnej: bitów nieoczekiwanych, czyli zaskakujących. Podobno ukuł to określenie John von Neumann, wynalazca architektury komputerowej, teorii gier, matematyki kwantowej, urządzeń atomowych, strategii wojskowych i automatów komórkowych, by wymienić tylko część oryginalnych wynalazków. Spotkawszy von Neumanna na korytarzu Massachusetts Institute of Technology, Shannon miał powiedzieć mu o swoim nowym pomyśle. Von Neumann zaproponował, aby użył określenia „entropia”, wykorzystując pojęcie stosowane w termodynamice. Według Shannona, von Neumannowi podobało się to określenie, gdyż nikt nie wie, co oznacza.
Entropię Shannona opisuje równanie logarytmiczne niemal identyczne z równaniem termodynamicznym Rudolfa Clausiusa opisującym entropię fizyczną. Podobieństwa między dwoma rodzajami entropii skrywają jednak kilka zagrożeń czyhających na nieświadomych. Entropia fizyczna staje się maksymalna, gdy w jakimś układzie fizycznym wszystkie cząsteczki mają tę samą temperaturę, wobec czego nie mogą dać już więcej energii. Entropia Shannona staje się maksymalna, gdy wszystkie bity przekazywanej wiadomości są równie nieprawdopodobne, przez co nie można ich bardziej skompresować bez utraty informacji. Te dwa identyczne równania wskazują na głębsze pokrewieństwo, które fizyk Seth Lloyd uważa za podstawę całej rzeczywistości materialnej — na początku był entropowy bit2.
Z punktu widzenia celów ekonomii najważniejszym wglądem teorii informacji jest ten, że informację mierzy się stopniem jej nieoczekiwaności. Informacja to „nowa wiadomość”, mierzona powodowanym przez nią zaskoczeniem, które jest entropią. Strumień przewidywalnych bitów nie przenosi żadnej informacji. Tak samo jak strumień rozkodowanego chaotycznego szumu.
W schemacie Shannona jakieś źródło wybiera komunikat z pewnego zbioru możliwych komunikatów, koduje go z pomocą pewnego słownika lub tabeli przy użyciu określonego alfabetu, po czym przekształca zakodowany komunikat w formę, którą można przesyłać pewnym kanałem. Na ten kanał zawsze negatywnie oddziałuje pewien poziom szumu lub interferencji. W miejscu docelowym urządzenie odbiorcze dekoduje komunikat, przekładając go na formę pierwotną. Tak właśnie się dzieje, gdy jakaś stacja radiowa dokonuje modulacji fal elektromagnetycznych, a radioodbiornik w moim samochodzie te fale demoduluje, przekładając je na oryginalne dźwięki ze stacji radiowej.
Część geniuszu teorii informacji to dostrzeżenie, że to zwykłe pojęcie komunikacji w przestrzeni rozszerza zakres, aby objąć również czas. Płyta kompaktowa, pamięć odtwarzacza iPod bądź rejestrator wideo TiVo także dokonują transmisji sygnału z jakiegoś źródła (pierwotnego nagrania czy innej treści) poprzez jakiś kanał (CD, DVD, pamięć mikroprocesora czy twardy dysk) do urządzenia odbiorczego oddzielonego od tego źródła głównie przez czas. W tych wszystkich sytuacjach powodzenie transmisji zależy od istnienia pewnego kanału, który nie zmieni się znacznie w czasie komunikacji — zmiana nie zajdzie ani w przestrzeni, ani w czasie.
Zmianę zachodzącą w kanale nazywa się szumem, a kanał idealny jest doskonale linearny. To, co z kanału wychodzi, jest identyczne z tym, co się do niego dostaje. Dobry kanał — niezależnie od tego, czy wykorzystuje się go do telefonii, telewizji czy magazynowania danych — nie zmienia się znacznie w okresie między wysłaniem a odebraniem komunikatu. Ponieważ kanał jest niezmienny, komunikat przesyłany tym kanałem może komunikować zmiany. Komunikat informujący o zmianie można odróżnić od niezmiennych parametrów kanału.
W tej transmisji radiowej głos albo inny sygnał akustyczny zostaje nałożony na pasmo fal elektromagnetycznych z wykorzystaniem modulacji. Ten zbiór zasad umożliwia to, że niemechaniczna fala o stosunkowo wysokiej częstotliwości (mierzonej w zakresie od kiloherców do gigaherców, wędrująca z prędkością światła) przenosi przełożoną wersję pożądanego dźwięku, który ludzkie ucho może odebrać tylko w postaci fali mechanicznej o niższej częstotliwości (mierzonej w zakresie od herców do małych wielkości w kilohercach, w którym mieszczą się fale akustyczne, i wędrującej prawie milion razy wolniej). Urządzenie odbiorcze może cofnąć modulacyjne zmiany amplitudy, częstotliwości albo fazy, które kodują głos, po prostu przez odjęcie niezmiennych fal radiowych. Ten proces odzyskiwania może wystąpić wiele lat później, jeżeli modulowane fale zostają poddane próbkowaniu i zapisane na dysku albo w pamięci długookresowej.
Olbrzymim osiągnięciem teorii informacji był rozwój rygorystycznej dyscypliny matematycznej pozwalającej definiować i mierzyć ilość informacji zawartej w komunikacie wysyłanym kanałem. Entropia Shannona, czyli zaskoczenie, określa i kwantyfikuje informację zawartą w komunikacie. Podobnie jak entropia fizyczna, entropia informacyjna zawsze jest dodatnia, a mierzy się ją logarytmem przy podstawie dwóch z jej prawdopodobieństwa ze znakiem ujemnym.
W modelu Shannona informacja zostaje skwantyfikowana w kategoriach prawdopodobieństwa, gdyż Shannon uważał ten komunikat za pewien wybór z ograniczonego alfabetu. Tak więc entropia jest miarą wolności wyboru. W najprostszym przypadku maksymalnej entropii elementów występujących z równym prawdopodobieństwem niepewność to po prostu odwrotność liczby elementów bądź symboli. Przy rzucie monetą są dwie możliwości — wypadnie orzeł albo reszka. Prawdopodobieństwo wypadnięcia orła albo reszki to jedna druga. Logarytm z jednej drugiej wynosi minus jeden. Minus zostaje zniesiony przez minus w równaniu Shannona, wobec czego rzut monetą może dać jeden bit informacji, czyli zaskoczenia. Ciąg bitów prawdopodobieństwa wynoszącego jeden na dwa nie zapewnia transmisji poprawnej w 50 procentach. Gdyby tak było, wysyłający komunikat mógłby zastąpić źródło dowolnie wybranym przekaźnikiem i połowę informacji uzyskać dobrze. Samo prawdopodobieństwo nie mówi odbiornikowi, które bity są właściwe. Informację mierzy właśnie entropia.
Weźmy inny znany przykład. Prawdopodobieństwo wyrzucenia kostką dowolnej wartości wynosi jedną szóstą, ponieważ jest sześć możliwości, a każda z nich jest równie prawdopodobna. Siłę komunikacji mierzy się jednak nie za pomocą prawdopodobieństwa wynoszącego jeden na sześć, lecz za pomocą niepewności rozwiązanej czy rozproszonej przez komunikat. Jedna szósta to dwa do potęgi –2,58, co daje entropię, czyli zaskoczenie, wynoszącą 2,58 bita na rzut.
Entropia Shannona pozwalała mierzyć zaskoczenie wywoływane przez dowolną komunikację odbywającą się w przestrzeni bądź czasie. Poprzez skwantyfikowanie, czyli określenie ilości informacji, Shannon mógł ponadto zdefiniować zarówno przepustowość danego kanału wykorzystywanego do przesyłu informacji, jak i wpływ szumu na tę możliwość przenoszenia.
Z teorii informacji opracowanej przez Shannona — jego definicji bita, wyjaśnienia i obliczenia zaskoczenia, czyli entropii, jego pomiaru przepustowości kanału, jego dogłębnych badań efektu i istoty szumu lub interferencji, jego abstrakcyjnej teorii kryptografii, jego przewidywań dotyczących wykorzystywania kanałów przez wielu użytkowników, jego zasad redundancji i korekty błędów oraz złożonego opisu funkcjonowania kodów — będzie się wywodzić większość technologii tej ery informacji.
Gdy pracował w Laboratoriach Bella, Shannon skupiał się na problemach największej firmy telekomunikacyjnej świata. Przedstawił jednak sugestie, jak jego koncepcje zastosować w rozleglejszych dziedzinach. W 1940 roku obronił pracę doktorską zatytułowaną An Algebra for Theoretical Genetics (Algebra dla genetyki teoretycznej). Uzbrojony w nowe pomysły z późniejszej teorii informacji, uwzględnił przekazywanie genetyczne jako przykład komunikacji w okresie ewolucji, komunikacji zachodzącej w kanale świata. Szacował, że całościowy składnik informacyjny w ludzkim zestawie chromosomów wynosi setki tysięcy bitów. Wprawdzie ogromnie nie docenił wielkości genomu — obecnie przyjmuje się, że ma sześć miliardów bitów, co oznacza, że jest jakieś cztery tysiące razy większy od tego, co zakładał — ale był pierwszym, który stwierdził, że ludzkie dziedzictwo genetyczne składa się z zakodowanych informacji, które można mierzyć w bitach. Rozszerzając swoją teorię na zjawiska biologiczne, otworzył drzwi prowadzące do możliwości wykorzystania tej teorii w ekonomii, chociaż do końca życia (zmarł w 2001 roku) zachowywał ostrożność, jeśli chodzi o społeczne zastosowania jego matematycznej koncepcji na większą skalę.
To właśnie ostrożność Shannona, jego zdyscyplinowany opór, przez który nie chciał zanieczyszczać swojej teorii szerszymi pojęciami znaczenia semantycznego i twórczej treści, spowodowały, że jego sformułowania mają tak ogólne zastosowanie. Shannon nie stworzył nauki jakiegoś szczególnego rodzaju komunikacji. Jego nauka nie ogranicza się ani do komunikacji za pośrednictwem telefonii czy telewizji, ani do transmisji fizycznej z wykorzystaniem fal radiowych albo przewodów, ani do transmisji komunikatów w języku angielskim, ani do komunikatów w postaci cyfrowej, ani do pomiaru cech muzyki, ani do genomów, ani do wierszy, ani do mów politycznych, ani do listów biznesowych. Nie przedstawił teorii do wykorzystania w komunikacji w jakimś konkretnym języku czy kodzie, chociaż fascynowała go kwestia pomiaru redundancji w języku angielskim.
Shannon zaproponował teorię podmiotów wysyłających komunikaty i komunikatów, nie przedstawiając teorii ostatecznego źródła komunikatu w jakimś konkretnym ludzkim umyśle mającym konkretne cele, posługującym się konkretnymi znaczeniami, podejmującym konkretne przedsięwzięcia, obierającym cele i wyznającym pewne filozofie. Ponieważ Shannon był bezlitośnie rygorystyczny i trzymał się w ryzach, jego teorię można było odnieść niemal do wszystkiego, co jest przesyłane w cza sie i przestrzeni w obecności szumu lub interferencji — łącznie z koncepcjami prowadzenia działalności biznesowej, nowatorskimi przedsięwzięciami, korzyściami gospodarczymi, wartościami walut, ochroną własności prywatnej oraz innowacyjnymi procesami napędzającymi rozwój gospodarki.
Przedsiębiorca jest twórcą i zarządcą koncepcji biznesowej, którą chciałby urzeczywistnić w czasie i przestrzeni. Wyobraźmy sobie Steve’a Jobsa i odtwarzacz iPod. Gdy w umyśle Jobsa powstanie pomysł, musi go wyrazić — czyli „zakodować” — w konkretnej formie fizycznej, którą można przesłać rynkowi. Wymaga to projektu plastycznego, inżynieryjnych prac projektowych, produkcji, marketingu i dystrybucji. To złożone przedsięwzięcie, które na każdym etapie wymaga mnóstwa informacji.
Będąc przedsiębiorcą i szefem koncernu Apple, Jobs kontroluje wiele z tych etapów. Ostateczne powodzenie przedsięwzięcia zależy jednak od istnienia kanału, przez który można je konsumować prawie przez dziesięciolecie, kiedy wiele innych firm niepodlegających jego kontroli będzie produkować różnorodne urządzenia konkurencyjne bądź uzupełniające. O sukcesie firmy Apple w dziedzinie urządzeń bezprzewodowych w ogromnym stopniu zależą postępy w dziedzinie obudów ceramicznych oraz z tworzyw sztucznych, przetwarzania sygnałów cyfrowych, komunikacji radiowej, miniaturyzacji dysków twardych, nieulotnych krzemowych pamięci typu flash, kodów cyfrowej kompresji danych oraz niezliczonych innych technologii wykorzystywanych przez łańcuch wzajemnie od siebie zależnych wytworów o niezmierzonej długości, przy tym nieprosty.
W samej biologii prawa chemiczne i fizyczne określają wiele regularności kanału świata zapewniających możliwości przekazu. W świecie ekonomii, w którym działał, Jobs potrzebował stałego istnienia „kanału” umożliwiającego to, że pomysł powzięty w pewnym punkcie w czasie i przestrzeni dotrze po latach do innego punktu. W kanale musi istnieć porządek założony w teorii Adama Smitha. Jobs musi mieć pewność, że najważniejsze elementy systemu gospodarczego, który znajduje się u początku procesu, są także na końcu tego procesu. Smith za te nieodzowne elementy kanału uważał wolny handel, rozsądne przepisy, solidne waluty, umiarkowane opodatkowanie i wiarygodną ochronę praw własności. Nikt na tej liście od tamtego czasu nie naniósł wielu poprawek.
Innymi słowy, przedsiębiorca potrzebuje kanału, który nie ulega poważnym zmianom pod tymi zasadniczymi względami. Może się poważnie zmienić technologia, ale charakterystyka podstawowego kanału wykorzystywanego do swobodnej kreatywności w przedsiębiorczości nie może się zmienić poważnie. Gwałtowna podwyżka stawek podatkowych czy zdecydowana zmiana przepisów ograniczająca albo znosząca prawa własności nagrań muzycznych bądź regulacje poważnie ograniczające handel międzynarodowy zaszkodziłyby kanałowi iPoda.
Jedna fundamentalna zasada teorii informacji obejmuje te wszystkie punkty. Przesył zaskakującego produktu o wysokiej entropii wymaga niezaskakującego kanału o niskiej entropii, w większości wolnego od interferencji. Interferencje mogą się zjawić z wielu źródeł. Wiadomo, że takie skutki powodowały klęski żywiołowe, na przykład tsunami czy huragany, choć gospodarki pod innymi względami energiczne szybko dochodzą do siebie po takich katastrofach. Jeśli chodzi o konkretny pomysł z dziedziny przedsiębiorczości, interferencja może się pojawić w formie potężniejszej, konkurencyjnej technologii.
Najczęstszym i najbardziej niszczycielskim źródłem szumu jest jednak akurat ta instytucja, na której polegamy najbardziej, licząc, że przede wszystkim zapewni czysty i stabilny kanał. Gdy rząd lekceważy swoje zadanie strażnika kanału albo — jeszcze gorzej — stara się pomagać, stając się przekaźnikiem i wzmacniając pewne faworyzowane sygnały, szum może się stać ogłuszający.
Sprzyjający rząd, który wykluczyłby wszystkich konkurentów Jobsa z kanału albo przyznał Jobsowi pozycję monopolisty w dziedzinie dystrybucji muzyki, być może zapewniłby mu korzyści w przypadku jednego produktu. Ale zakaz konkurencyjnych produktów hamowałby konieczny postęp techniczny, od którego będą zależeć przyszłe produkty koncernu Apple, a kanał o wysokiej entropii, zdominowany przez władze, pełen nieprzewidywalnych interferencji politycznych i szumu, spowodowałby spadek lub zanik długoterminowych inwestycji kapitałowych, przy których wielokrotnie poświęca się własne zyski na rzecz korzyści przyszłych pokoleń.
Przedsiębiorca rozważający własny wynalazek i możliwości osiągnięcia sukcesu musi szacować możliwą rentowność przedsięwzięcia. W ekonomii zwrot z inwestycji nazywa się zyskiem. Poziomy stóp oprocentowania oraz ich struktury uwzględniające czynnik czasowy i ryzyko wyrażają średnią stopę zwrotu w całej gospodarce, która odzwierciedla istniejący schemat produkcji i prognozowane wartości walut. Stopy procentowe będą określały koszt alternatywny (utraconych możliwości) inwestycji w nowe produkty: ten koszt alternatywny określa, jakie inne możliwości przepadają (w ujęciu średnim) w następstwie wyboru jednego konkretnego rozwiązania.
Prace Claude’a Shannona zebrano w: C. Shannon, Collected Papers, New York: Wiley-IEEE Press, 1993. Są tam też zapisy kilku rozmów z nim i jego współpracownikami. Inne szczegóły biografii pochodzą z prac: J. Gleick, The Information, New York: Pantheon, 2011; J. Horgan, „IEEE Spectrum”, kwiecień 1992; „Scientific American”, styczeń 1990, s. 20–22. [wróć]
S. Lloyd, Programming the Universe, Knopf, 2006. To praca poświęcona informacyjnej teorii fizyki autorstwa wybitnego fizyka z Massachusetts Institute of Technology, który też rozwijał podstawy pojęciowe kwan- towych technik obliczeniowych. [wróć]
Zapraszamy do zakupu pełnej wersji książki