Uzyskaj dostęp do ponad 250000 książek od 14,99 zł miesięcznie
Narodziny nowej nauki
Błyskotliwe i przystępnie napisane wprowadzenie do teorii chaosu, jednej z najbardziej znaczących koncepcji naukowych ostatnich dekad
Współczesne badania chaosu zaczynają się w latach sześćdziesiątych XX wieku od odkrycia, że zupełnie proste równania matematyczne mogą modelować układy w każdym calu tak gwałtowne jak wodospady. Drobne różnice wyjściowe mogą szybko przekształcić się w potężne różnice końcowe. Zjawisko to otrzymało nazwę: wrażliwość na warunki początkowe. W pogodzie na przykład manifestuje się to w zjawisku żartobliwie nazwanym efektem motyla: motyl wywołujący dziś fale powietrza w Pekinie może być przyczyną huraganu w następnym miesiącu w Nowym Jorku. Kiedy badacze chaosu zaczęli myśleć o genealogii swej nowej nauki, znaleźli wiele intelektualnych śladów z przeszłości. Ale jedno było jasne: dla fizyków i matematyków prowadzących tę rewolucję w myśleniu punktem wyjścia był efekt motyla.
Książka Jamesa Gleicka opisuje narodziny tej nowej nauki, która widzi porządek tam, gdzie dotychczas obserwowano tylko przypadek, nieład i nieprzewidywalność, czyli chaos. Jak mówi Douglas Hofstadter, "Okazuje się, że tajemniczy typ chaosu czai się tuż za fasadą porządku - i co więcej, głęboko wewnątrz chaosu czai się jeszcze bardziej tajemniczy typ porządku".
„Fascynująca książka. . . Prawie każdy akapit zawiera wstrząsające odkrycie ".
The New York Times
„Ekscytujący wywód. . . Niezwykła ilustracja tego, jak zmienia się struktura nauki".
The New York Times Book Review
„Zaskakujące spojrzenie na nowo odkryte uniwersalne prawa".
Chicago Tribune
„Niezwykle inspirująca książka. Podczas lektury odniosłem takie wrażenie, jakby ktoś właśnie znalazł wyłącznik światła".
Douglas Adams, autor Autostopem przez Galaktykę
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 463
Policja w małym miasteczku Los Alamos1, w stanie Nowy Meksyk, niepokoiła się przez krótki okres w roku 1974 o mężczyznę przechadzającego się noc w noc po cichych uliczkach z papierosem, którego rozżarzony koniec płynął w ciemności. Mógł godzinami wędrować bez celu w świetle gwiazd, które przebijało się przez cienką warstwę powietrza nad równiną. Nie tylko policja była zdziwiona. W laboratorium niektórzy fizycy dowiedzieli się, że ich kolega eksperymentuje z dwudziestosześciogodzinną dobą, co oznaczało, że jego rozkład dnia bywa przesunięty w fazie w stosunku do ich rozkładu. Było to zachowanie bardzo osobliwe nawet na oddziale teoretycznym.
W ciągu trzech dziesięcioleci od czasu, gdy J. Robert Oppenheimer wybrał ten nieziemski nowomeksykański krajobraz na realizację projektu budowy bomby atomowej, Państwowe Laboratorium w Los Alamos rozprzestrzeniło się na obszarze odludnej równiny, sprowadzając w to miejsce akceleratory cząstek, lasery gazowe i instalacje chemiczne, tysiące naukowców, pracowników administracji i zaplecza technicznego, jak również największą liczbę superkomputerów. Niektórzy starsi naukowcy pamiętali drewniane baraki wyrastające pospiesznie ze skał w roku 1940, ale dla większości pracowników Los Alamos, młodych mężczyzn i kobiet ubranych w studenckim stylu w sztruksy i koszule flanelowe, twórcy pierwszej bomby atomowej byli tylko zjawami z innego świata. Miejscem najczystszej myśli był oddział teoretyczny, znany jako oddział T, podobnie jak oddział C — obliczeń czy X — broni. W oddziale T pracowało ponad stu fizyków i matematyków, dobrze opłacanych, wolnych od zajęć dydaktycznych i konieczności publikowania. Ci naukowcy wielokrotnie spotykali się zarówno z geniuszami, jak i ekscentrykami. Trudno było ich zadziwić.
Ale Mitchell Feigenbaum był niezwykłym przypadkiem. Opublikował tylko jeden artykuł i nie pracował nad niczym, co mogłoby przynieść coś szczególnego. Jego włosy przypominały postrzępioną grzywę, spływającą ku tyłowi z szerokiego czoła w stylu popiersi niemieckich kompozytorów. W jego oczach przebłyskiwały niecierpliwość i żarliwość. Kiedy mówił — zawsze gwałtownie — opuszczał rodzajniki i zaimki w nieprecyzyjny środkowoeuropejski sposób, mimo że urodził się na Brooklynie. Kiedy pracował, robił to obsesyjnie. Kiedy nie mógł pracować, spacerował i myślał w ciągu całej doby, ale najchętniej w nocy. Dwudziestoczterogodzinna doba wydawała mu się zbyt krótka. Niemniej zakończył swój eksperyment z osobistym quasi-rytmem, kiedy doszedł do wniosku, że nie może dłużej znieść wstawania o zachodzie słońca, co zdarzało się co kilka dni.
W wieku dwudziestu dziewięciu lat był już uczonym pośród uczonych, ad hoc konsultantem, do którego — jeśli mogli go odnaleźć — przychodzili inni naukowcy, próbując namówić go, aby zajął się szczególnie trudnymi problemami. Jednego wieczora przyszedł do pracy akurat w chwili, gdy dyrektor laboratorium, Harold Agnew, z niej wychodził. Agnew był wielką postacią, jednym z uczniów Oppenheimera. To on leciał nad Hiroszimą samolotem, który towarzyszył „Enola Gay”, wyposażonym w instrumenty badawcze, fotografując zrzucenie pierwszego produktu laboratorium.
„Rozumiem, że jest pan bystry2 — rzekł Agnew do Feigenbauma. — Jeśli jednak jest pan tak bystry, to dlaczego nie rozwiąże pan problemu fuzji laserowej?”
Nawet przyjaciele Feigenbauma zastanawiali się, czy chce on w ogóle napisać jakąś własną pracę. Tak jak chętnie i bez trudu odpowiadał na ich zaskakujące pytania, tak absolutnie nie wydawał się zainteresowany poświęcaniem własnego czasu na rozwiązanie jakiegoś wartościowego problemu. Rozmyślał nad turbulencjami w cieczach i gazach. Rozmyślał o czasie — czy ślizga się gładko naprzód, czy też skacze dyskretnie jak sekwencja klatek kosmicznego filmu. Rozmyślał o zdolności oka do widzenia spójnych kolorów i form we wszechświecie, o którym fizycy wiedzą, że jest zmieniającym się kalejdoskopem kwantowym. Myślał o chmurach, obserwując je z okna samolotu (aż w 1975 roku cofnięto mu oficjalnie przywilej naukowych podróży, ponieważ go nadużył) albo podczas pieszych wycieczek wokół laboratorium.
W górskich miasteczkach Zachodu chmury nie przypominają czarnych jak sadza, niewyraźnych, nisko lecących mgieł, które wypełniają powietrze na Wschodzie. W Los Alamos, po zawietrznej stronie wielkiej kaldery wulkanicznej, chmury rozlewają się na niebie, tworząc przypadkowe twory, rosną jak kłosy albo kłębią się w regularnie pomarszczonych strukturach przypominających substancję mózgową. W burzliwe popołudnia, kiedy niebo iskrzy i drży od elektryczności, chmury rzucają się w oczy już z odległości 30 mil, filtrując i odbijając światło, aż całe niebo zaczyna wyglądać jak widowisko wystawione jako subtelna wymówka skierowana do fizyków. Obłoki należą do tej części natury, którą omija główny nurt fizyki, części, która jest zarazem zamazana i szczegółowa, posiadająca strukturę i nieprzewidywalna. Feigenbaum rozmyślał o takich sprawach spokojnie i nieproduktywnie.
Dla fizyka praca nad fuzją laserową to porządny problem; rozwiązanie zagadki spinu, koloru i zapachu cząstek elementarnych to dobry problem; określenie momentu powstania wszechświata — to też dobry problem. Natomiast zrozumienie chmur to problem dla meteorologów. Podobnie jak inni fizycy, Feigenbaum wyrażał się o tych problemach w sposób nadmiernie lakoniczny i niedbały. „Taka rzecz jest oczywista” — mógłby powiedzieć, mając na myśli fakt, że wynik mógłby być zrozumiały dla każdego wykształconego fizyka po odpowiednim przemyśleniu i obliczeniach. Jeśli jakaś praca nie jest oczywista, to zasługuje na szacunek i Nagrodę Nobla. Dla najtrudniejszych problemów, czyli tych, których nie można rozwikłać bez długiego zaglądania we wnętrzności wszechświata, fizycy rezerwują słowo „głębokie”. Chociaż w 1974 roku tylko nieliczni jego koledzy o tym wiedzieli, Feigenbaum pracował nad problemem, który był głęboki: pracował nad chaosem.
Tam, gdzie zaczyna się chaos, kończy się klasyczna nauka. Od chwili, gdy świat zaczął intrygować fizyków swoimi prawami przyrody, całkowicie zaniedbano eksplorację chaosu w atmosferze, we wzburzonym morzu, we fluktuacjach dziko żyjących populacji, w oscylacjach serca i mózgu. Nieregularna strona przyrody, strona nieciągła i kapryśna była dla nauki intrygującą zagadką albo gorzej — potwornością.
Ale w latach siedemdziesiątych kilku naukowców w Stanach Zjednoczonych i Europie zaczęło odnajdywać drogę poprzez nieporządek. Byli to matematycy, fizycy, biologowie, chemicy, wszyscy szukający związków między różnymi rodzajami nieregularności. Fizjologowie znaleźli zaskakujący porządek w chaosie, który rozwija się w ludzkim sercu tuż przed nagłą, niewyjaśnioną śmiercią. Ekologowie badali rozwój i schyłek populacji ćmy brudnicy nieparki. Ekonomiści odgrzebali dane na temat starych cen akcji i poddali je nowej analizie. To, co wyniknęło z tych badań, prowadziło bezpośrednio do świata przyrody — kształtu chmur, toru błyskawicy, rozgałęziania się naczyń krwionośnych, grupowania się gwiazd w galaktykach.
Kiedy Mitchell Feigenbaum zaczął myśleć o chaosie w Los Alamos, był nieznanym nikomu naukowcem. Pewien matematyk z Berkeley w stanie Kalifornia tworzył w tym czasie małą grupę, która miała się zająć rozwinięciem nowych badań „układów dynamicznych”. Pewien biolog populacji na Uniwersytecie Princeton miał wkrótce opublikować żarliwy apel mówiący o tym, że wszyscy naukowcy powinni przyjrzeć się zaskakująco skomplikowanemu zachowaniu czającemu się w pewnych prostych modelach. Matematyk pracujący dla IBM szukał nowego słowa opisującego rodzinę kształtów — postrzępionych, powikłanych, rozszczepionych, poskręcanych, połamanych — które uważał za zasadę organizującą w przyrodzie. Francuski uczony zajmujący się fizyką matematyczną wystąpił z polemicznym poglądem, że turbulencje w cieczach mogą mieć coś wspólnego z dziwaczną, nieskończenie pogmatwaną abstrakcją, którą nazwał dziwnym atraktorem.
Dziesięć lat później chaos stał się skrótem nazwy szybko narastającego ruchu, który całkowicie przekształcił gmach nauki. Często organizowane są konferencje na temat chaosu, powstają czasopisma poświęcone badaniom chaosu. Dyrektorzy programów rządowych3, dysponujący pieniędzmi na finansowanie badań naukowych dla celów militarnych, Centralna Agencja Wywiadowcza i Departament Energii inwestują coraz większe sumy w badania chaosu, utworzyli więc specjalną administrację do obsługi finansów. Na każdym większym uniwersytecie i w każdej większej placówce badawczej jacyś teoretycy łączą się najpierw na gruncie chaosu, a dopiero w drugiej kolejności ze względu na swe specjalności. W Los Alamos utworzono Centrum Badań Układów Nieliniowych, które koordynuje pracę nad chaosem i pokrewnymi problemami; podobne instytucje pojawiły się w miasteczkach uniwersyteckich w całych Stanach Zjednoczonych.
Badania nad chaosem stworzyły specjalne techniki używania komputerów i specjalne rodzaje grafiki, rysunków zdolnych uchwycić fantastyczne i subtelne struktury, które leżą u podstaw złożoności. Nowa nauka spłodziła swój własny język, specjalistyczny język z takimi terminami, jak: fraktale i bifurkacje, intermitencje okresowości, dyfeomorfizmy złożonego ręcznika (ang. folded-towel diffeomorphisms), gładkie odwzorowania makaronowe (ang. smooth noodle maps). Są to nowe elementy ruchu4, tak jak w tradycyjnej fizyce kwarki i gluony są nowymi składnikami materii. Dla niektórych fizyków chaos jest raczej nauką o procesach niż o stanie5, o stawaniu się niż o byciu.
Teraz nauka zdaje się dostrzegać chaos wszędzie. Podnosząca się smuga dymu z papierosa wpada w szalone zawirowania. Flaga łopoce na wietrze. Krople kapią z kranu najpierw w sposób regularny, później przypadkowy. Chaos pojawia się w zachowaniu pogody, samolotu podczas lotu, grup samochodów na autostradach6, ropy płynącej w podziemnych rurociągach. Niezależnie od środowiska zachowanie to spełnia te same nowo odkryte prawa. Taka sytuacja7 spowodowała zmianę sposobu podejmowania decyzji przez zarządy spółek, spoglądania na Układ Słoneczny przez astronomów, a także zmieniła sposób mówienia teoretyków polityki o przesileniach prowadzących do konfliktów zbrojnych.
Chaos przełamuje linię, która dzieliła różne dyscypliny naukowe. Ponieważ jest to nauka o globalnej naturze układów, zetknęła ona ze sobą myślicieli z różnych obszarów wiedzy, do tej pory bardzo odległych. „Piętnaście lat temu nauka stała w obliczu kryzysu wzrastającej specjalizacji — zauważył przedstawiciel marynarki, odpowiedzialny za finansowanie badań naukowych, przed audytorium złożonym z matematyków, biologów, fizyków i lekarzy medycyny. — Ta tendencja gwałtownie odwróciła się za przyczyną chaosu”8. Chaos stawia problemy, których nie podejmowano przy tradycyjnym sposobie pracy w nauce. Przedstawia mocne twierdzenia dotyczące uniwersalnego zachowania się złożoności. Pierwsi teoretycy chaosu, animatorzy tej dziedziny, przejawiali podobną wrażliwość. Umieli rozpoznać strukturę, zwłaszcza strukturę, która pojawia się jednocześnie w różnych skalach. Mieli zamiłowanie do przypadkowości i złożoności, do postrzępionych krawędzi i gwałtownych skoków. Wierzący w chaos — którzy czasami sami siebie nazywają wierzącymi, konwertytami albo misjonarzami — spekulują o determinizmie i wolnej woli, o ewolucji, o naturze świadomej inteligencji. Czują, że odwracają trend w nauce od redukcjonizmu, analizy systemów polegającej na rozkładaniu na części składowe: kwarki, chromosomy czy neurony. Wierzą, że szukają całości.
Najbardziej namiętni obrońcy nowej nauki idą jeszcze dalej, twierdząc, że wiek dwudziesty będzie nazywany wiekiem względności, mechaniki kwantowej i chaosu9. Chaos, twierdzą, stał się w naukach fizycznych trzecią wielką rewolucją tego stulecia10. Podobnie jak dwie pierwsze, chaos odcina się od dogmatów fizyki Newtona. Jak to przedstawił pewien fizyk11: „Względność eliminuje newtonowskie złudzenie absolutnej przestrzeni i czasu; teoria kwantów eliminuje newtonowski sen o kontrolowalnym procesie pomiaru; a chaos eliminuje fantazje Laplace’a o deterministycznej przewidywalności”. Spośród tych trzech, rewolucja zapoczątkowana przez teorię chaosu stosuje się do wszechświata, który widzimy i którego dotykamy, do obiektów w ludzkiej skali. Codzienne doświadczenie i rzeczywisty obraz świata stały się pełnoprawnymi tematami dociekań naukowych. Przez długi czas uważano, nie zawsze mówiąc o tym otwarcie, że fizyka teoretyczna błądzi daleko od ludzkich intuicji dotyczących świata. Nikt nie wie, czy ten pogląd jest owocną herezją czy tylko zwykłą herezją przeciwko dogmatom nauki. Ale wielu obserwatorów, którzy widzieli już fizykę na drodze do narożnika, patrzy teraz z nadzieją na teorię chaosu jako na drogę wyjścia.
W obrębie samej fizyki badania nad chaosem niejako płynęły pod prąd. Głównym nurtem zainteresowań przez znakomitą część dwudziestego wieku była fizyka cząstek elementarnych badająca elementy budowy materii przy coraz większych energiach, w coraz mniejszej skali i w coraz krótszych odcinkach czasu. Z fizyki cząstek wyłoniły się teorie fundamentalnych oddziaływań przyrody i powstania wszechświata. Jednak wielu młodych fizyków było coraz bardziej niezadowolonych z kierunku rozwoju tej najznamienitszej nauki. Postęp zaczął być coraz wolniejszy, nazywanie nowych cząstek daremne, koncepcje teoretyczne wyczerpane. Wraz z nadejściem ery chaosu młodsi naukowcy zaczęli wierzyć, że widzą początek zmiany kursu w całej fizyce. Czuli, że dziedzina ta była przez długi czas zdominowana przez błyszczące abstrakcje fizyki wysokoenergetycznych cząstek i mechaniki kwantowej.
Kosmolog Stephen Hawking, następca Newtona na Uniwersytecie w Cambridge, mówiąc w imieniu większości fizyków, ocenił swoją naukę w 1980 roku w wykładzie pt. „Czy zbliża się koniec fizyki teoretycznej?”.
„Już znamy prawa fizyki, które rządzą wszystkim, czego doświadczamy w codziennym życiu... To zasługa tego, że daleko zaszliśmy w fizyce teoretycznej: teraz potrzebuje ona ogromnych maszyn i potężnych pieniędzy, aby wykonać eksperyment, którego wyniku jeszcze nikt nie zdołał przewidzieć”12.
Jednak Hawking uznał, że zrozumienie praw natury na poziomie cząstek elementarnych pozostawia nierozwiązany problem, jak zastosować te prawa do jakichkolwiek układów, wyjąwszy najprostsze. Jedną sprawą jest przewidywalność w komorze mgłowej, gdzie dwie cząsteczki zderzają się na końcu drogi wokół akceleratora. Zupełnie inna rzecz to przewidywalność w najprostszej balii zawierającej mętną ciecz, w pogodzie na Ziemi czy w ludzkim mózgu.
Fizyka Hawkinga skutecznie zgarniająca Nagrody Nobla i wielkie pieniądze na eksperymenty często bywa nazywana rewolucją. Czasami taka wydaje się teoria wielkiej unifikacji, czyli „teoria wszystkiego”. Fizyka śledziła rozwój energii i materii w całej historii wszechświata z wyłączeniem tylko pierwszych chwil. Ale czy powojenna fizyka cząstek elementarnych była rewolucją? Czy było to wyjście poza granice nakreślone przez Einsteina, Bohra i innych ojców teorii względności i mechaniki kwantowej? Z pewnością osiągnięcia fizyki, od bomby atomowej do tranzystora, zmieniły obraz dwudziestego wieku. A jednak pole widzenia fizyki cząstek wydaje się zawężone. Przeminęły już dwa pokolenia od chwili, gdy ta gałąź wiedzy stworzyła nowe teoretyczne idee, które zmieniły sposób, w jaki niespecjaliści pojmują świat.
Fizyka uprawiana przez Hawkinga mogła zakończyć swoją misję, pozostawiając bez odpowiedzi pewne najbardziej fundamentalne kwestie dotyczące natury. Jak zaczęło się życie na Ziemi? Co to jest turbulencja? A nade wszystko — jak to możliwe, że powstaje porządek we wszechświecie rządzonym przez entropię, dążącą nieugięcie w kierunku coraz większego nieporządku? Tymczasem obiekty codziennego doświadczenia jak ciecze i systemy mechaniczne wydają się tak podstawowe i zwyczajne, że fizycy ulegają naturalnej tendencji do zakładania, że są doskonale zrozumiałe. A tak nie jest.
Kiedy rozpoczęła się rewolucja dotycząca chaosu, najlepsi fizycy zauważyli, że bez żenady wracają do zjawisk ludzkiej codzienności. Teraz badają chmury zamiast galaktyk. Już nie wykonują swoich lukratywnych badań komputerowych za pomocą wielkich maszyn liczących, ale korzystają z komputerów osobistych. Czasopisma fachowe publikują artykuły na temat dziwnej dynamiki kulki skaczącej po stole obok artykułów na temat fizyki kwantowej. Najprostsze systemy wydają się stwarzać niezwykle trudne problemy dotyczące przewidywalności. Jednak porządek pojawia się w tych systemach spontanicznie — chaos i porządek pospołu. Tylko nowa nauka może rozpocząć przekraczanie wielkiej przepaści, jaka dzieli wiedzę o pojedynczych obiektach, takich jak jedna cząsteczka wody, jedna komórka tkanki sercowej, jeden neuron, od wiedzy o systemach złożonych z milionów takich obiektów.
Zaobserwuj kiedyś dwa pęcherzyki piany płynące obok siebie u stóp wodospadu. Co możesz powiedzieć o tym, jak blisko siebie były na jego szczycie? Nic. Dopóki masz do czynienia ze standardową fizyką. Na gruncie fizyki teoretycznej równie dobrze molekuły te mógł wymieszać osobiście sam Bóg. Kiedy fizycy uzyskiwali skomplikowane wyniki, szukali tradycyjnie skomplikowanych przyczyn. Kiedy uzyskiwali przypadkową relację między tym, co weszło do układu, a tym, co z niego wyszło, zakładali, że muszą wbudować przypadkowość do realistycznej teorii przez sztuczne dodanie szumu lub błędów. Współczesne badania chaosu zaczynają się w latach sześćdziesiątych od pełzającego odkrycia, że zupełnie proste równania matematyczne mogą modelować układy w każdym calu tak gwałtowne jak wodospady. Drobne różnice na wejściu mogą szybko przekształcić się w potężne różnice na wyjściu. Zjawisko to otrzymało nazwę: wrażliwość na warunki początkowe. W pogodzie, na przykład, manifestuje się to w zjawisku żartobliwie nazwanym efektem motyla: motyl zaburzający powietrze dzisiaj w Pekinie może być przyczyną huraganu w następnym miesiącu w Nowym Jorku.
Kiedy badacze chaosu zaczęli myśleć o genealogii swej nowej nauki, znaleźli wiele intelektualnych śladów z przeszłości. Ale jedno było jasne. Dla młodych fizyków i matematyków prowadzących tę rewolucję punktem wyjścia był efekt motyla.
Zapraszamy do zakupu pełnej wersji książki
1 M.J. Feigenbaum, P.A. Carruthers, D. Campbell, J.D. Farmer, W.M. Visscher, D. Kerr, B. Hasslacher, E. Jen.
2 M.J. Feigenbaum, P.A. Carruthers.
3 R. Buchal, M.F. Shlesinger, H. Wisniewski.
4 J.A. Yorke.
5 F.K. Browand, The Structure of the Turbulent Mixing Layer, „Physica” 1986 18D, s. 135.
6 Naukowcy japońscy podeszli do problemu ruchu na drodze niezwykle poważnie, patrz: Toshimitsu Musha, Hideyo Higuchi, The 1/f Fluctuation of a Traffic Current on an Expressway, „Japanese Journal of Applied Physics” 1976, s. 1271-1275.
7 B. Mandelbrot, J. Ramsey, J. Wisdom, P. Marcus; Alvin M. Saperstein, Chaos — A Model for the Outbreak of War, „Nature” 1984, 309, s. 303-305.
8 M.F. Shlesinger.
9 M.F. Shlesinger.
10 J. Ford.
11 Joseph Ford, What is Chaos, That We Should Be Mindful of It? Georgia Institute of Technology, s. 12.
12 John Boslough, Stephen Hawking’s Universe, Cambridge University Press, 1980; patrz również Robert Shaw, The Dripping Faucet as a Model Chaotic System, Aerial, Santa Cruz, 1984, s. 1.
Fizycy uważają często, że wystarczy tylko powiedzieć, iż takie to i takie są warunki. Sprawdźmy, co z tego wynika.
Richard P. Feynman
Światło słoneczne pada na Ziemię z nieba, na którym nigdy nie było chmur. Wiatry przemiatają Ziemię tak gładką jak szkło. Noc nie nadchodzi, a po jesieni nie następuje zima. Wcale nie pada. Pogoda symulowana przez nowy komputer Edwarda Lorenza1 zmienia się powoli, ale niezawodnie: ciągła susza w środku sezonu, jak gdyby świat zamienił się w małą wyspę na Pacyfiku albo w południową Kalifornię z jej łagodnym klimatem.
Przez okno Lorenz mógł obserwować faktyczną pogodę: poranną mgłę pełzającą w miasteczku uniwersyteckim Massachusetts Institute of Technology (MIT) albo niskie chmury nasuwające się znad Atlantyku nad dachy domów. Mgła i chmury nigdy nie powstawały w ramach modelu testowanego przez komputer skonstruowany przez Royal McBee. Maszyna, zajmująca znaczną część pokoju Lorenza, stanowiła gąszcz drutów i próżniowych lamp elektronowych, wytwarzała dziwny i denerwujący szum i psuła się mniej więcej co tydzień. Nie miała ani odpowiedniej szybkości, ani pamięci, aby wykonać realistyczną symulację ziemskiej atmosfery i oceanów. Jednak w 1960 roku Lorenz stworzył „komputerową grę pogodową”, która zdołała zahipnotyzować jego kolegów. Co minutę maszyna znaczyła koniec dnia wydrukiem szeregu liczb. Ktoś, kto umiał odczytać wydruki, mógł zobaczyć dominujące wiatry zachodnie skręcające na północ, potem na południe, potem znów na północ. Cyfrowe cyklony wirowały wokół wyidealizowanego globu. Kiedy wieść rozeszła się po zakładzie, inni meteorologowie gromadzili się wraz ze studentami, przyjmując zakłady, jak też zachowa się pogoda Lorenza. Jakoś nic nigdy nie zdarzało się dwa razy.
Lorenz lubił pogodę — bez wątpienia był to warunek wstępny, aby zostać meteorologiem-badaczem. Delektował się jej zmiennością. Z przyjemnością obserwował układ, jaki następował i przemijał, rodziny wirów i cyklonów, które wprawdzie zawsze podlegały prawom matematyki, jednak nigdy się nie powtarzały. Kiedy patrzył na chmury, wydawało mu się, że rozpoznaje w nich jakąś strukturę. Wcześniej obawiał się, że studiowanie nauki o pogodzie przypomina dłubanie śrubokrętem przy pudełku z diabełkiem wyskakującym na sprężynie. Potem zastanawiał się, czy nauka o pogodzie jest w ogóle w stanie zgłębiać jej tajemnice. Czuło się, że pogody nie sposób zrozumieć za pomocą średnich. Najwyższa dzienna temperatura w Cambridge, w stanie Massachusetts, wynosi w czerwcu średnio 75°F. W Riyadh w Arabii Saudyjskiej w ciągu roku jest średnio dziesięć dni deszczowych. To są statystyki. Istota jednak polegała na tym, jak pogoda zachowuje się w czasie, i to właśnie Lorenz wysymulował na swoim Royal McBee.
Był bogiem we wszechświecie tej maszyny, mogąc stwarzać prawa przyrody wedle swojego życzenia. Po pewnej liczbie nieboskich prób i błędów wybrał dwanaście. Były to reguły numeryczne2 — równania, które wyrażały relacje między temperaturą a ciśnieniem i między ciśnieniem a prędkością wiatru. Lorenz zrozumiał, że wdrożył do praktyki prawa Newtona, właściwe narzędzia dla boskiego zegarmistrza, który może stworzyć świat i puścić w ruch na nieskończenie długi czas. Dzięki determinizmowi praw fizyki dalsze interwencje byłyby niepotrzebne. Ci, którzy zbudowali takie modele, z góry zakładali, że od dzisiaj aż po wieczność prawa ruchu dostarczają pomostu matematycznej pewności. To była filozofia leżąca u podłoża modelowania pogody na komputerze.
Osiemnastowieczni filozofowie wyobrażali sobie Stwórcę jako życzliwego nieinterwencjonistę, zadowolonego z pozostawania poza sceną, a Lorenz rzeczywiście spełniał te kryteria. Był on dziwnym meteorologiem. Miał pooraną bruzdami twarz jankeskiego farmera o zdumionych jasnych oczach, które sprawiały, że wydawało się, iż śmieje się, niezależnie od tego, czy rzeczywiście robił to czy nie. Rzadko mówił o sobie czy też o swojej pracy, ale lubił słuchać. Często znikał w królestwie obliczeń albo marzeń, gdzie był niedostępny dla swoich kolegów. Jego najbliżsi przyjaciele czuli, że Lorenz spędza mnóstwo czasu w odległej przestrzeni kosmicznej.
Już jako chłopiec był zwariowany na punkcie pogody i sporządzał pomiary maksymalnej i minimalnej temperatury w pobliżu domu swoich rodziców w West Hartford w stanie Connecticut. Ale więcej czasu spędzał, bawiąc się książkami z zagadkami matematycznymi. Czasami wymyślał takie zagadki wraz ze swoim ojcem. Pewnego razu znaleźli szczególnie trudny problem i wszystko wskazywało na to, że jest on nie do rozwiązania. „Trzeba to zaakceptować — powiedział mu ojciec. — Zawsze możesz spróbować rozwiązać problem, dowodząc, że rozwiązanie nie istnieje”. Lorenzowi spodobało się to zdanie, bo zawsze zachwycał się czystością matematyki3, a kiedy w 1938 roku ukończył Dartmouth College, pomyślał, że matematyka jest jego powołaniem. Jego losy skomplikowała jednak druga wojna światowa i został meteorologiem w Korpusie Lotniczym (Army Air Corps). Po wojnie Lorenz zdecydował się pozostać w meteorologii i zająć się badaniami jej teorii i rozwijaniem matematyki. Zdobył rozgłos dzięki publikacji na temat takich ortodoksyjnych problemów jak ogólna cyrkulacja atmosfery. A tymczasem ciągle myślał o prognozowaniu pogody.
Dla większości poważnych meteorologów prognozowanie to nie nauka. To żmudne zajęcie wykonywane przez techników, które wymaga nieco intuicji, by z instrumentów i chmur odczytywać pogodę na następny dzień. To zgadywanka. W takich ośrodkach naukowych jak MIT meteorologia wolała problemy, które miały rozwiązania. Lorenz lepiej niż inni rozumiał niepewność prognoz pogody, ponieważ sam kiedyś wykonywał to zajęcie, aby pomóc pilotom wojskowym, ale zainteresowanie tą kwestią pozostało — matematyczne zainteresowanie.
Nie tylko meteorologowie gardzili prognozami; w latach sześćdziesiątych tak naprawdę wszyscy poważni naukowcy nie dowierzali komputerom. Te „podkręcone” liczydła nie wydawały się odpowiednimi narzędziami nauk teoretycznych. Podobnie numeryczne prognozowanie pogody było pseudoproblemem. Jednak sam problem już dojrzał do rozwiązania. Prognozowanie pogody czekało dwa wieki na maszynę, która mogłaby powtarzać tysiące obliczeń. Tylko komputer mógł zrealizować Newtonowską obietnicę, że świat rozwija się na gruncie deterministycznym i że rządzą nim takie same prawa, które pozwalają przewidywać eliptyczne tory planet albo pływy. Teoretycznie komputer mógłby pozwolić meteorologom wykonać to, co astronomowie zdołali zrobić w swojej dziedzinie za pomocą ołówka i suwaka: obliczyć przyszłość wszechświata z warunków początkowych i praw fizyki, które rządzą jego ewolucją. Równania opisujące ruch powietrza i wody były równie dobrze znane jak te, które opisują ruch planet. Astronomowie nie osiągnęli perfekcji i nigdy nie osiągną, nie w Układzie Słonecznym szarpanym przez pole grawitacyjne dziewięciu planet, dziesiątków księżyców i tysięcy asteroidów, ale obliczenia ruchu planet były tak dokładne, że ludzie zapomnieli, iż to tylko przewidywania. Kiedy astronom mówi, że kometa Halleya wróci po tym samym torze za 76 lat, wydaje się to faktem, a nie proroctwem. Deterministyczne prognozowanie numeryczne wylicza dokładne trasy lotów statków kosmicznych i pocisków. Dlaczego nie można tego spróbować w odniesieniu do wiatru i chmur?
Pogoda jest dużo bardziej skomplikowana, ale rządzi się tymi samymi prawami. Może dostatecznie potężny komputer mógłby być tą najwyższą inteligencją wyimaginowaną przez Laplace’a, osiemnastowiecznego filozofa i matematyka, który zaraził się entuzjazmem Newtona jak nikt inny. „Taka inteligencja — pisał Laplace — objęłaby w tej samej formule ruchy największych ciał wszechświata i najlżejszych atomów; dla niej nic nie byłoby niepewne, zarówno przyszłość, jak i przeszłość byłyby dla niej teraźniejszością”4. W czasach powstawania teorii względności Einsteina i zasady nieoznaczoności optymizm Laplace’a wydawał się nie na miejscu, ale większość przedstawicieli współczesnej nauki podzielała jego marzenia. W istocie misja wielu dwudziestowiecznych naukowców — biologów, neurologów, ekonomistów — polega na rozbijaniu wszechświata na najprostsze atomy, które spełniają naukowe reguły. We wszystkich tych naukach jest stosowany rodzaj newtonowskiego determinizmu. Ojcowie współczesnej komputeryzacji zawsze pamiętali o Laplasie, a historia komputeryzacji i historia prognoz wzajemnie się przeplatały od czasu, gdy John von Neumann zaprojektował swoją pierwszą maszynę w Instytucie Badań Zaawansowanych w Princeton w stanie New Jersey w 1950 roku. Von Neumann uważał, że modelowanie pogody mogłoby być idealnym zadaniem dla komputera.
Oczywiście zawsze istniał pewien kompromis, tak mały, że naukowcy zwykle zapominali, że czai się w zakamarkach filozofii jak niezapłacony rachunek. Pomiary nigdy nie mogą być idealne. Naukowcy maszerujący pod sztandarami Newtona faktycznie niosą inny transparent, na którym wypisano coś w rodzaju: Jeśli ma się przybliżoną wiedzę o warunkach początkowych i zna się prawa przyrody, można w przybliżeniu obliczyć zachowanie się systemu. To założenie leży w samym filozoficznym sercu nauki. Jak zwykł mawiać pewien teoretyk5 do swoich studentów: „Podstawowa idea zachodniej nauki polega na tym, że nie trzeba brać pod uwagę spadającego liścia na jakiejś planecie w innej galaktyce, kiedy próbuje się wyjaśnić ruch kuli na stole bilardowym na Ziemi. Bardzo małe oddziaływania mogą być zaniedbane. Istnieje zbieżność w sposobie działania rzeczy i arbitralnie małe oddziaływania nie mają arbitralnie wielkiego wpływu”. W klasycznej nauce wiara w przybliżenie i zbieżność była dobrze uzasadniona. Drobny błąd w ustaleniu pozycji komety Halleya w 1910 roku spowodował tylko, że jej przybycie w 1986 roku zostało przewidziane z niewielkim błędem, i błąd pozostawałby taki mały przez miliony lat. Komputery opierają się na tym samym założeniu podczas prowadzenia statków kosmicznych: prawie dokładne dane wejściowe dają prawie dokładne przewidywania. W ekonomii progności również opierają się na tym założeniu, chociaż ich sukcesy są mniej widoczne. To samo dotyczy pionierów globalnych prognoz pogodowych.
Lorenz, posługując się swoim prymitywnym komputerem, wypreparował pogodę do nagiego szkieletu. Jednak linia po linii wiatry i temperatury w wydrukach Lorenza wydawały się zachowywać w rozpoznawalny ziemski sposób. Pasowały one do jego wypieszczonych intuicji o pogodzie, do jego odczucia, że pogoda powtarza się, wykazując w czasie znajome układy, w których ciśnienie to rośnie, to maleje, a wiatry wieją raz z północy, a raz z południa. Odkrył, że kiedy linia biegnie od wyżu do niżu bez garbu, pojawi się potem podwójny garb. Powiedział wtedy: „Jest to rodzaj reguły, którą mogą się posłużyć progności”6. Ale powtórzenia nigdy nie były dokładne. To był układ z zakłóceniami. Uporządkowany nieporządek.
Aby lepiej zaobserwować układy pogody, Lorenz stworzył prymitywny rodzaj grafiki. Zamiast drukować zwykłe linie cyfr, jego maszyna drukowała pewną liczbę spacji, po których pojawiała się litera a. Lorenz mógł wybrać jedną zmienną, np. kierunek strumienia powietrza. Litery a stopniowo maszerowały po rolce papieru, kołysząc się w przód i w tył po linii falistej, tworząc długi szereg wzgórz i dolin, które ukazywały, jak zachodni wiatr nad kontynentem odchylał się na północ i południe. Porządek tego zjawiska, rozpoznawalne, wciąż następujące po sobie cykle, ale nigdy dwukrotnie w ten sam sposób, były fascynujące. Układ wydawał się powoli odkrywać swoje tajemnice przed okiem meteorologa.
Pewnego dnia w zimie 1961 roku, chcąc sprawdzić pewną dłuższą sekwencję programu, Lorenz uprościł sobie pracę. Zamiast wystartować z programem od początku, zrobił to od środka. Aby zaś wprowadzić właściwe dane początkowe, posłużył się liczbami z jednego z poprzednich wydruków. Potem spacerował po korytarzu, chcąc uniknąć nieprzyjemnego szumu i wypić filiżankę kawy. Kiedy wrócił pół godziny później, ujrzał coś zupełnie nieoczekiwanego, coś, co stało się podwaliną nowej nauki.
Nowy przebieg programu powinien być dokładnym duplikatem poprzedniego. Lorenz osobiście wprowadził dane do maszyny. Program nie został zmieniony. Jednak teraz, gdy oglądał nowy wydruk, widział swoją pogodę tak odbiegającą od układu wyliczonego podczas ostatniego przebiegu, że w okresie zaledwie kilku miesięcy całe podobieństwo zniknęło. Oglądał to jeden, to drugi zbiór danych. Równie dobrze mógł wyciągnąć przypadkowo oba układy pogody z kapelusza. Najpierw pomyślał, że znowu popsuła się jakaś lampa w komputerze.
Nagle zrozumiał7. Nie było przekłamania. Problem leżał w liczbach, które wpisał. W pamięci komputera było zapisanych sześć liczb: .506127. Na wydruku — aby zaoszczędzić miejsca — pojawiły się tylko trzy: .506. Lorenz wprowadził krótszą, zaokrągloną liczbę, zakładając, że różnica — jedna tysięczna — jest nieistotna.
Było to rozsądne założenie. Jeśli satelita pogodowy może odczytywać temperaturę powierzchni oceanów z dokładnością do tysięcznych części, jego operatorzy uważają się za bardzo szczęśliwych. Royal McBee Lorenza wykonywał klasyczny program. Stosował czysto deterministyczny układ równań. Z określonego punktu początkowego pogoda powinna ewoluować dokładnie w ten sam sposób za każdym razem. Z nieco innym punktem początkowym pogoda powinna rozwijać się w nieco inny sposób. Mały błąd numeryczny był jak mały podmuch wiatru — z pewnością małe podmuchy wiatru gasną lub znoszą się wzajemnie, zanim mogą zmienić ważne, makroskopowe cechy pogody. Jednak w szczególnym układzie równań Lorenza małe błędy doprowadziły do katastrofalnych skutków8.
Lorenz postanowił dokładniej przyjrzeć się temu, w jaki sposób rozbiegają się dwa prawie identyczne wykresy. Powielił jedną falistą linię z wydruku na folii i położył na drugą, aby sprawdzić, czym się różnią. Początkowo dwa garby na obu liniach dokładnie pasowały do siebie. Potem jedna linia zaczęła pozostawać w tyle na grubość jednego włosa. Zanim przebiegi osiągnęły następny grzbiet, były już wyraźnie niezgodne w fazie. Przy trzecim z czterech grzbietów całe podobieństwo znikło.
EDWARD N. LORENZ, ADOLPH E. BROTMAN
Tak rozbiegają się dwa układy pogodowe. Prawie z tego samego punktu początkowego komputer Edwarda Lorenza wyprodukował układy pogody, które oddalały się od siebie coraz bardziej, aż zniknęły ich wszystkie podobieństwa. (Z wydruków Lorenza z 1961 roku).
To musiały być niedokładności niezdarnego komputera. Lorenz mógł założyć, że coś było nie w porządku z jego maszyną albo z jego modelem — prawdopodobnie powinien był tak założyć. Nie było przecież bynajmniej tak, że zmieszał sód i chlor i powstało złoto. Ale jego matematyczna intuicja, którą jego koledzy zaczęli rozumieć znacznie później, wymierzyła mu prawdziwego kopniaka: w jego filozofii tkwiła jakaś niespójność. Praktyczna waga tego odkrycia oszołomiła go. Chociaż równania Lorenza były tylko parodią ziemskiej pogody, wierzył, że obejmują istotę rzeczywistej atmosfery. W tym dniu zrozumiał, że prognozy długoterminowe w meteorologii są skazane na niepowodzenie9.
„Z pewnością nie potrafiliśmy tego robić i teraz mamy usprawiedliwienie — powiedział. — Myślę, że jedną z przyczyn, dla których ludzie uważali, iż będzie możliwe prognozowanie pogody, było założenie, że istnieją realne fizyczne zjawiska, za pomocą których można opracować świetną prognozę: na przykład przewidzieć zaćmienia Słońca i Księżyca — chociaż dynamika Słońca, Księżyca i Ziemi jest raczej skomplikowana — lub pływy oceaniczne. Nigdy nie zwykłem myśleć o prognozowaniu pływów jako o przewidywaniu — myślałem raczej jako o ustaleniu faktu — ale oczywiście jest to rodzaj prognozy. Pływy są w rzeczywistości tak skomplikowane jak atmosfera. Oba zjawiska mają okresowe składowe — można przewidzieć, że w lecie przyszłego roku będzie cieplej niż w zimie. Ale w przypadku pogody zajmujemy stanowisko, że to już wiedzieliśmy. Jeśli chodzi o pływy, interesujemy się tym, co w nich przewidywalne; to, co nieprzewidywalne, jest małe, o ile nie ma sztormu.
Przeciętna osoba widząc, że potrafimy całkiem dobrze przewidywać pływy na kilka miesięcy naprzód, pyta, dlaczego nie potrafimy zrobić tego samego w przypadku atmosfery, chodzi tu przecież o inny płyn, a prawa są tak samo skomplikowane. Ale ja uświadomiłem sobie, że dowolny układ fizyczny, który zachowuje się nieokresowo, jest nieprzewidywalny”10.
Lata pięćdziesiąte i sześćdziesiąte były latami nierealistycznego optymizmu, jeśli chodzi o prognozowanie pogody11. Gazety i czasopisma oczekiwały na sukcesy nauki o pogodzie, nie tylko na przewidywanie pogody, ale również na modyfikowanie jej i sterowanie nią. Tymczasem dojrzewały równocześnie dwie technologie: maszyny cyfrowe i satelity kosmiczne. Przygotowano międzynarodowy program (Global Atmosphere Research Program), aby móc je wykorzystać. Myślą przewodnią tego programu było uwolnienie ludzkości od niepokojów związanych z perturbacjami pogodowymi: ludzie powinni panować nad pogodą, a nie być jej ofiarami. Kopuły geodezyjne miały przykryć pola uprawne. Samoloty miały obsiewać chmury. Naukowcy mieli ustalić, jak wywoływać deszcz i jak go powstrzymywać.
Intelektualnym ojcem tego popularnego poglądu był von Neumann, który zbudował swój pierwszy komputer z intencją, między innymi, kontrolowania pogody. Otoczył się meteorologami i prowadził zapierające dech w piersiach pogadanki dla fizyków na temat swoich planów. Miał on specyficzne matematyczne uzasadnienie dla swojego optymizmu, ponieważ to on odkrył, że skomplikowane systemy dynamiczne mogą mieć punkty niestabilności — punkty krytyczne, w których słaby bodziec może mieć potężne konsekwencje — jak kulka balansująca na szczycie góry. Von Neumann wyobrażał sobie, że za pomocą komputera naukowcy będą mogli rozwiązywać równania ruchu płynów na najbliższe kilka dni12. Następnie centralny komitet meteorologów wysyłałby samoloty, aby zrzucały zasłonę dymną albo obsiewały chmury w celu przestawienia pogody w żądany tryb. Ale von Neumann przeoczył możliwość chaosu z niestabilnością w każdym punkcie.
W latach osiemdziesiątych uruchomiono potężną i drogą machinę biurokratyczną do wykonania misji von Neumanna albo przynajmniej jej części13. Amerykańscy spece od prognoz pogodowych pracowali na przedmieściach Maryland w pobliżu autostrady do Waszyngtonu, w betonowych bunkrach z ekranami radarowymi i antenami radiowymi na dachu. Ich superkomputery testowały model, który przypominał model Lorenza tylko w podstawowych kwestiach. Gdy Royal McBee mógł wykonać sześćdziesiąt operacji mnożenia na sekundę, prędkość Control Data Cyber 205 była mierzona w megaflopach, milionach operacji zmiennoprzecinkowych na sekundę. Gdy Lorenz zadowalał się dwunastoma równaniami, nowoczesne globalne modele rozwiązywały układy 500 000 równań. Model uwzględniał sposób, w jaki para wodna przenosiła ciepło powietrza, kiedy kondensowała się i parowała. Cyfrowe wiatry były kształtowane przez łańcuchy cyfrowych gór. Dane napływały godzinami z każdego kraju, z samolotów, satelitów i statków. National Meteorological Center (Państwowe Centrum Meteorologiczne) sporządzało drugie pod względem jakości na świecie prognozy pogody.
Najlepsze pochodziły z Reading w Anglii, małego miasteczka uniwersyteckiego znajdującego się godzinę drogi od Londynu. European Centre for Medium Range Weather Forecasts (Europejskie Centrum Średnioterminowych Prognoz Pogody) zajmowało skromny budynek ocieniony drzewami, wybudowany w bezosobowym, szklano-ceglanym stylu Organizacji Narodów Zjednoczonych. Była to budowla z najlepszego okresu idei wszecheuropejskiego wspólnego rynku, kiedy większość narodów zachodniej Europy zdecydowała się połączyć swoje talenty i zasoby w celu przewidywania pogody. Europejczycy przypisywali swój sukces młodej, wciąż zmieniającej się kadrze — bez urzędników państwowych — i swojemu superkomputerowi Cray, który zawsze wydawał się lepszy od amerykańskiego.
Prognozowanie pogody było początkiem, ale nie końcem problemu wykorzystania komputerów do modelowania złożonych układów. Te same techniki zastosowano w wielu gałęziach nauk fizycznych i społecznych w nadziei przewidywania wszystkiego — od przepływu płynów, co interesowało projektantów śmigieł, aż do potężnych przepływów pieniędzy, co interesowało ekonomistów. Rzeczywiście w latach siedemdziesiątych i osiemdziesiątych ekonomiczne prognozowanie za pomocą komputerów wykazywało podobieństwo do globalnego prognozowania pogody. Modele kipiały skomplikowanymi, nieco arbitralnymi układami równań przekształcającymi warunki początkowe — ciśnienie atmosferyczne albo podaż pieniądza — w przyszłe trendy. Programiści mieli nadzieję, że wyniki nie będą zbyt mocno zniekształcone przez nieuniknione założenia upraszczające. Jeśli model wykazywał coś zbyt dziwacznego — jak zatopienie Sahary albo potrojenie stopy zysku — programiści rewidowali równania, aby wyniki zgadzały się z oczekiwaniami. W praktyce modele okazały się całkowicie ślepe na to, co miała przynieść przyszłość, ale wiele osób, które powinny wiedzieć lepiej, zachowywało się tak, jak gdyby wierzyło w te wyniki. Prognozy wzrostu ekonomicznego albo bezrobocia były wysuwane z pseudodokładnością do dwóch lub trzech miejsc dziesiętnych14. Instytucje finansowe i rządowe płaciły za takie przewidywania i postępowały według nich, być może nie z konieczności, ale z braku czegoś lepszego. Prawdopodobnie wiedziały, że takie zmienne jak „optymizm konsumenta” nie były tak dokładnie mierzone jak „wilgotność” i że dotąd nie napisano dokładnych równań opisujących ruchy na arenie politycznej i rynku mody. Ale nieliczni tylko zdawali sobie sprawę, jak kruchy jest proces modelowania przepływów na komputerze, nawet kiedy dane są rozsądnie prawdopodobne, a prawa czysto fizyczne, jak w prognozowaniu pogody.
Modelowanie komputerowe odniosło realny sukces, zamieniając sztukę prognozowania w naukę przyrodniczą. Oszacowania European Centre sugerowały, że świat zaoszczędza miliardy dolarów każdego roku z przewidywań, które — statystycznie rzecz biorąc — były lepsze niż nic. Ale dłuższe niż dwu-, trzydniowe najlepsze na świecie prognozy były spekulacjami, dłuższe zaś niż sześcio-, siedmiodniowe — po prostu bezwartościowe.
Przyczyną był efekt motyla15. Dla małych składników pogody — a dla globalnego meteorologa „mały” może oznaczać oberwanie chmury czy burzę śnieżną — każde przewidywanie gwałtownie traci na wartości. Niepewność i błędy mnożą się w każdym ogniwie łańcucha procesów turbulentnych, poczynając od tumanu kurzu i nawałnicy aż do kontynentalnych wirów, które może dostrzec tylko satelita.
Współczesne modele pogody są oparte na siatce punktów z oczkami oddalonymi od siebie o około 6 mil, a mimo to pewne dane wyjściowe trzeba zgadywać, ponieważ stacje naziemne i satelity nie mogą uchwycić wszystkiego. Ale załóżmy16, że Ziemia mogłaby być pokryta siecią rozpościerającą się również w górę, aż do krańców atmosfery, z oczkami odległymi od siebie o pół metra. Załóżmy, że każdy czujnik dostarczałby idealnie dokładnych pomiarów temperatury, ciśnienia, wilgotności i innych danych, których potrzebują meteorologowie. Dokładnie o północy komputer o nieskończonej mocy obliczeniowej połknąłby te wszystkie dane i obliczył, co się stanie w każdym punkcie sieci o 12.01, następnie o 12.02, 12.03...
Komputer mimo to nie byłby w stanie przewidzieć, czy miesiąc później w Princeton, w stanie New Jersey, będzie świeciło słońce czy padał deszcz. O północy odległości między czujnikami ulegną fluktuacjom, drobnym odchyleniom od średniej, o których komputer nie będzie wiedział. Przed 12.01 te fluktuacje wytworzą już niewielkie błędy w odległości pół metra. Wkrótce błędy pojawią się w odległości 5 metrów, aż wreszcie pokryją cały glob.
Nawet dla doświadczonych meteorologów wszystko to przeczy zdrowemu rozsądkowi. Jednym ze starych przyjaciół Lorenza był Robert White, docent meteorologii w MIT, który później został dyrektorem National Oceanic and Atmospheric Administration. Lorenz opowiedział mu o efekcie motyla i o długoterminowych prognozach meteorologicznych. White udzielił mu neumannowskiej odpowiedzi: „Przewidywanie to głupstwo. Sterowanie pogodą — to jest to”17. Miał na myśli, że małe modyfikacje, takie w ludzkiej skali, mogłyby spowodować żądane zmiany w wielkim zakresie.
Lorenz widział to inaczej. Tak, można zmienić pogodę. Można spowodować, że będzie ona kształtować się w nieco inny sposób, niż kształtowałaby się bez ingerencji. Ale jeśli tak uczynimy, nigdy nie będziemy wiedzieli, jak pogoda kształtowałaby się bez tej ingerencji. Byłoby to jak dodatkowe mieszanie dobrze już potasowanej talii kart: wiesz, że zmieni twój los, ale nie wiesz, czy na lepsze, czy na gorsze.
Odkrycie Lorenza było przypadkiem, jeszcze jednym w szeregu ciągnącym się od Archimedesa i jego wanny. Lorenz nie był człowiekiem, który krzyczał: Eureka! Przypadkowe odkrycie doprowadziło go do miejsca, w którym tkwił przez cały czas. Był jednak gotów badać konsekwencje swojego odkrycia, pokazując, co ono oznacza dla zrozumienia przepływów wszystkich rodzajów płynów.
Jeśli Lorenz zatrzymałby się na efekcie motyla, efekcie określającym niemożliwość przewidywania, byłby tylko zwiastunem złych wieści. Ale zobaczył on coś więcej niż tylko przypadkowość wrytą w swój model pogody. Zobaczył piękną strukturę geometryczną, porządek w przebraniu przypadkowości. Lorenz był jednakże matematykiem przebranym za meteorologa i teraz zaczął prowadzić podwójne życie. Pisał prace czysto meteorologiczne. Ale również pisał prace czysto matematyczne, ze wstępami zawierającymi trochę informacji o pogodzie. W końcu wstępy znikły całkowicie.
Lorenz zwracał coraz większą uwagę na matematykę układów, które nigdy nie znajdowały stanu stabilnego, układów, które ciągle się powtarzały, ale nigdy idealnie. Każdy wie, że pogoda jest takim systemem — aperiodycznym. Przyroda jest pełna innych układów tego typu: populacje zwierząt, które rozrastają się i kurczą prawie regularnie; epidemie, które pojawiają się i zanikają według prowokująco regularnego planu. Jeśli pogoda osiągnęłaby stan idealnie taki sam jak kiedyś, z takimi samymi najdrobniejszymi wietrzykami i chmurami, to prawdopodobnie powtarzałaby się w nieskończoność i problem prognozowania stałby się trywialny.
Lorenz zrozumiał, że musi zachodzić związek pomiędzy niechęcią pogody do powtarzania się a niezdolnością meteorologów do jej przewidywania — związek między aperiodycznością i nieprzewidywalnością18. Niełatwo było znaleźć proste równania oddające aperiodyczność, której szukał. Początkowo jego komputer dążył do zamykania się w powtarzalnych cyklach. Ale Lorenz próbował różnych drobnych komplikacji i ostatecznie udało mu się. Wprowadził równanie, które opisywało zmiany ilości ciepła ze wschodu na zachód. Odpowiadało to rzeczywistej różnicy między stopniem nagrzania, na przykład wschodniego wybrzeża Ameryki Północnej a Oceanu Atlantyckiego. Powtarzalność znikła.
Ale efekt motyla nie był przypadkiem, był koniecznością. Załóżmy, że małe zakłócenia pozostają małe, rozumował, zamiast rozwijać się z czasem. Zatem kiedy pogoda dojdzie dowolnie blisko stanu, przez który przechodziła przedtem, będzie ona dowolnie blisko schematu, który nastąpi. Praktycznie cykle powinny być wówczas przewidywalne i w konsekwencji mało interesujące. Aby wytworzyć bogaty repertuar układów rzeczywistej ziemskiej pogody, w całym jej pięknie i wielorakości, nie można mieć niczego bardziej stosownego niż efekt motyla.
Efekt motyla wymagał nazwy technicznej i ją otrzymał — wrażliwość na warunki początkowe. Ale wrażliwość na warunki początkowe nie była całkowicie nowym pojęciem. Miała już swoje miejsce w folklorze:
Z braku gwoździa stracono but,
Z braku buta stracono konia,
Z braku konia zginął jeździec,
Z braku jeźdźca przegrano bitwę,
Z braku zwycięstwa w bitwie stracono królestwo19.
George Herbert (przeł. Marek Obarski)
W nauce jak w życiu: dobrze wiadomo, że łańcuch zdarzeń może mieć punkt krytyczny, który mógłby zwielokrotniać małe zmiany. Ale chaos oznaczał, że takie punkty były wszędzie. One się rozprzestrzeniały. W układach takich jak pogoda wrażliwość na warunki początkowe jest nieuniknioną konsekwencją sposobu, w jaki małe skale przeplatają się z wielkimi.
Koledzy byli zaskoczeni tym, że Lorenz potrafi symulować zarówno aperiodyczność, jak i wrażliwość na warunki początkowe w swoim zabawowym modelu pogody: dwanaście równań obliczanych wciąż i wciąż z precyzyjną mechaniczną biegłością. Jak mogły takie bogactwo, taka nieprzewidywalność — taki chaos — powstawać z prostego deterministycznego układu?
Lorenz odłożył na bok badania pogody i szukał jeszcze prostszego sposobu wytworzenia takiego złożonego zachowania. Znalazł go w układzie zaledwie trzech równań. Były to równania nieliniowe, co znaczy, że wyrażały relacje, które nie były prostymi proporcjonalnościami. Liniowe relacje mogą być przedstawione na wykresie za pomocą linii prostej. Można powiedzieć, że spełniają regułę: im więcej, tym lepiej. Równania liniowe są rozwiązywalne, co sprawia, że są odpowiednie do przedstawiania w podręcznikach. Układy liniowe mają ważną cechę modułowości: można je rozdzielić i połączyć, dodając poszczególne części.
Układów nieliniowych ogólnie nie można rozwiązać i nie można dodawać. W przypadku cieczy i układów mechanicznych wyrażenia nieliniowe chętnie się opuszcza, próbując nadać im prostą i jasną interpretację. Na przykład — tarcie. Bez tarcia proste równanie liniowe wyraża ilość energii potrzebnej do przyspieszenia krążka hokejowego. Z tarciem relacja staje się bardziej skomplikowana, ponieważ ilość energii zmienia się w zależności od szybkości, z jaką porusza się krążek w danej chwili. Nieliniowość oznacza, że rozpoczęcie gry samo w sobie może zmienić jej reguły. Nie możesz przypisać stałej ważności tarciu, ponieważ zależy ona od prędkości. Ta z kolei zależy od tarcia. To wzajemne oddziaływanie powoduje, że równania nieliniowe tak trudno jest rozwiązywać, ale tworzą one również bogactwo zachowań, które nigdy nie występuje w układach liniowych. W dynamice płynów wszystko upraszcza się do jednego równania kanonicznego — równania Naviera-Stokesa. Jest to cudowna zwięzłość wiążąca prędkość płynu, ciśnienie, gęstość i lepkość, ale tak się składa, że jest równaniem nieliniowym. Tak więc natura tych relacji często jest nie do określenia. Analizowanie zachowania się układów nieliniowych, takich jak równanie Naviera-Stokesa, przypomina błądzenie po labiryncie, którego ściany przestawiają się po każdym twoim kroku. Jak to wyraził von Neumann: „Charakter równania... zmienia się równocześnie we wszystkich istotnych aspektach: zmienia się zarówno porządek, jak i stopień. Zatem należy spodziewać się bardzo przykrych trudności matematycznych”20. Świat byłby inny — a nauka nie potrzebowałaby chaosu — gdyby równanie Naviera-Stokesa nie zawierało demona nieliniowości.
Trzy równania Lorenza wynikają z rozważań nad szczególnym rodzajem ruchu płynu: unoszeniem się gorącego gazu albo cieczy, zwanym konwekcją. W atmosferze konwekcja miesza powietrze podgrzewane przez nagrzaną słońcem Ziemię i lśniące fale konwekcyjne unoszą się jak zjawy nad gorącą smołą lub grzejnikiem. Lorenz z wielkim przejęciem mówił o konwekcji w filiżance gorącej kawy21. Jak twierdził, był to jeden z niezliczonych hydrodynamicznych procesów w naszym wszechświecie, którego przyszłe zachowanie możemy chcieć poznać. Jak obliczyć szybkość, z jaką stygnie kawa w filiżance? Jeśli kawa jest tylko ciepła, jej ciepło będzie się rozpraszać bez żadnych ruchów hydrodynamicznych. Kawa pozostaje w stanie stacjonarnym. Ale jeśli jest dostatecznie gorąca, ruchy konwekcyjne przeniosą gorącą kawę z dna filiżanki w kierunku zimniejszej powierzchni. Konwekcja w kawie staje się wyraźnie widoczna, kiedy doda się niewielką ilość śmietany. Wiry mogą być całkiem skomplikowane. Ale los tego układu jest oczywisty. Ponieważ ciepło rozprasza się i tarcie zmniejsza energię poruszającego się płynu, ruch nieuchronnie zaniknie. „Moglibyśmy mieć trudości z przewidywaniem temperatury kawy na jedną minutę naprzód, ale nie powinniśmy mieć ich w ustaleniu temperatury na godzinę naprzód”22. Równania ruchu, które rządzą ochładzaniem się kawy w filiżance, muszą odzwierciedlać los układu. Muszą być dysypatywne. Temperatura musi wziąć kurs na temperaturę pokoju, a prędkość zmniejszać się do zera.
Lorenz zastosował układ równań na konwekcję i obrał je do kości, odrzucając wszystko, co mogłoby być nieistotne, czyniąc je nierealnie prostymi23. Prawie nic nie pozostało z oryginalnego modelu, ale nadal pozostał on nieliniowy. Dla fizyka równania te wyglądały prosto. Spojrzawszy na nie — wielu naukowców uczyniło to w następnych latach — ma się ochotę powiedzieć, że można je rozwiązać.
„Tak — Lorenz powiedział cicho — ma się skłonność, żeby tak powiedzieć, kiedy się je zobaczy. Jest tam kilka nieliniowych wyrażeń, lecz myślisz, że musi być sposób, aby się z nimi uporać. Ale po prostu nie jest to możliwe”.
Najprostszy rodzaj podręcznikowej konwekcji następuje w komórce cieczy, pudełku z gładkim dnem, które może być ogrzewane, i gładkim wierzchem, który może być ochładzany. Różnica temperatury między gorącym dnem i zimnym wierzchem steruje przepływem. Jeśli różnica jest mała, ciecz pozostaje nieruchoma. Ciepło przenosi się w kierunku szczytu przez przewodzenie jak przez metalową sztabkę, bez pokonywania naturalnej tendencji cieczy do pozostawania w spoczynku. Ponadto układ jest stabilny. Jakikolwiek przypadkowy ruch, który mógłby wystąpić, kiedy, powiedzmy, jakiś student zastuka w aparat, będzie wygasał, a system powróci do stanu stacjonarnego.
ADOLF E. BROTMAN
Krążący płyn. Kiedy ciecz lub gaz są podgrzewane od dołu, płyn ma tendencję do organizowania się w cylindryczne rolki (po lewej). Gorący płyn podnosi się po jednej stronie, traci ciepło i opada po drugiej stronie — jest to proces konwekcji. Kiedy dostarczy się więcej ciepła (po prawej), pojawia się niestabilność i rolki zaczynają się wić tam i z powrotem wzdłuż cylindrów. Przy jeszcze wyższych temperaturach przepływ staje się bezładny i turbulentny.
Pomimo to, kiedy zwiększy się ogrzewanie, rozwinie się nowy rodzaj zachowania. Kiedy płyn poniżej staje się gorący, rozszerza się. Gdy się rozszerzy, staje się mniej gęsty. Gdy jest mniej gęsty, staje się lżejszy i pokonując tarcie, unosi się w kierunku powierzchni. W dokładnie skonstruowanym pudełku rozwija się cylindryczna rolka, przy czym gorący płyn podnosi się po jednej stronie, a zimny opada po drugiej. Patrząc z boku, widzimy, że ruch cieczy zatacza ciągłe koła. Poza laboratorium przyroda również często tworzy swoje komórki konwekcyjne. Kiedy, na przykład słońce ogrzewa pustynię, falujące powietrze może uformować niewyraźny układ chmur na niebie albo piasku na ziemi.
Jeśli doda się jeszcze trochę ciepła, zachowanie staje się bardziej skomplikowane. Rolki zaczynają falować. Okrojone równania Lorenza były zbyt proste, aby modelować taki rodzaj złożoności. Wydobywały one tylko jedną cechę prawdziwej konwekcji: ruch kołowy gorącego płynu. Brały też pod uwagę prędkość takiego ruchu i przenoszenie ciepła. Te procesy fizyczne wzajemnie na siebie oddziaływały. Kiedy jakaś odrobina płynu podnosi się po okręgu, kontaktuje się z zimniejszym płynem i zaczyna tracić ciepło. Jeśli koło kręci się dostatecznie szybko, kropla płynu nie straci całej nadwyżki ciepła, zanim osiągnie wierzch i zacznie opadać wzdłuż drugiej strony rolki. Zatem zacznie faktycznie hamować pęd innej kropli wznoszącej się za nią.
ADOLPH E. BROTMAN
Koło wodne Lorenza. Pierwszy znany system chaotyczny odkryty przez Edwarda Lorenza koresponduje dokładnie z urządzeniem mechanicznym: kołem wodnym. To proste urządzenie wykazuje zaskakująco złożone zachowanie.
Rotacja koła wodnego ma pewne właściwości, takie same jak rotujące cylindry płynu w procesie konwekcji. Koło wodne przypomina plaster cylindra. Oba systemy są napędzane w sposób ciągły — przez wodę lub przez ciepło — i oba rozpraszają energię. Płyn traci ciepło; czerpaki tracą wodę. W obu systemach długookresowe zachowanie się zależy od tego, jak szybko dostarczana jest energia.
Woda wlewana jest od góry ze stałą szybkością. Jeśli strumień jest niewielki, czerpak na szczycie nigdy nie napełni się dostatecznie, aby przezwyciężyć tarcie, i koło nigdy nie zacznie się obracać. (Podobnie jest w przypadku konwekcji: gdy ciepło będzie dostarczane zbyt wolno, aby pokonać lepkość, nie zdoła wprowadzić cieczy w ruch). Jeśli strumień jest większy, ciężar szczytowego czerpaka wprowadza koło w ruch (po lewej). Koło wodne może rotować ze stałą prędkością (w środku). Ale jeśli strumień jest jeszcze obfitszy (po prawej), wirowanie może stać się chaotyczne z powodu nieliniowego efektu wbudowanego w system. To, jak napełnią się czerpaki, kiedy przechodzą pod strumieniem wody, zależy od prędkości obrotowej koła. Jeśli koło obraca się szybko, czerpaki mają niewiele czasu na napełnienie. (Podobnie w przypadku konwekcji szybko podgrzewany płyn ma niewiele czasu na absorpcję ciepła). Również jeśli koło porusza się szybko, czerpaki mogą zacząć przesuwać się w górę, zanim zdążą się opróżnić. W wyniku tego ciężkie czerpaki poruszające się w górę mogą spowodować zmniejszenie prędkości i odwrotnie.
W rzeczywistości Lorenz odkrył, że w długim czasie prędkość obrotu może zmieniać kierunek wielokrotnie, przy czym nigdy nie osiągnie stałego poziomu, a zachowanie jej nie będzie się powtarzać w przewidywalny sposób.
Chociaż system Lorenza nie modelował w pełni konwekcji, okazało się, że ma on dokładne analogie wśród układów rzeczywistych. Na przykład jego równania dokładnie opisują starodawne dynamo elektryczne, będące przodkiem współczesnych generatorów, gdzie prąd płynie przez dysk, który rotuje w polu magnetycznym. W pewnych warunkach dynamo może samoczynnie zmieniać kierunek obrotów. Gdy równania Lorenza stały się już znane, kilku naukowców zasugerowało, że zachowanie się takiego dynama mogłoby dostarczyć wyjaśnienia innego dziwnego zjawiska polegającego na odwracaniu się ziemskiego pola magnetycznego. Wiadomo, że kierunek ziemskiego pola magnetycznego zmieniał się wielokrotnie w ciągu historii Ziemi, w okresach, które wydają się chaotyczne i niewytłumaczalne24. Napotkawszy taką nieregularność, teoretycy na ogół szukają wyjaśnień poza układem, proponując przypadki zderzeń z meteorytami. Jednak możliwe, że geodynamo zawiera swój własny chaos.
JAMES P. CRUTCHFIELD, ADOLPH E. BROTMAN
Atraktor Lorenza. Ten magiczny obrazek, przypominający maskę sowy albo skrzydła motyla, stał się godłem badaczy chaosu. Odsłania on piękną strukturę ukrytą wewnątrz nieuporządkowanego strumienia danych. Tradycyjnie zmiany wartości jakiejś jednej zmiennej mogą być przedstawione w formie tzw. szeregu czasowego (u góry). Aby pokazać relacje między trzema zmiennymi, potrzebna jest inna technika. W każdej chwili trzem zmiennym przyporządkowany jest określony punkt w trójwymiarowej przestrzeni; kiedy układ zmienia się, ruch punktu reprezentuje wielkości zmieniające się w sposób ciągły.
Ponieważ układ nigdy się nie powtarza dokładnie, trajektoria nigdy się nie przecina. Zamiast tego pętli się w nieskończoność. Ruch na atraktorze jest abstrakcją, ale uzmysławia ruch rzeczywistego układu. Na przykład przejście od jednego skrzydła atraktora do drugiego odpowiada zmianie kierunku prędkości koła wodnego albo unoszonego płynu.
Innym układem dokładnie opisanym przez równania Lorenza jest pewien rodzaj koła wodnego, mechanicznego analogu konwekcji25. Na górze woda ścieka w sposób ciągły do kontenerów zawieszonych na brzegu koła. Z każdego kontenera wycieka w sposób ciągły przez mały otwór. Jeśli strumień wody jest słaby, górny kontener nigdy nie napełni się dostatecznie, aby jego ciężar pokonał tarcie, ale jeśli strumień jest większy, ciężar zaczyna obracać kołem. Rotacja może być ciągła. Wreszcie, gdy strumień jest tak szybki, że ciężkie kontenery opadają na dół i zaczynają nieopróżnione wznosić się do góry, koło może zwolnić, zatrzymać się i zmienić kierunek rotacji.
Intuicja fizyka — jego „przedchaotyczna” intuicja — podpowiadała mu, że taki prosty mechaniczny system po dłuższym okresie, jeśli strumień wody nigdy nie będzie się zmieniał, przejdzie w stan stacjonarny. Albo koło zacznie obracać się ze stałą prędkością, albo będzie oscylować równomiernie, obracając się raz w lewo, raz w prawo w równych odstępach czasu. Lorenz odkrył coś zupełnie innego.
Trzy równania z trzema zmiennymi całkowicie opisują ruch tego układu26. Komputer Lorenza wydrukował zmieniające się wartości trzech zmiennych: 0-10-0; 4-12-0; 9-20-0; 16-36-2; 30-66-7; 54-115-24; 93-192-74. Trzy liczby narastały i zmniejszały się, gdy mijały kolejne chwile urojonego czasu: pięć taktów, sto taktów, tysiąc taktów.
Aby dane przedstawić graficznie, Lorenz zastosował zbiór trzech liczb jako współrzędne położenia punktu w trójwymiarowej przestrzeni. Zatem sekwencja liczb wytwarzała sekwencję punktów podążających wzdłuż ciągłego toru, który stanowił zapis zachowania się układu. Taki tor mógł prowadzić do jednego miejsca i zatrzymać się, co oznaczało, że system przeszedł w stan stacjonarny, w którym zmienne opisujące temperaturę i prędkość nie będą się już zmieniać. Albo tor mógł tworzyć pętlę biegnącą wciąż w koło, wskazując, że zachowanie systemu jest okresowe.
Układ Lorenza nie zachowywał się jednak ani tak, ani tak. Zamiast tego wykres pokazywał rodzaj nieskończonej złożoności. Zawsze pozostawał w pewnych granicach, nigdy nie wybiegając poza obszar wykresu, ale też nigdy się nie powtarzał. Układ kreślił dziwny, charakterystyczny kształt, rodzaj podwójnej spirali w trzech wymiarach, przypominający dwa skrzydła motyla. Kształt ten sygnalizował czysty chaos, ponieważ żaden punkt albo układ punktów nigdy nie wracał. Jednak sygnalizował on również nowy rodzaj porządku.
Wiele lat później fizycy będą z sentymentem patrzeć na pracę Lorenza dotyczącą tych trzech równań — „ta cudowna praca”. Ale z drugiej strony mówiło się o niej, jak gdyby była starożytnym zwojem przechowującym sekrety wieczności. W tysiącach artykułów, które uzupełniły techniczną literaturę o chaosie, tylko kilka prac było równie często cytowanych jak Deterministic Nonperiodic Flow. Przez lata żaden pojedynczy obiekt nie inspirował większej liczby ilustracji niż tajemnicza krzywa, podwójna spirala, znana jako atraktor Lorenza. Wykresy Lorenza pokazały po raz pierwszy znaczenie powiedzenia: „To jest skomplikowane”. Całe bogactwo chaosu było w nich zawarte.
W tym czasie jednak niewiele osób mogło to dostrzec. Lorenz napisał do Willema Malkusa, profesora matematyki stosowanej w MIT, naukowca dżentelmena posiadającego wielką umiejętność oceny pracy kolegów. Malkus roześmiał się i powiedział: „Ed, wiemy — wiemy bardzo dobrze — że konwekcja płynów tak się nie zachowuje”27. Złożoność z pewnością zostanie stłumiona, a system przejdzie w stacjonarny, regularny ruch.
„Oczywiście, nie zrozumieliśmy zupełnie istoty rzeczy — powiedział Malkus dwadzieścia pięć lat później, wiele lat po tym, jak zbudował prawdziwe koło wodne Lorenza w swoim laboratorium w piwnicy, aby pokazać je niewiernym. — Ed nie myślał w kategoriach naszej fizyki. Myślał w kategoriach pewnego rodzaju uogólnionego i abstrakcyjnego modelu wykazującego zachowanie, które, jak czuł intuicyjnie było cechą pewnych aspektów świata zewnętrznego. Nie potrafił jednak dobrze tego nam wyjaśnić. Dopiero później zrozumieliśmy, że musiał wyznawać takie poglądy”.
Niewielu laików uświadamiało sobie, jak bardzo zostało poszufladkowane środowisko nauki. Przypomina ono pancernik z pouszczelnianymi ścianami działowymi. Biologowie mają dostatecznie dużo do czytania i nie śledzą literatury matematycznej — podobnie uczeni zajmujący się biologią molekularną nie przeglądają literatury z zakresu biologii populacji. Fizycy mają lepsze sposoby spędzania czasu niż przedzieranie się przez czasopisma meteorologiczne. Niektórzy matematycy będą podnieceni, dowiedziawszy się o odkryciu Lorenza; w ciągu dekady fizycy, astronomowie i biologowie szukali czegoś podobnego i czasem odkrywali dla siebie to na nowo. Ale Lorenz był meteorologiem i nikt nie myślał o tym, aby szukać chaosu na stronie 130 dwudziestego tomu „Journal of the Atmospheric Sciences”28.
Zapraszamy do zakupu pełnej wersji książki