Oferta wyłącznie dla osób z aktywnym abonamentem Legimi. Uzyskujesz dostęp do książki na czas opłacania subskrypcji.
14,99 zł
Najniższa cena z 30 dni przed obniżką: 14,99 zł
Ta książka opowiada o podstawowych prawdach, które odkrywamy, badając naszą rzeczywistość. I o tym, co się za nimi kryje, bo fakty, opisujące, jak działa Wszechświat - i nasz rozum, dzięki któremu potrafimy je poznać - to jeszcze nie wszystko. Największe umysły w historii, ludzie tacy jak Galileusz, Johannes Kepler, Isaac Newton, Michael Faraday, James Clerk Maxwell uważali, że przez badanie świata zbliżają się do Boga. Czy badania naukowe mogą doprowadzić nas do odpowiedzi na fundamentalne pytania o cel i sens?
Duch gigantów nauki unosi się nad książką noblisty Franka Wilczka, który odrzuca wszystkie dogmaty i w poszukiwaniu odpowiedzi na fundamentalne, ostateczne pytania sięga do podstawowych zasad rządzących naszą rzeczywistością.
Klarowna, pasjonująca opowieść o podstawach, które Wilczek nazywa "najważniejszym przesłaniem współczesnej fizyki". I nie ma na myśli jedynie faktów opisujących, jak działa świat, ale także sposób myślenia, który doprowadził do ich odkrycia.
"Scientific American"
"Podstawy" są wciągającą opowieścią o tym, jak ludzkość odkrywała rzeczywistość, relacjonowaną przez jednego z głównych uczestników najnowszych wydarzeń stanowiących część tej historii. Wilczek najtrudniejsze nawet zagadnienia omawia z rzadko spotykaną przejrzystością.
"Science News"
Frank Wilczek nieustannie odkrywa nowe sposoby prezentowania ważnych idei, dzięki czemu możemy lepiej zrozumieć, co one oznaczają.
"Physics World"
To jest książka o ważnych ideach, a nie o przemijających modach. Prezentuje głębokie zasady, a nie suche fakty. Stanowi rzadką okazję do zajrzenia w głąb umysłu jednego z czołowych fizyków świata.
Sean Carroll, autor książek "Coś głęboko ukrytego" i "Cząstka na końcu Wszechświata"
Pod niezrozumiałym chaosem otaczającego nas świata znajduje się niewidoczne królestwo subtelnego matematycznego piękna, fundament podstawowych zasad, z którego wywodzi się cała natura. Niewielu żyjących uczonych osiągnęło więcej niż Frank Wilczek, który przyczynił się do poznania tej głęboko ukrytej warstwy istnienia. Wilczek zabiera nas w zapierającą dech w piersiach podróż do granic fizyki, uświadamiając nam jednocześnie, że możliwość dostrzeżenia podstaw rzeczywistości stanowi ogromny zaszczyt i wielki przywilej rodzaju ludzkiego.
Paul Davies, autor książek "Milczenie gwiazd" i "Kosmiczna wygrana"
Frank Wilczek otrzymał w 2004 roku Nagrodę Nobla w dziedzinie fizyki. Jest profesorem fizyki w Massachusetts Institute of Technology, a także profesorem na Uniwersytecie Stanu Arizona i Uniwersytecie Sztokholmskim. Zdobył wiele nagród, zarówno za prace naukowe, jak i publikacje przeznaczone dla szerszego kręgu odbiorców. Jest autorem m.in. książek "Piękne pytanie" i "Lekkość bytu", a także setek artykułów w czołowych czasopismach naukowych. W dzienniku "Wall Street Journal" regularnie ukazują się jego felietony w rubryce zatytułowanej "Wszechświat Wilczka".
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 277
Tytuł oryginału
FUNDAMENTALS
Ten Keys to Reality
Copyright © 2021 by Frank Wilczek
All rights reserved
Projekt okładki
Magdalena Palej
Ilustracje na okładce
© Andriy Onufriyenko/Gettyimages.com
Redaktor serii
Adrian Markowski
Redakcja
Anna Kaniewska
Korekta
Małgorzata Denys
ISBN 978-83-8234-449-3
Warszawa 2021
Wydawca
Prószyński Media Sp. z o.o.
02-697 Warszawa, ul. Rzymowskiego 28
www.proszynski.pl
Dla Betsy:
OBJAWIENIA
Zgodne roje cząstek przędą
Misterne wzory naszego życia.
Narodziny, nauka, miłość, nieubłagana starość –
Niezasłużone dary, nieuznawane granice.
Przestrzeń rośnie w ciszy, poza naszym zasięgiem.
Ciała niebieskie, rozrzucone z rzadka,
Świecą, wierne idealnym prawom.
Nie znają języka pieśni śpiewanych przy kołysce.
Czas to zmiana, wszystkich dosięga tak samo.
W pradawnych szczątkach widzimy jego bezkres,
A doskonałe zegary świadczą o jego mocy.
Czas był przed nami i po nas zostanie.
Gdy w swym umyśle stale stwarzam świat na nowo,
Zawsze najbliżej będę, ukochana, z Tobą.
Przedmowa: zrodzeni na nowo
I
Ta książka opowiada o podstawowych prawdach, które możemy odkryć, badając fizyczny świat. Znam wiele osób, które ciekawi wszystko, co nas otacza, i chciałyby się dowiedzieć, co na ten temat ma do powiedzenia współczesna fizyka. Są wśród nich prawnicy, lekarze, artyści, uczniowie, nauczyciele, rodzice, jednym słowem, zwyczajni ludzie zainteresowani rzeczywistością. Niewątpliwie są inteligentni, ale brakuje im wiedzy. Zawsze starałem się przekazywać najważniejsze przesłanie nowoczesnej fizyki możliwie najprościej, ale w taki sposób, by nie ucierpiała na tym dokładność moich wyjaśnień. Pisząc tę książkę, miałem przed oczami moich ciekawych świata znajomych i przypominałem sobie ich dociekliwe pytania.
Uważam, że podstawowe prawdy nie ograniczają się wyłącznie do suchych faktów opisujących, jak działa fizyczny świat. Nie ulega wątpliwości, że fakty te są bardzo ważne i na swój sposób piękne, ale równie wielkim osiągnięciem jest tok rozumowania, który pozwolił nam je odkryć. Musimy przy tym pamiętać, że te podstawowe prawdy mówią również o tym, jak my, ludzie, wpisujemy się w szerszą rzeczywistość.
II
Przyjąłem, że takie podstawowe prawdy obejmują dziesięć obszernych zasad. Każdej z nich poświęciłem oddzielny rozdział. W poszczególnych rozdziałach najpierw wyjaśniam główny temat i opisuję go z różnych perspektyw, a następnie próbuję przewidzieć, jak może się potoczyć dalszy rozwój danej dziedziny. Popuszczając wodze fantazji, doskonale się bawiłem i mam nadzieję, że rozmyślania na ten temat dostarczą czytelnikom równie wiele satysfakcji. W ten sposób chciałem przekazać jeszcze jedną podstawową prawdę, a mianowicie to, że nasze rozumienie świata fizycznego nieustannie się powiększa i zmienia. Przypomina pod tym względem żywą istotę.
Starałem się wyraźnie oddzielać domysły od faktów i w tym drugim przypadku zawsze wskazywać, jaka jest natura obserwacji i doświadczeń, które pozwoliły je ustalić. Najbardziej podstawowe przesłanie jest bowiem takie, że udało się nam zrozumieć wiele aspektów świata fizycznego na bardzo głębokim poziomie. Jak ujął to Albert Einstein, „sam fakt, że [Wszechświat] jest zrozumiały, stanowi prawdziwy cud”. To również jest odkrycie okupione ogromnym wysiłkiem.
Właśnie dlatego, że możliwość zrozumienia fizycznego Wszechświata jest tak zaskakująca, musimy udowodnić, iż faktycznie go rozumiemy – nie wystarczy przyjąć to jako założenie. Najbardziej przekonującym dowodem jest fakt, że nasza wiedza, choć wciąż niepełna, pozwoliła nam zrealizować wielkie i wspaniałe cele.
W swoich badaniach staram się zapełniać luki w naszej wiedzy i wymyślać nowe doświadczenia, które pozwolą poszerzać obszar tego, co jest możliwe. Pisanie tej książki było dla mnie okazją do chwili refleksji, dzięki czemu mogłem z dużą przyjemnością przypomnieć sobie największe, najwspanialsze osiągnięcia, które są owocem wysiłków wielu pokoleń uczonych i inżynierów współpracujących ze sobą w przestrzeni i czasie.
III
Podstawy mogą również stanowić alternatywę dla tradycyjnych, ortodoksyjnych systemów religijnych. W książce tej podejmuję wiele zasadniczych pytań stawianych na gruncie religii, ale szukając na nie odpowiedzi, analizuję fizyczną rzeczywistość, a nie święte teksty czy tradycje.
Wielu moich bohaterów naukowych – Galileusz, Johannes Kepler, Isaac Newton, Michael Faraday, James Clerk Maxwell – należało do gorliwych chrześcijan. (Pod tym względem byli przedstawicielami swoich czasów i otoczenia). Uważali, że mogą zbliżyć się do Boga i oddać mu cześć, badając Jego dzieło. Einstein, choć nie był religijny w konwencjonalnym znaczeniu tego słowa, miał podobne podejście. Często odwoływał się do Boga (czy też raczej do „Starca”, jak Go nazywał), o czym świadczy na przykład jedno z jego najsłynniejszych powiedzeń: „Pan Bóg jest wyrafinowany, ale nie złośliwy”.
Duch ich działań – i moich w tej książce – wykracza poza określone dogmaty, nieważne, czy religijne, czy antyreligijne. Zwykłem wyrażać to następującym stwierdzeniem: badając, jak działa świat, próbujemy ustalić, jak działa Bóg, i tym samym dowiadujemy się, czym On jest. Przyjmując taki punkt widzenia, możemy powiedzieć, że poszukiwanie wiedzy jest pewną formą kultu religijnego, a odkrycia są objawieniami.
IV
Ta książka zmieniła mój sposób patrzenia na świat. W pierwotnym zamierzeniu Podstawy miały być opisem naszej wiedzy, ale szybko przerodziły się w kontemplację. Gdy zastanawiałem się nad jej zawartością, zupełnie nieoczekiwanie dostrzegłem dwa tematy przewodnie. Zdumiało mnie, że są tak wyraźne i głębokie.
Pierwszym z nich jest obfitość. Świat jest ogromny. Oczywiście wystarczy spojrzeć w niebo w bezchmurną noc, by się przekonać, że „tam dalej” rozciągają się rozległe połacie przestrzeni. Gdy po uważniejszym zbadaniu wyrazimy ten ogrom za pomocą liczb, otrzymamy wartości, które zwyczajnie nie mieszczą nam się w głowie. Jednak wielkość przestrzeni stanowi tylko jeden z wielu aspektów obfitości Natury i wcale nie ma największego znaczenia dla doświadczenia każdego z nas.
Jak to bowiem ujął Richard Feynman, „na dole jest mnóstwo miejsca”. Ludzkie ciało zawiera o wiele więcej atomów, niż istnieje gwiazd w obserwowalnym Wszechświecie, a liczba neuronów w mózgu jest niemal taka sama jak liczba gwiazd w naszej Galaktyce. Wszechświat wewnętrzny jest godnym dopełnieniem Wszechświata rozciągającego się na zewnątrz.
To, co dotyczy przestrzeni, odnosi się też do czasu. Czas kosmiczny jest nieprzebrany. Jego połać rozciągająca się wstecz do Wielkiego Wybuchu całkowicie przyćmiewa czas ludzkiego życia. Mimo to, jak jeszcze nieraz podkreślimy, czas życia pojedynczego człowieka zawiera więcej świadomych chwil, niż można pomieścić żywotów ludzkich w historii Wszechświata. Zostaliśmy obdarzeni darem obfitości czasu wewnętrznego.
Świat fizyczny również obfituje w niewykorzystane do tej pory możliwości stwarzania i postrzegania. Dzięki odkryciom naukowym wiemy, że w naszym najbliższym otoczeniu znajduje się o wiele więcej energii i użytecznych materiałów w znanej i dostępnej postaci, niż potrafimy to obecnie wykorzystać. Świadomość tego faktu napełnia nas otuchą i pozwala stawiać sobie jeszcze ambitniejsze cele.
Za pomocą naszych zmysłów możemy dostrzec zaledwie kilka skrawków obszernej rzeczywistości, którą ukazują badania naukowe. Weźmy na przykład wzrok. Zmysł wzroku jest naszym najszerszym i najważniejszym oknem na świat zewnętrzny. A jednak tak wielu rzeczy nie możemy dostrzec! Teleskopy i mikroskopy ukazują ogromne bogactwo informacji zawartej w świetle, które w normalnych warunkach wpada do naszych oczu, nie zostawiając po sobie żadnego śladu. Co więcej, ludzki wzrok obejmuje tylko jedną oktawę – zakres fal światła widzialnego – nieskończonej skali muzycznej promieniowania elektromagnetycznego, które rozciąga się od fal radiowych przez mikrofale po podczerwień po jednej stronie i od nadfioletu po promieniowanie rentgenowskie i promienie gamma po drugiej. W dodatku nawet w ramach tej pojedynczej oktawy nasze postrzeganie barw jest niedoskonałe. Choć zmysły nie pozwalają nam dostrzec wielu aspektów rzeczywistości, to jednak dzięki umysłowi możemy wyjść poza te naturalne ograniczenia. Poszerzanie horyzontów naszego postrzegania jest wspaniałą, nigdy niekończącą się przygodą.
V
Drugim tematem przewodnim książki jest konieczność uświadomienia sobie tego, że jeśli chcemy w pełni docenić fizyczny Wszechświat, to musimy się „urodzić na nowo”.
Gdy zaczynałem pracę nad książką, na świat przyszedł mój wnuk Luke. Podczas pisania wstępnej wersji obserwowałem pierwsze miesiące jego życia. Przyglądałem się, jak z szeroko otwartymi oczami bada własne dłonie i zaczyna sobie uświadamiać, że sprawuje nad nimi kontrolę. Widziałem, jak z ogromną radością uczy się sięgać po przedmioty w świecie zewnętrznym. Byłem świadkiem, jak przeprowadza z nimi pierwsze doświadczenia. Jak upuszcza je, a potem ich szuka, a następnie powtarza wszystko od początku (a potem jeszcze raz i jeszcze raz…), jak gdyby wcale nie był pewien wyniku, a za każdym razem po ich znalezieniu wybucha radosnym śmiechem.
Wykonując takie i inne doświadczenia, Luke budował własny model świata. Podchodził do tego z niezaspokojoną ciekawością i bez większych uprzedzeń. Oddziałując ze światem, dowiadywał się rzeczy, które niemal wszyscy dorośli uważają za oczywiste. Uświadomił sobie na przykład, że świat dzieli się na „ja” i „nie-ja”, że myśli mogą sterować ruchami „ja”, ale nie mają wpływu na „nie-ja”, i że możemy oglądać różne przedmioty, nie zmieniając ich właściwości.
Dzieci są jak uczeni: wykonują doświadczenia i wyciągają z nich wnioski. Jednak przeprowadzane przez nie eksperymenty są z punktu widzenia współczesnej nauki dość prymitywne. Obywają się bez teleskopów, mikroskopów, spektroskopów, magnetometrów, akceleratorów cząstek, zegarów atomowych i wszystkich innych przyrządów, które pomagają nam w budowie najprawdziwszych, najdokładniejszych modeli świata. Wykonując te doświadczenia, dzieci mają dostęp do niewielkiego zakresu temperatur, są zanurzone w atmosferze o bardzo szczególnym składzie chemicznym i ciśnieniu, podlegają przyciąganiu ziemskiej grawitacji (one i wszystko w ich otoczeniu), opierają się na powierzchni Ziemi… i tak dalej.
Małe dzieci tworzą model świata wyjaśniający to, czego doświadczają w granicach ich postrzegania i środowiska. Z praktycznego punktu widzenia jest to bez wątpienia dobry plan. Aby móc sobie radzić w otaczającym nas świecie, wystarczy, że we wczesnej młodości nauczymy się, jak działa otaczający nas świat – trudno temu zaprzeczyć.
Jednak współczesna nauka odkrywa przed nami świat fizyczny, który zupełnie nie pasuje do modelu wyniesionego z dzieciństwa. Jeśli ponownie otworzymy się na świat, przepełnieni ciekawością i pozbawieni uprzedzeń – jeśli pozwolimy sobie urodzić się na nowo – to zrozumiemy go zupełnie inaczej.
Niektórych rzeczy musimy się nauczyć. Nasz świat jest zbudowany z kilku podstawowych elementów, które zachowują się zgodnie z dziwnymi i nieoczywistymi zasadami.
Niektórych rzeczy trzeba się jednak „oduczyć”.
Z mechaniki kwantowej wynika, że nie da się wykonywać obserwacji bez wpływu na badany przedmiot. Każda osoba odbiera ze świata zewnętrznego niepowtarzalną wiadomość. Wyobraźmy sobie, że razem z przyjacielem obserwujemy w bardzo ciemnym pokoju jakieś słabe źródło światła. Powoli zmniejszamy jego natężenie, na przykład przykrywając lampę kolejnymi warstwami tkaniny. W końcu do naszych oczu będą dobiegały jedynie sporadyczne błyski. Jednak zarówno my, jak i nasz przyjaciel zobaczymy te błyski w różnych chwilach. Światło uległo rozbiciu na pojedyncze kwanty, a kwantów nie można już dzielić. Na takim podstawowym poziomie każdy z nas widzi inny świat.
Specjaliści od psychofizyki ustalili, że większością naszych działań wcale nie kieruje świadomość, a jedynie docierają do niej raporty z realizacji procesów, którymi sterują nieświadome obszary umysłu, wykonujące całą pracę. Wykorzystując technikę znaną jako przezczaszkowa stymulacja magnetyczna (w skrócie TMS, od ang. transcranial magnetic stimulation), naukowiec wykonujący doświadczenie może zupełnie dowolnie pobudzać ośrodki ruchu znajdujące się po lewej lub prawej stronie mózgu pacjenta. Odpowiednio ukształtowany sygnał TMS doprowadzony do prawego ośrodka ruchu spowoduje drgnięcie lewego nadgarstka, natomiast właściwy sygnał doprowadzony do mózgu po lewej stronie wywoła ruch prawego nadgarstka. Alvaro Pascual-Leone wykorzystał tę technikę w bardzo pomysłowy sposób do przeprowadzenia prostego doświadczenia, z którego płyną ważne wnioski. Poprosił badane osoby, by po usłyszeniu komendy zdecydowały, czy chcą poruszyć prawym, czy lewym nadgarstkiem. Potem, po usłyszeniu kolejnego polecenia, miały wykonać zaplanowany wcześniej ruch. Uczestnicy eksperymentu znajdowali się w urządzeniu do neuroobrazowania, badacze mogli więc oglądać, jak ośrodek ruchu każdego pacjenta przygotowuje się do poruszenia nadgarstkiem. Gdy badana osoba podejmowała decyzję, że poruszy prawą ręką, uaktywniał się lewy ośrodek ruchu mózgu, jeśli natomiast zamierzała poruszyć lewym nadgarstkiem, na ekranie rozświetlał się prawy ośrodek ruchu. Dzięki temu badacze mogli zobaczyć, jakiego wyboru dokonał pacjent, jeszcze zanim wykonał jakikolwiek ruch.
W tym miejscu następuje niespodziewany zwrot akcji. Otóż Pascual-Leone od czasu do czasu wysyłał sygnał TMS odwrotny do tego, co wybrał pacjent. I okazuje się, że taki sztuczny sygnał przeważał nad wyborem pacjenta. W efekcie pacjent wykonywał taki ruch, jaki został mu narzucony przez sygnał TMS, a nie taki, jaki pierwotnie zaplanował. Najciekawsze jest tutaj to, w jaki sposób pacjenci wyjaśniali, co się wydarzyło. Wcale nie twierdzili, że jakaś zewnętrzna siła przejęła kontrolę nad ich ciałem. Mówili jedynie: „Zmieniłem zdanie”.
Szczegółowe badania tego zagadnienia pozwoliły ustalić, że wbrew temu, co podpowiada nam intuicja, ludzkie ciało i mózg – czyli fizyczna podstawa naszego „ja” – są zbudowane z tych samych elementów co „nie-ja” i najwyraźniej istnieje między nimi ciągłość.
Gdy w wieku niemowlęcym próbujemy jak najszybciej zrozumieć wszystko, co nas otacza, wytwarzamy mylny obraz świata i samych siebie. Próbując osiągnąć głębsze zrozumienie, musimy więc nie tylko dużo się nauczyć, lecz także wiele „oduczyć”.
VI
Proces rodzenia się na nowo może wywoływać dezorientację, ale podobnie jak przejażdżka na kolejce górskiej może też być niezwykle pobudzający. Pozwala również liczyć na wspaniały dar: dla tych, którzy urodzą się na nowo w duchu nauki, świat staje się świeżym, klarownym i niezwykle bogatym miejscem. Takie osoby doświadczają tego, co tak wspaniale opisał William Blake:
Zobaczyć świat w ziarenku piasku,
Niebiosa w jednym kwiecie z lasu.
W ściśniętej dłoni zamknąć bezmiar,
W godzinie – nieskończoność czasu1.
1 William Blake, Wróżby niewinności [w:] William Blake, Poezje wybrane, przeł. Zygmunt Kubiak, Ludowa Spółdzielnia Wydawnicza, Warszawa 1991, s. 131 (przyp. tłum.).
Wprowadzenie
I
Wszechświat to dziwne miejsce.
Noworodkom świat jawi się jako mieszanina trudnych do rozszyfrowania wrażeń. Próbując je uporządkować, dzieci szybko uczą się odróżniać informacje docierające ze świata wewnętrznego od sygnałów dochodzących z zewnątrz. W świecie wewnętrznym mieszczą się uczucia, takie jak głód, ból, zadowolenie i senność, a także nierealne królestwo snów. Tutaj też rodzą się myśli, które kierują wzrokiem, ruchem, a wkrótce również mową małego dziecka.
Interpretacja świata zewnętrznego wymaga użycia złożonej konstrukcji intelektualnej. Małe dziecko poświęca wiele czasu, by ją zbudować. Uczy się rozpoznawać powtarzające się wzorce wrażeń zmysłowych, na które, w przeciwieństwie do własnego ciała, nie może wpływać myślami. Zaczyna kojarzyć konkretne wzorce z poszczególnymi obiektami. Później przekonuje się, że obiekty te zachowują się w dość przewidywalny sposób.
Z biegiem czasu dziecko uświadamia sobie, że niektóre z tych obiektów są podobne do niego, że są istotami, z którymi można się porozumieć. Wymieniając się z nimi informacją, nabiera przeświadczenia, że one również muszą mieć dostęp do własnego świata wewnętrznego i zewnętrznego oraz, co ciekawe, że mają wiele podobnych cech i zachowują się zgodnie z takimi samymi regułami.
II
Uświadomienie sobie, w jaki sposób możemy wpływać na wspólny świat zewnętrzny – czyli innymi słowy, na świat fizyczny – jest oczywiście niezwykle ważnym i złożonym problemem praktycznym. Aby na przykład przeżyć w społeczności zbieracko-łowieckiej, nasze dziecko będzie się musiało nauczyć, gdzie można znaleźć wodę, które rośliny i zwierzęta nadają się do jedzenia, a także opanować sztukę tropienia zwierzyny i polowania. Oprócz tego musi nauczyć się gotować posiłki oraz poznać wiele innych faktów i umiejętności.
W bardziej złożonych społecznościach pojawiają się inne wyzwania, takie jak wytwarzanie specjalistycznych narzędzi, wznoszenie trwałych budowli i śledzenie upływu czasu. Członkowie wspólnoty przekazują kolejnym pokoleniom nowo odkryte rozwiązania problemów, jakie stawia przed nami świat fizyczny, i tak powstaje stale powiększający się zasób wiedzy praktycznej. W ten sposób każde społeczeństwo tworzy własną „technologię”.
Społeczeństwa przedindustrialne często miały bogaty i złożony zasób różnych technologii. Niektóre z tych rozwiązań pozwalały – i nadal pozwalają – przeżyć w nieprzyjaznym środowisku, takim jak Arktyka czy pustynia Kalahari. Inne były niezbędne do wzniesienia wielkich miast i zbudowania imponujących zabytków, takich jak piramidy w Egipcie i Mezoameryce.
Mimo to na przestrzeni niemal całej historii ludzkości przed pojawieniem się metody naukowej rozwój techniki przebiegał w sposób dość chaotyczny. Nowe rozwiązania techniczne odkrywano najczęściej przypadkiem. Gdy już udało się opracować jakąś działającą technikę, przekazywano ją następnym pokoleniom w postaci bardzo ścisłych procedur, rytuałów i zwyczajów. Rozwiązania te nie tworzyły żadnego logicznego systemu, nie podejmowano też systematycznego wysiłku w celu ich ulepszenia.
Technologie oparte na „zdrowym rozsądku” pozwoliły ludziom przeżyć, rozmnażać się, a nierzadko nawet korzystać z czasu wolnego i osiągnąć spełnienie. Dla większości ludzi żyjących w różnych kulturach na przestrzeni dziejów było to w zupełności wystarczające. Ludzie ci nie mogli przecież wiedzieć, że w ich życiu czegoś brakuje, nie zdawali sobie też sprawy z tego, że to, czego nie mają, mogłoby być dla nich ważne.
Obecnie wiemy, że nie mieli bardzo wielu rzeczy. Poniższy wykres, pokazujący wzrost wydajności ludzkiej pracy w funkcji czasu, mówi sam za siebie i nie wymaga komentarza.
III
Nowoczesna metoda badania świata zrodziła się w Europie w XVII stuleciu. Wcześniej w różnych miejscach świata pojawiały się pierwsze przejawy takiego podejścia, ale dopiero całe mnóstwo przełomowych odkryć, znanych ogólnie jako rewolucja naukowa, stał się inspirującym przykładem tego, co może osiągnąć ludzki umysł, jeśli podejdzie do świata fizycznego w sposób twórczy. Metody i koncepcje, które doprowadziły do tych przełomowych odkryć, przekształciły się w jasne modele pokazujące, jak należy prowadzić badania w przyszłości. Za sprawą tego impulsu powstała nauka taka, jaką znamy. Świat zmienił się na dobre.
W wieku XVII nastąpił niespotykany do tej pory rozwój techniki i teorii na wielu frontach, między innymi na polu projektowania maszyn i okrętów, urządzeń optycznych (w tym pierwszych mikroskopów i teleskopów), zegarów i kalendarzy. Bezpośrednim skutkiem tych zmian było to, że ludzie mogli korzystać z urządzeń o większej mocy, więcej zobaczyć i w bardziej przewidywalny sposób kierować swoim życiem. Jednak rewolucja naukowa okazała się jedyna w swoim rodzaju i w pełni zasłużyła na swoją nazwę za sprawą czegoś, co jest nienamacalne. Tym kluczowym czynnikiem była zmiana podejścia: pojawienie się nowej ambicji, nowej pewności siebie.
Metoda Keplera, Galileusza i Newtona łączy w sobie pokorne podejście, wymagające godzenia się faktami i pilnego obserwowania Natury, z systematycznym zuchwalstwem, polegającym na bezpardonowym wykorzystywaniu wszystkiego, czego udało się nam dowiedzieć, i stosowaniu nowych rozwiązań wszędzie, gdzie się da, nawet w sytuacjach, które wykraczają poza obszar usankcjonowany zebranymi dowodami. Jeśli taki śmiały krok się uda, to odkryjemy coś użytecznego; jeśli nie – to przynajmniej dowiemy się czegoś ważnego. Takie podejście nazywam radykalnym konserwatyzmem i w moim odczuciu jest ono podstawową zdobyczą rewolucji naukowej.
Radykalny konserwatyzm jest zachowawczy, ponieważ wymaga uważnego badania Natury i liczenia się z faktami – są to kluczowe aspekty ogólnie rozumianej metody naukowej. Jest jednak również radykalny, ponieważ każe nam maksymalnie wykorzystywać zdobytą wiedzę. Ta zasada również odgrywa istotną rolę w badaniach naukowych. To dzięki niej nauka wytrwale brnie do przodu.
IV
Inspiracją do pojawienia się takiego nowego podejścia były przede wszystkim odkrycia w dziedzinie, która już w XVII stuleciu była dobrze ugruntowana i rozwinięta, a mianowicie w mechanice nieba, zajmującej się opisem wyglądu i ruchu ciał niebieskich.
Już od czasów prehistorycznych ludzie dostrzegają takie prawidłowości, jak zmiana cyklu dnia i nocy, następstwo pór roku, fazy Księżyca i uporządkowany ruch gwiazd. Wraz z pojawieniem się rolnictwa kluczowego znaczenia nabrała umiejętność drobiazgowego śledzenia pór roku, ponieważ dzięki temu można było zaplanować zasiew i żniwa w najlepszej porze. Kolejną ważną, choć chybioną motywacją do prowadzenia dokładnych obserwacji była wiara w astrologię, czyli przekonanie, że ludzkie życie jest bezpośrednio powiązane z rytmem kosmosu. Tak czy inaczej, wiele różnych czynników – włącznie ze zwyczajną ciekawością – sprawiło, że ludzie zaczęli uważniej patrzeć w niebo.
Okazało się, że ogromna większość gwiazd porusza się w dość prosty, przewidywalny sposób. Obecnie wiemy, że ich pozorny ruch wynika z ruchu obrotowego Ziemi wokół jej osi. Tak zwane gwiazdy stałe znajdują się tak daleko, że względnie niewielkie zmiany ich odległości, wynikające z własnego ruchu tych obiektów lub z ruchu Ziemi wokół Słońca, są niezauważalne, gdy patrzymy na nie gołym okiem. Jednak kilka wyjątkowych ciał niebieskich – Słońce, Księżyc i nieliczne „gwiazdy błądzące”, do których zaliczano widoczne gołym okiem planety, czyli Merkurego, Wenus, Marsa, Jowisza i Saturna – nie zachowuje się w taki sposób.
Starożytni astronomowie przez wiele pokoleń zapisywali położenie tych szczególnych ciał niebieskich i w końcu nauczyli się przewidywać ich ruch z dość dużą dokładnością. Wymagało to przeprowadzenia obliczeń z zakresu geometrii i trygonometrii z wykorzystaniem skomplikowanych, ale jednoznacznie określonych wzorów. Ptolemeusz (ok. 100–170) zebrał cały ten materiał w jednym dziele matematycznym, które jest znane jako Almagest. (Słowo magest to zniekształcony grecki przymiotnik w stopniu najwyższym oznaczający „największy”. Takie samo pochodzenie ma na przykład słowo „majestat”. Przedrostek al jest natomiast arabskim przedimkiem określonym).
Synteza Ptolemeusza była wspaniałym osiągnięciem, ale miała dwie wady. Pierwszą była jej złożoność i wynikający z tego brak elegancji opisanych metod. W szczególności we wzorach służących do obliczania ruchu planet występowało wiele liczb, których wartość należało wyznaczyć, dopasowując obliczenia do obserwacji, bez jakichkolwiek głębszych zasad umożliwiających ich wyprowadzenie. Mikołaj Kopernik (1473–1543) zauważył jednak, że wartości niektórych z tych liczb są ze sobą powiązane w zaskakująco prosty sposób. Te z pozoru tajemnicze, „przypadkowe” związki można było wyjaśnić na gruncie geometrii, jeśli tylko przyjęło się założenie, że Ziemia razem z Wenus, Marsem, Jowiszem i Saturnem obraca się wokół Słońca, które znajduje się w środku (a Księżyc obraca się wokół Ziemi).
Druga wada syntezy Ptolemeusza miała charakter o wiele bardziej bezpośredni, ponieważ okazało się, że zawarte w niej wzory są po prostu niedokładne. Wyprzedzając swoją epokę i pojawienie się dzisiejszej „wielkiej nauki”, Tycho Brahe (1546–1601) skonstruował skomplikowane przyrządy i wybudował kosztowne obserwatorium, dzięki czemu mógł śledzić ruch planet z dużo większą dokładnością. W wynikach jego obserwacji wyraźnie było widać odchylenia od przewidywań Ptolemeusza.
Johannes Kepler (1571–1630) postanowił opracować geometryczny model ruchu planet, który będzie prosty i dokładny. W swojej pracy uwzględnił idee Kopernika i wprowadził kilka innych ważnych zmian do modelu Ptolemeusza. W szczególności przyjął, że orbity planet krążących wokół Słońca nie muszą być doskonałymi okręgami – w jego modelu mogą one mieć kształt elips ze Słońcem w jednym z ognisk. Ponadto założył, że prędkość ruchu orbitalnego planet zmienia się z odległością od Słońca w taki sposób, iż planety zakreślają w jednakowych odstępach czasu jednakowe pole powierzchni. Po tych ulepszeniach uzyskał o wiele prostszy model, który w dodatku dawał dużo dokładniejsze przewidywania.
Tymczasem Galileusz (1564–1642) zainteresował się tym, co dzieje się na powierzchni Ziemi, i przeprowadził szczegółowe badania prostych postaci ruchu, takich jak toczenie się kuli po równi pochyłej i oscylacje wahadła. Mogłoby się wydawać, że takie przyziemne analizy, polegające na wyznaczaniu liczb oznaczających położenie i czas, będą zupełnie nieprzydatne w poszukiwaniu odpowiedzi na wielkie pytanie o to, jak działa świat. Nie ulega wątpliwości, że w oczach większości współczesnych mu uczonych, których zajmowały wielkie kwestie filozoficzne, były to działania trywialne. Jednak Galileusz chciał zdobyć wiedzę zupełnie innego rodzaju. Wolał zrozumieć coś dokładnie, niż opisać wszystko w sposób niejasny. Chciał znaleźć – i znalazł – jednoznaczne wzory matematyczne w pełni opisujące jego proste obserwacje.
Isaac Newton (1643–1727) połączył geometryczny opis ruchu planet z dynamicznym opisem ruchu ciał na Ziemi. Udowodnił, że zarówno zaproponowaną przez Keplera teorię ruchu planet, jak i przedstawioną przez Galileusza teorię szczególnych rodzajów ruchu można najlepiej wyjaśnić, jeśli przyjmiemy, że są to szczególne przypadki bardziej ogólnego prawa, które obowiązuje wszystkie ciała znajdujące się w dowolnym miejscu przestrzeni i w każdym czasie. Teoria Newtona, znana obecnie jako mechanika klasyczna, odnosiła sukces za sukcesem. Pozwoliła wyjaśnić pływy morskie na Ziemi, przewidzieć trajektorie komet i skonstruować nowe cuda techniki.
Dzieło Newtona w przekonujący sposób dowodzi, że poszukując odpowiedzi na wielkie pytania, możemy powoli konstruować rozwiązanie, jeśli wyjdziemy od szczegółowego zrozumienia najprostszych przypadków. Newton nazwał to podejście metodą analizy i syntezy. Stało się ono wzorem do naśladowania dla wszystkich uczonych prowadzących badania w duchu radykalnego konserwatyzmu.
Oto jak sam Newton opisał swoją metodę:
Jak w matematyce, tak w filozofii naturalnej badania trudnych zagadnień metodą analizy zawsze powinny poprzedzać zastosowanie metody syntezy. Taka analiza polega na przeprowadzeniu doświadczeń i obserwacji, a także na wyciągnięciu ogólnych wniosków na drodze indukcji. […] Dzięki temu za pomocą analizy możemy przejść od związków do składników, od ruchów do wywołujących je sił i, w ogólnym przypadku, od skutków do ich przyczyn, a także od szczególnych przypadków do bardziej ogólnych tak długo, aż argumentacja zakończy się na najogólniejszym problemie. Na tym polega metoda analizy, natomiast synteza wymaga przyjęcia, że odkryte i ustalone przyczyny odgrywają rolę zasad, za pomocą których należy wytłumaczyć wynikające z nich zjawiska i przedstawić wyjaśnienie.
V
Zanim zostawimy Newtona, warto przytoczyć jeszcze jeden cytat wyjaśniający związek łączący go z poprzednikami, Galileuszem i Keplerem, a także z nami, którzy wiele lat później kroczymy jego śladem:
Zadanie wyjaśnienia całej natury jest zbyt trudne dla jednego człowieka, a nawet dla jednego pokolenia. O wiele lepiej jest zrobić tylko odrobinę, ale rzetelnie, i zostawić resztę dla innych, którzy przyjdą po nas.
Bliższa nam w czasie uwaga Johna R. Pierce’a, jednego z twórców współczesnej nauki o informacji, pięknie ukazuje różnice między nowoczesnym pojęciem wiedzy naukowej i innymi podejściami tego typu:
Wymagamy, by nasze teorie dokładnie zgadzały się z szerokim zakresem zjawisk, które mają wyjaśniać. I nalegamy, by wynikały z nich użyteczne wskazówki, a nie tylko uzasadnienia.
Pierce doskonale zdawał sobie sprawę, że takie wygórowane standardy wiążą się z koniecznością poniesienia dotkliwej straty. Wymagają pożegnania się z naiwnością. „Nigdy już nie zrozumiemy natury tak dobrze jak greccy filozofowie. […] Za dużo wiemy”. Moim zdaniem to nie jest zbyt wysoka cena. Tak czy inaczej, to bez znaczenia, ponieważ nie ma już powrotu.
I
Co istnieje
1
Istnieje mnóstwo przestrzeni
MNÓSTWO NA ZEWNĄTRZ I MNÓSTWO W ŚRODKU
Gdy mówimy, że coś jest duże – nieważne, czy chodzi o obserwowalny Wszechświat, czy ludzki mózg – to powinniśmy zapytać: duże w porównaniu z czym? Naszym naturalnym punktem odniesienia jest zakres zjawisk, z jakimi mamy do czynienia na co dzień. To właśnie one tworzą kontekst naszych pierwszych modeli świata, które tworzymy w dzieciństwie. Zakres świata fizycznego, w takim rozumieniu, jakie wynika z badań naukowych, jest czymś, co odkrywamy dopiero wtedy, gdy zdobędziemy się na to, by ponownie się narodzić.
Jeśli przyjmiemy skalę odpowiadającą zjawiskom znanym z codzienności, to możemy stwierdzić, że świat istniejący „tam na zewnątrz” jest naprawdę gigantyczny. Bezkres zewnętrznejprzestrzeni jest tym, co wyczuwamy intuicyjnie, gdy w bezchmurną noc spoglądamy na rozgwieżdżone niebo. Czujemy, bez potrzeby przeprowadzania rygorystycznej analizy, że we Wszechświecie występują odległości o wiele większe od rozmiaru ludzkiego ciała i większe od każdej odległości, jaką będziemy mogli kiedykolwiek przebyć. Wiedza naukowa nie tylko potwierdza to uczucie ogromu, ale także znacznie je rozszerza.
Skala świata jest tak wielka, że ludzie mogą się czuć nią przytłoczeni. Francuski matematyk, fizyk i myśliciel religijny Blaise Pascal (1623–1662) również miał takie przeświadczenie i bardzo go to niepokoiło. „Wszechświat ogarnia mnie i pochłania jak punkt”2 – pisał.
Podobne odczucia – w uproszczeniu: „jestem bardzo mały, nie mam znaczenia we Wszechświecie” – często przewijają się w literaturze, filozofii i teologii. Możemy je odnaleźć w wielu modlitwach i psalmach. Takie wrażenia są naturalną reakcją na fakt, że kondycja ludzka jest bez znaczenia z punktu widzenia kosmosu, jeśli weźmiemy pod uwagę jego rozmiar.
Możemy się jednak pocieszać, że sama wielkość to nie wszystko. Nasz wewnętrzny bezkres jest subtelniejszy, ale równie głęboki. Aby się o tym przekonać, powinniśmy spojrzeć na wszystko od drugiej strony, czyli z dołu do góry. Na dole jest bardzo dużo miejsca. Pod wieloma względami, które naprawdę są ważne, jesteśmy ogromni.
W szkole dowiadujemy się, że podstawowymi elementami strukturalnymi materii są atomy i cząsteczki. Jeśli weźmiemy pod uwagę tak zdefiniowaną jednostkę, to okaże się, że ludzkie ciało jest gigantyczne. Liczba atomów w ciele jednego człowieka wynosi około 1028 – to jest jedynka z 28 zerami: 10 000 000 000 000 000 000 000 000 000.
Tak duża liczba jest większa od wszystkiego, co potrafimy sobie wyobrazić. Możemy ją nazwać – dziesięć kwadryliardów – a przy odrobinie wiedzy i odpowiednich umiejętnościach praktycznych – nawet obliczyć. Wartość ta przekracza jednak całkowicie możliwości naszej intuicji, która wykształciła się na podstawie zjawisk znanych z codzienności, bo przecież w normalnej sytuacji nigdy nie pojawia się potrzeba posługiwania tak dużą liczbą. Wyobrażenie sobie tylu pojedynczych kropek wykracza poza możliwości ludzkiego mózgu.
Liczba gwiazd, które możemy zobaczyć gołym okiem w bezksiężycową noc, gdy powietrze jest odpowiednio czyste, wynosi w najlepszym przypadku kilka tysięcy. Dziesięć kwadryliardów – liczba atomów w naszym ciele – to wartość około miliona razy większa od liczby gwiazd w całym obserwowalnym Wszechświecie. W tym bardzo konkretnym sensie możemy powiedzieć, że w naszym wnętrzu kryje się cały wszechświat.
Walt Whitman (1819–1892), uduchowiony poeta amerykański, wyczuwał instynktownie ten nasz wewnętrzny bezkres. W poemacie Pieśń o sobie napisał: „Jestem pojemny, zawieram miliony”3. Radosne wychwalanie obfitości przez Whitmana jest oparte na równie obiektywnych faktach jak kosmiczna zawiść Pascala, ale ma przy tym dużo większe znaczenie dla naszego codziennego doświadczenia.
Świat jest ogromny, ale człowiek wcale nie jest mały. Bliższe prawdy będzie stwierdzenie, że istnieje mnóstwo przestrzeni, zarówno gdy spojrzymy w górę, jak i wtedy, gdy spoglądamy w dół. Nie musimy zazdrościć Wszechświatowi tego, że jest taki ogromny. My też jesteśmy wielcy. Mamy na tyle duży rozmiar, że możemy pomieścić Wszechświat zewnętrzny w swoim umyśle. Pascal również pocieszał się tą myślą i po smutnej konstatacji: „wszechświat ogarnia mnie i pochłania jak punkt” dopisał podnoszące na duchu stwierdzenie: „myślą, ja go ogarniam”4.
Obfitość przestrzeni – zarówno na zewnątrz, jak i wewnątrz – stanowi główny temat tego rozdziału. Najpierw przyjrzymy się uważniej twardym faktom, a potem spróbujemy wyjść nieco poza nie.
ZEWNĘTRZNA OBFITOŚĆ: CO WIEMY I JAK SIĘ TEGO DOWIEDZIELIŚMY
Preludium: geometria i rzeczywistość
Naukowe analizy kosmicznych odległości bazują na naszym rozumieniu przestrzeni fizycznej i metod jej mierzenia, czyli na geometrii. Zacznijmy więc od omówienia związku między geometrią i rzeczywistością.
Bezpośrednie, codzienne doświadczenie uczy nas, że ciała mogą się przemieszczać z miejsca na miejsce, nie zmieniając przy tym swoich własności. Prowadzi to do pojawienia się idei „przestrzeni” jako swoistego pojemnika, w którym natura umieściła wszystko, co istnieje.
Praktyczne potrzeby mierzenia terenu, wznoszenia budowli i nawigacji zaowocowały wymyśleniem metod pomiaru odległości i kątów między pobliskimi obiektami. Dzięki temu udało nam się odkryć pewne łatwo dostrzegalne prawidłowości geometrii euklidesowej.
Z biegiem czasu zakres praktycznego zastosowania tych metod znacznie się poszerzył, wzrosła też potrzeba uzyskania dokładnych wyników, ale mimo to opracowany przed wiekami formalizm sprawdzał się nadspodziewanie dobrze. Geometria euklidesowa odnosiła tak wielkie sukcesy, a jej struktura logiczna była tak imponująca, że rzadko kiedy podejmowano badania mające na celu sprawdzenie, czy faktycznie stanowi ona dobry opis fizycznej rzeczywistości. Na początku XIX wieku Carl Friedrich Gauss (1777–1855), jeden z największych matematyków w historii, doszedł do wniosku, że warto dokonać takiej weryfikacji, i w tym celu zmierzył kąty trójkąta utworzonego przez trzy odległe stacje górskie w Niemczech. W efekcie stwierdził, że w granicach błędów pomiarowych wartości tych kątów sumują się do 180°, tak jak przewidział Euklides. Używany obecnie system nawigacji satelitarnej GPS również opiera się na geometrii euklidesowej. Użytkownicy tego systemu każdego dnia przeprowadzają miliony doświadczeń takich samych jak eksperyment Gaussa, ale są one wykonywane w dużo większej skali i ze znacznie większą dokładnością. Przyjrzymy się więc, jak działa ten system.
Aby ustalić swoje położenie za pomocą systemu GPS, musimy odebrać sygnały przesyłane przez sztuczne satelity krążące wysoko nad Ziemią, które dokładnie wiedzą, gdzie się znajdują. (Zaraz powiemy, jak to jest możliwe). Obecnie wokół kuli ziemskiej krąży ponad trzydzieści satelitów rozmieszczonych w strategicznych miejscach. Przesyłane przez nie sygnały nie dają się przekształcić do postaci komunikatów głosowych lub muzyki. Sygnały te zawierają po prostu informację o tym, gdzie znajduje się dany satelita, zapisaną w formacie wygodnym do przetworzenia w komputerze. W wiadomości znajduje się również liczba oznaczająca czas wysłania komunikatu. Każdy satelita ma na swoim pokładzie doskonały zegar atomowy i dzięki temu możemy żywić pewność, że informacja o czasie nadania komunikatu jest dokładna. A zatem:
1. Nasze urządzenie GPS odbiera sygnały docierające z kilku satelitów. Odbiornik, który otrzymuje również sygnały przesyłane przez rozległą sieć zegarów naziemnych, oblicza następnie, ile czasu potrzebowały poszczególne sygnały satelitarne, by do nas dotrzeć. Ponieważ sygnały przemieszczają się ze znaną prędkością – prędkością światła – wyznaczony czas pozwala obliczyć odległość dzielącą nas od każdego satelity.
2. Wykorzystując obliczone odległości, położenia satelitów i geometrię euklidesową, komputer w odbiorniku oblicza położenie urządzenia – czyli nas – za pomocą triangulacji.
3. Komputer wyświetla wynik i już wiemy, gdzie jesteśmy.
Poprawnie działające urządzenie GPS musi uwzględniać jeszcze wiele skomplikowanych poprawek, ale ogólna zasada działania nawigacji satelitarnej jest właśnie taka. System ten do złudzenia przypomina „eksperyment myślowy” Alberta Einsteina, który posłużył mu do opisania układów odniesienia w jego oryginalnym artykule poświęconym szczególnej teorii względności. W 1905 roku Einstein przewidział wykorzystanie wiązek światła i informacji o czasie ich przesłania do ustalania położenia w przestrzeni. Bardzo spodobał mu się taki pomysł, ponieważ pozwala wykorzystać technikę opartą na podstawach fizyki – na stałej prędkości światła – do wyznaczenia kształtu przestrzeni. Jak widać, czasami technika potrafi dogonić eksperymenty myślowe.
W ramach ćwiczeń wyobraźni możemy rozważyć sytuację, w której obliczyliśmy odległość do czterech satelitów znajdujących się w ustalonych miejscach. Po chwili zastanowienia powinniśmy dojść do wniosku, że ta informacja w zupełności wystarcza, by jednoznacznie wyznaczyć nasze położenie.
(Mała podpowiedź: punkty znajdujące się w ustalonej odległości od satelity tworzą wokół niego powierzchnię kuli. Jeśli weźmiemy dwie takie sfery określone wokół dwóch różnych satelitów, to mogą się one ze sobą przecinać. Jeśli tak jest, to punkty ich przecięcia utworzą okrąg. Oczywiście w ogólnym przypadku sfery nie muszą się przecinać, ale ponieważ nasze położenie znajduje się gdzieś na ich przecięciu, nie mają wyjścia – muszą na siebie nachodzić! Teraz rozważmy trzecią sferę odpowiadającą trzeciemu satelicie, która przecina ten okrąg. W ogólnym przypadku te trzy sfery będą się przecinały w dwóch punktach. Czwarta sfera wokół kolejnego satelity pozwoli nam jednoznacznie wybrać jeden z tych dwóch punktów).
Teraz powróćmy do pytania o to, skąd satelity systemu GPS wiedzą, gdzie się znajdują. Szczegóły techniczne są w tym wypadku dość skomplikowane, ale podstawowa idea jest prosta: na samym początku satelity wyruszają z miejsca o znanym położeniu, a potem uważnie śledzą własny ruch. Wykorzystując obie te informacje, mogą obliczyć swoje aktualne położenie.
Konkretnie rzecz biorąc, aby satelity mogły śledzić swój ruch, na ich pokładzie montuje się żyroskopy i akcelerometry, bardzo podobne do tych, jakie stosuje się w nowoczesnych telefonach komórkowych. Rejestrując wskazania tych przyrządów, komputer pokładowy może wyznaczyć przyspieszenie satelity na podstawie równań fizycznych mechaniki newtonowskiej. Mając tę informację, może następnie obliczyć przesunięcie satelity, wykorzystując do tego rachunek różniczkowy i całkowy. Prawdę powiedziawszy, Newton wymyślił rachunek różniczkowy i całkowy właśnie po to, by rozwiązywać tego typu zadania.
Jeśli jeszcze raz uważnie prześledzimy cały proces, przekonamy się, że inżynierowie projektujący system nawigacji satelitarnej przyjęli wiele nieoczywistych założeń. Działanie tego systemu bazuje na idei, że prędkość światła jest stała. W satelitach montuje się bardzo dokładne zegary atomowe, których konstrukcja jest możliwa dzięki wykorzystaniu zaawansowanych zasad teorii kwantowej. Komputery pokładowe stosują rozwiązania z zakresu mechaniki klasycznej do obliczenia położenia satelitów na orbicie. Ponadto w obliczeniach uwzględnia się również poprawki wynikające z efektu przewidzianego przez ogólną teorię względności, z którego wynika, że upływ czasu zmienia się nieznacznie z odległością od powierzchni Ziemi. Jak się bowiem okazuje, zegary chodzą wolniej w pobliżu powierzchni Ziemi, gdzie pole grawitacyjne jest silniejsze.
Ponieważ działanie systemu GPS zależy od tylu dodatkowych założeń, a nie tylko od adekwatności geometrii euklidesowej, nie możemy twierdzić, że stanowi ono wyraźne, bezsprzeczne potwierdzenie faktu, iż geometria ta wiernie opisuje rzeczywistość. Prawdę mówiąc, poprawne działanie nawigacji satelitarnej nie jest jednoznacznym, przejrzystym potwierdzeniem żadnej pojedynczej zasady. Jest to skomplikowany system bazujący na rozbudowanej sieci założeń.
Każde z tych założeń mogłoby się okazać błędne lub, mówiąc bardziej dyplomatycznie, prawdziwe jedynie w przybliżeniu. Gdyby którekolwiek z założeń przyjętych przez inżynierów było „prawdziwe w przybliżeniu” w stopniu znacznie odbiegającym od rzeczywistości, to urządzenia GPS dawałyby niezgodne wyniki. Mogłyby na przykład wyznaczać różne położenie w zależności od tego, jaki zestaw satelitów został użyty do triangulacji. Przy intensywnym korzystaniu z takiego systemu musiałyby się ujawnić ukryte wady.
I odwrotnie, poprawne działanie systemu GPS powinno umocnić nasze przekonanie o poprawności wszystkich przyjętych założeń, włącznie z tym, że geometria euklidesowa z dużą dokładnością opisuje rzeczywistą geometrię przestrzeni w ziemskiej skali. Warto więc podkreślić, że do tej pory system GPS działa bez zarzutu.
Mówiąc ogólnie, nauka rozrasta się wokół uznanych zasad. Najnowocześniejsze, najbardziej śmiałe doświadczenia i rozwiązania techniczne bazują na skomplikowanej sieci teorii podstawowych. Gdy okazuje się, że takie wymyślne rozwiązania działają zgodnie z oczekiwaniami, nasza ufność w poprawność teorii leżących u ich podstaw wzrasta. Fakt, że podstawowa wiedza tworzy splątaną, wzajemnie wzmacniającą się sieć idei, jest jednym z tematów przewodnich tej książki.
Zanim zakończymy to preludium, muszę przedstawić jedno ważne zastrzeżenie. Gdy będziemy rozważali przestrzeń w gigantycznych kosmicznych skalach (tak jak to za chwilę nastąpi), gdy będziemy ją analizowali z niespotykaną dokładnością lub gdy zajmiemy się zjawiskami zachodzącymi w pobliżu czarnych dziur, geometria euklidesowa przestanie być dobrym opisem rzeczywistości. W swojej szczególnej i ogólnej teorii względności (z 1905 i 1915 roku) Albert Einstein udowodnił ten fakt za pomocą równań i zasugerował, co należy zrobić, by poradzić sobie z tą trudnością. W następnych latach jego teoretyczne idee zostały potwierdzone w licznych doświadczeniach.
W szczególnej teorii względności Einstein wyjaśnił, że zawsze gdy staramy się zmierzyć „odległość”, musimy uważnie się zastanowić, co tak naprawdę mierzymy i jak wykonujemy pomiar. Prawdziwe pomiary wymagają czasu, a to oznacza, że w trakcie ich wykonywania obiekty mogą się przemieszczać. Tak naprawdę możemy jedynie zmierzyć odległość między zdarzeniami. Położenie zdarzenia określa się zarówno w przestrzeni, jak i w czasie. Geometrię badanych zdarzeń należy zatem rozważać w ramach obszerniejszego formalizmu, czyli czasoprzestrzeni, a nie samej tylko przestrzeni. Z ogólnej teorii względności dowiadujemy się również, że geometria czasoprzestrzeni może ulec zakrzywieniu pod wpływem obecności materii, mogą się nawet wytworzyć fale takich zaburzeń, które się w niej przemieszczają. (Więcej na ten temat powiemy w rozdziałach 4 i 8).
W ramach takiego obszerniejszego formalizmu czasoprzestrzeni i ogólnej teorii względności geometria euklidesowa służy nam jako przybliżenie lepszych teorii. Jest na tyle dokładna, że możemy się nią posługiwać w wielu praktycznych zastosowaniach, o których przed chwilą była mowa. Geodeci, architekci i konstruktorzy sond kosmicznych wykorzystują geometrię euklidesową, ponieważ uchodzi im to na sucho, a jej zastosowanie ułatwia pracę. Choć bardziej zaawansowane teorie dają dokładniejsze wyniki, to jednak są o wiele bardziej skomplikowane w użyciu.
Fakt, że geometria euklidesowa nie stanowi pełnego modelu rzeczywistości, w niczym nie umniejsza jej matematycznej spójności ani nie przekreśla jej wielu sukcesów. Pokazuje to jednak, że Gauss wykazał się dużą mądrością, gdy w duchu radykalnie konserwatywnego podejścia postanowił sprawdzić oczywiste, zdawałoby się, fakty. Ostatnie słowo w kwestii związku między geometrią i rzeczywistością należy wyłącznie do Natury.
Mierzenie Wszechświata
Przeprowadziwszy pomiary najbliższej przestrzeni, możemy się zabrać do mierzenia kosmosu. Podstawowymi narzędziami, które nam to umożliwiają, są różnego rodzaju teleskopy. Poza dobrze znanymi urządzeniami wykorzystującymi światło widzialne astronomowie korzystają również z teleskopów, które zbierają „światło” z innych zakresów widma elektromagnetycznego. Rejestrują one między innymi fale radiowe, mikrofale, podczerwień, nadfiolet, promieniowanie rentgenowskie i promienie gamma. W niebo są wycelowane również bardziej nietypowe „oczy”, które w ogóle nie wykorzystują promieniowania elektromagnetycznego – wśród nich na szczególną uwagę zasługują działające od niedawna detektory fal grawitacyjnych. O tych ciekawych urządzeniach powiemy nieco więcej w dalszych rozdziałach.
Zaczniemy od przytoczenia zaskakująco prostego wniosku, jaki płynie z tych pomiarów. Potem wyjaśnimy, w jaki sposób astronomowie do niego doszli. To jest już bardziej skomplikowane, ale wziąwszy pod uwagę kontekst tych badań, należy przyznać, że i tak nie jest zbyt trudne.
Po pierwsze, zauważmy, że najbardziej podstawowy wniosek jest taki, iż wszędzie występuje ten sam rodzaj materii. Co więcej, z obserwacji wynika, że w całym kosmosie obowiązują takie same prawa.
Po drugie, badacze odkryli, że materia tworzy uporządkowaną hierarchię struktur. Gdziekolwiek spojrzymy, wszędzie dostrzegamy gwiazdy. W większości przypadków tworzą one galaktyki zawierające od kilku milionów do miliardów gwiazd. Naszej macierzystej gwieździe, Słońcu, towarzyszy świta planet i księżyców (a także komet, planetoid oraz pięknych „pierścieni” Saturna i innych niewielkich odłamków). Jowisz, największa planeta Układu Słonecznego, ma masę wynoszącą około jednej tysięcznej masy Słońca, natomiast masa Ziemi to zaledwie trzy milionowe masy Słońca. Mimo dość skromnej masy planety i ich księżyce są szczególnie bliskie naszemu sercu. Oczywiście żyjemy na jednej z nich i mamy dobre powody, by sądzić, że na innych planetach także mogą istnieć pewne formy życia – jeśli nie w Układzie Słonecznym, to gdzieś indziej. Astronomowie od dawna podejrzewali, że wokół innych gwiazd również mogą krążyć planety, ale dopiero niedawno pojawiły się możliwości techniczne ich wykrycia. Do chwili obecnej odkryto już setki planet pozasłonecznych i bezustannie napływają nowe doniesienia o zaobserwowaniu kolejnych tego typu obiektów.
Po trzecie, z badań wynika, że cała ta materia jest rozłożona niemal równomiernie w całej przestrzeni. We wszystkich kierunkach i na wszystkich odległościach dostrzegamy mniej więcej taką samą gęstość galaktyk.
Później uściślimy i uzupełnimy te trzy podstawowe wnioski, wprowadzając między innymi pojęcia Wielkiego Wybuchu, ciemnej materii i ciemnej energii. Jednak najważniejsze przesłanie nie ulegnie zmianie: wszędzie odkrywamy takie same substancje uporządkowane w taki sam sposób i materia ta, w całej swojej ogromnej obfitości, jest rozłożona jednorodnie w obserwowanym Wszechświecie.
W tym miejscu w zupełnie naturalny sposób pojawia się pytanie o to, w jaki sposób astronomowie doszli do tak daleko idących wniosków. Spróbujmy to wyjaśnić, przedstawiając przy okazji konkretne wartości rozmiarów i odległości.
Nie jest wcale oczywiste, w jaki sposób należy mierzyć odległości do bardzo dalekich obiektów. Przecież nie możemy w tym wypadku przyłożyć linijki, rozwinąć taśmy mierniczej ani odebrać sygnału radiowego zawierającego informację o dokładnym czasie jego nadania. Astronomowie muszą więc zamiast tego stosować metodę kroków pośrednich, znaną jako drabina kosmicznych odległości. Każdy szczebel tej drabiny pozwala nam dotrzeć na większą odległość. Dobre zrozumienie procesów związanych z jednym szczeblem przygotowuje nas do wspięcia się na kolejny.
Możemy rozpocząć od mierzenia odległości w bezpośrednim sąsiedztwie Ziemi. Wykorzystując technikę podobną jak w systemie GPS – to znaczy odbijając światło (lub sygnały radiowe) od różnych obiektów i mierząc czas od wysłania do powrotu sygnału – określimy odległości na Ziemi, a także odległości z Ziemi do innych obiektów w Układzie Słonecznym. Istnieje kilka sposobów wykonania takich pomiarów, w tym kilka bardzo pomysłowych, choć niezbyt dokładnych metod wymyślonych przez starożytnych Greków. Dla naszych celów wystarczy, jeśli zauważymy, że wszystkie te metody dają zgodne wyniki.
Sama Ziemia jest niemal doskonałą kulą o promieniu wynoszącym około 6400 kilometrów. W epoce podróży samolotowych taką odległość możemy sobie bez trudu wyobrazić. Jest ona mniej więcej równa drodze, jaką należałoby pokonać, by przelecieć z Nowego Jorku do Sztokholmu. Patrząc w przeciwnym kierunku, możemy zauważyć, że jest to nieco więcej niż połowa odległości między Nowym Jorkiem i Szanghajem.
Istnieje jeszcze inny sposób określania odległości, który doskonale sprawdza się w astronomii i kosmologii i jest z powodzeniem wykorzystywany w tych dziedzinach. Mam tu na myśli wyznaczanie odległości przez podanie czasu, jakiego potrzebowałby promień światła, by ją pokonać. W odniesieniu do promienia Ziemi wartość ta wynosi na przykład około jednej pięćdziesiątej sekundy. Mówimy zatem, że promień Ziemi ma długość jednej pięćdziesiątej sekundy świetlnej.
Na wyższych szczeblach drabiny kosmicznych odległości uczeni operują wartościami wyrażonymi w latach, a nie w sekundach świetlnych, bo tak jest wygodniej. Aby się do tego przyzwyczaić, powiedzmy na początek, wyłącznie w celu uświadomienia sobie właściwych proporcji, że promień Ziemi ma długość około jednej miliardowej roku świetlnego. Nie zapominajmy o tej niewielkiej liczbie, gdy zaczniemy mierzyć coraz dalsze odległości w otaczającym nas świecie. Na naszej liście bardzo szybko pojawią się liczby wyrażone w całych latach świetlnych, a potem w setkach, milionach i wreszcie miliardach lat.
Kolejną kluczową wartością w naszej skali jest odległość Ziemi od Słońca. Wynosi ona około 150 milionów kilometrów. Wartość ta jest równa 8 minutom świetlnym, czyli około 15 milionowym roku świetlnego.
Zauważmy, że odległość Ziemi od Słońca jest około 24 000 razy większa od promienia Ziemi. Ta zaskakująco duża liczba doskonale pokazuje, że nawet w ramach samego tylko Układu Słonecznego cała Ziemia, a co dopiero pojedyncza istota ludzka, naprawdę jest „pochłonięta jak punkt”.
Jeśli świadomość tego faktu kogoś niepokoi, to uprzedzam, że za chwilę będzie jeszcze gorzej. Dopiero zaczęliśmy się wspinać po drabinie kosmicznych odległości.
Znając rozmiar ziemskiej orbity wokół Słońca, możemy wykorzystać jej wielkość do wyznaczenia odległości do kilku względnie bliskich gwiazd w sposób bezpośredni, z użyciem geometrii euklidesowej. Gwiazdy te są na tyle blisko, że ich położenie na niebie zmienia się zauważalnie w ciągu roku w wyniku tego, że Ziemia krąży wokół Słońca. Jest to tak zwane zjawisko paralaksy. Natura wyposażyła nas w dwoje oczu i instynktownie wykorzystujemy efekt paralaksy do szacowania odległości do dużo bliższych obiektów, ponieważ w ich przypadku każde z naszych oczu widzi je pod nieco innym kątem. Uczeni prowadzący badania za pomocą satelity Hipparcos, działającego w latach 1989–1993, zastosowali zjawisko paralaksy do sporządzenia katalogu odległości do około 100 000 (względnie) bliskich gwiazd.
Najbliższa Słońca gwiazda, Proxima Centauri, znajduje się w odległości nieco ponad czterech lat świetlnych. Ma jeszcze dwie bliskie towarzyszki. Gwiazdę Barnarda, kolejną pod względem odległości niezależną gwiazdę, dzieli od nas około sześciu lat świetlnych. Nawiązanie łączności z (hipotetycznymi) kosmitami mieszkającymi w jednym z tych układów – lub z cyborgami wysłanymi tam w przyszłości w roli osadników – będzie wymagało ogromnej cierpliwości.
W porównaniu z przestrzenią międzygwiazdową Układ Słoneczny wydaje się bardzo przytulnym zakątkiem. Odległość Słońca od Proximy Centauri jest około pół miliona razy większa od odległości Ziemi od Słońca.
Kluczowa technika pozwalająca rozciągać drabinę kosmicznych odległości jeszcze dalej w głąb kosmosu wykorzystuje wspomniany już wcześniej fakt, że gdziekolwiek spoglądamy, wszędzie dostrzegamy takie same obiekty i substancje. Gdyby udało nam się wyróżnić pewną klasę obiektów charakteryzujących się tym, że wszystkie świecą z taką samą jasnością, to moglibyśmy ich użyć w roli „świec standardowych”. W takim wypadku wystarczyłoby znać odległość do jednego obiektu z grupy świec standardowych, by móc określić, jak daleko znajdują się inne obiekty tego typu – przeprowadzenie pomiaru polegałoby na zwyczajnym porównaniu ich jasności. Jeśli na przykład jakieś źródło tego typu znajduje się w dwukrotnie większej odległości, to będzie się nam wydawało, że jego jasność jest czterokrotnie mniejsza.
W tym miejscu należy sobie postawić pytanie, jak uzyskać pewność, że obiekty obserwowane w różnych odległych miejscach miałyby taką samą jasność, gdybyśmy oglądali je z bliska. Cała ta idea zasadza się na pomyśle, że musimy znaleźć jakieś klasy obiektów o wielu jednakowych własnościach, założyć, że mamy rację, a potem sprawdzić, czy uzyskujemy zgodne wyniki. Rozważmy prosty przykład, który pozwoli nam zilustrować tę podstawową ideę i pokazać pułapki, jakie czyhają na badaczy.
Gwiazdy w ogólnym przypadku są zbyt różnorodne, by można je było wykorzystać w roli świec standardowych. Rozpalony do białości Syriusz A jest około dwudziestu pięciu razy jaśniejszy od Słońca, natomiast jasność jego bliskiego towarzysza, Syriusza B, który jest karłem, jest około czterdziestu razy mniejsza, mimo iż obie gwiazdy znajdują się mniej więcej w takiej samej odległości od Ziemi (z astronomicznego punktu widzenia). Aby uzyskać dużo lepsze wyniki pomiarów, powinniśmy się ograniczyć do porównywania gwiazd o takiej samej barwie czy też raczej, mówiąc ściślej, gwiazd emitujących światło o takim samym widmie elektromagnetycznym5. Możemy mieć uzasadnioną nadzieję, że jeśli porównamy ze sobą takie jednakowo wyglądające gwiazdy, to różnice w ich jasności będą wynikały z różnicy w ich odległości. Taki wniosek wynika z fizycznej teorii gwiazd, która wyjaśnia, jak powstaje wiele charakterystycznych cech tych obiektów. Ale jak to sprawdzić? Jeden ze sposobów polega na znalezieniu zwartej grupy zawierającej wiele gwiazd położonych blisko siebie. Doskonale nadaje się do tego gromada znana jako Hiady, która zawiera setki gwiazd. Jeśli gwiazdy o bardzo podobnym widmie mają bardzo zbliżoną jasność, to dwie takie gwiazdy znajdujące się w tej samej gromadzie powinny się nam wydać jednakowo jasne. I właśnie taką podstawową prawidłowość udało się nam stwierdzić.
Astronomowie muszą brać pod uwagę jeszcze kilka innych komplikacji, takich jak wpływ pyłu międzygwiazdowego. Pył pochłania światło i w związku z tym może powodować, że obserwowane obiekty wydają się dalsze, niż faktycznie są. Mam nadzieję, że moi koledzy wybaczą mi, iż prześlizgnąłem się tu nad tym zagadnieniem i innymi szczegółami technicznymi, ale zjawiska te w niczym nie zmieniają naszej myśli przewodniej.
Wykorzystując różnorodne świece standardowe, możemy rozciągnąć drabinę kosmicznych odległości jeszcze dalej i „wspiąć się” od pobliskich obiektów do granic obserwowalnego Wszechświata. Niektóre rodzaje świec standardowych lepiej się sprawdzają w odniesieniu do bliskich obiektów, a inne dają lepsze wyniki, gdy obserwujemy bardzo odległe ciała niebieskie. Zawsze musimy się jednak upewnić, że uzyskiwane wyniki są zgodne.
Wspomniany wcześniej katalog sporządzony przez uczonych prowadzących badania za pomocą satelity Hipparcos daje nam solidne oparcie, dzięki któremu możemy wykonać kolejny krok na drabinie kosmicznych odległości. Skoro przekonaliśmy się, że podobne gwiazdy mają taką samą jasność, możemy wykorzystać tę wiedzę, by wyznaczyć odległość do odleglejszych gromad, które znajdują się tak daleko, iż zjawisko paralaksy jest w ich przypadku niezauważalne.
W ten sposób da się wykonać pomiary w całej Drodze Mlecznej. Dzięki takim badaniom okazało się, że gwiazdy w naszej Galaktyce tworzą dość płaski dysk ze zgrubieniem w środku. Udało się też ustalić, że średnica Drogi Mlecznej wynosi około 100 000 lat świetlnych.
Szczególną grupę gwiazd tworzą cefeidy, które świecą jasnym pulsującym światłem. Badając uważnie takie gwiazdy w Obłokach Magellana6, Henrietta Leavitt (1868–1921) ustaliła, że wszystkie cefeidy pulsujące z jednakową częstością mają taką samą jasność, co oznacza, że nadają się do roli świec standardowych. Można je dość łatwo zauważyć, ponieważ są nadzwyczaj jasne, a oprócz tego ich światło zmienia się w charakterystyczny sposób. Dzięki wykorzystaniu cefeid jako świec standardowych astronomom udało się zmierzyć odległości do wielu galaktyk.
Galaktyki są rozmieszczone nieregularnie, nie można więc podać jakiejś konkretnej wartości odległości między nimi. Potrafimy jednak obliczyć średnią odległość między przeciętną galaktyką i jej najbliższą dużą sąsiadką. Okazuje się, że taka typowa międzygalaktyczna odległość wynosi kilkaset tysięcy lat świetlnych. W przeciwieństwie do gwiazd i planet, które niemal zawsze są oddalone od swoich sąsiadek na odległości wielokrotnie przekraczające ich rozmiar, przeciętny dystans między galaktykami nie jest dużo większy od ich średnicy.
W królestwie galaktyk udało nam się znaleźć jeszcze kilka innych użytecznych świec standardowych i odkryć wiele interesujących szczegółów ich struktury. Dzięki tym badaniom astronomicznym nakreślony do tej pory obraz zyskuje głębię i nasz podstawowy wniosek jeszcze bardziej się umacnia. Ponieważ jednak celem tej książki jest wyjaśnienie podstaw, a nie przedstawienie encyklopedycznego kompendium wiedzy, przejdźmy od razu, bez zbędnych ceregieli, do omówienia najdalszych zakątków Wszechświata.
Kosmiczny horyzont
Prowadząc pionierskie badania odległych galaktyk z wykorzystaniem cefeid jako najważniejszych świec standardowych, Edwin Hubble (1889–1953) odkrył nowe zjawisko o podstawowym znaczeniu i daleko idących konsekwencjach. Zauważył mianowicie, że wzory światła gwiazd dobiegającego z odległych galaktyk – ich widma – są przesunięte w kierunku większych długości fali, jeśli porówna się je z wzorami światła z bliższych galaktyk. Zjawisko to jest znane jako przesunięcie ku czerwieni. Nazwa ta odwołuje się do faktu, że jeśli zwiększymy systematycznie wszystkie długości fal światła tworzącego tęczę, to kolory poszczególnych pasków zaczną się zmieniać. Barwy po niebieskiej stronie tęczy przesuną się w kierunku jej czerwonego krańca. Efekt ten zachodzi również dalej, poza zakresem światła widzialnego. W miejscu, gdzie wcześniej był pasek nadfioletowy, pojawia się „nowy” niebieski pasek, a czerwona smuga z drugiej strony znika, zmieniając się w podczerwień.
Zauważone przez Hubble’a przesunięcie ku czerwieni można wytłumaczyć w przekonujący sposób i to wyjaśnienie całkowicie zrewolucjonizowało nasz obraz Wszechświata. Interpretacja, o której tu mowa, bazuje na prostym, ale interesującym efekcie opisanym po raz pierwszy przez Christiana Dopplera w 1842 roku. Doppler zwrócił mianowicie uwagę na fakt, że jeśli jakieś źródło fal oddala się od nas, to kolejne wierzchołki wysyłanych przez nie fal będą do nas docierały z coraz odleglejszych miejsc i w związku z tym odbierana przez nas fala ulegnie rozciągnięciu. Innymi słowy, obserwowane fale ulegają w takiej sytuacji przesunięciu i mają większą długość niż w przypadku, gdyby to samo źródło było nieruchome. Najprostsze wyjaśnienie wykrytego przez Hubble’a przesunięcia ku czerwieni jest więc takie, że galaktyki się od nas oddalają.
Hubble odkrył też w zmierzonych przesunięciach ku czerwieni zaskakująco prostą prawidłowość, która przejawia się tym, że im dalej znajduje się dana galaktyka, tym większe jest jej przesunięcie ku czerwieni. Mówiąc dokładniej, Hubble zauważył, że wielkość przesunięcia ku czerwieni jest proporcjonalna do odległości. To oznacza, że dalekie galaktyki oddalają się od nas z prędkościami proporcjonalnymi do ich odległości.
Jeśli wyobrazimy sobie, że odwracamy ruch galaktyk, tak by odtworzyć przeszłość, to stwierdzona przez Hubble’a proporcjonalność nabierze zupełnie nowego, wstrząsającego znaczenia. W wyniku takiego odwróconego przepływu dalsze galaktyki będą się zbliżały znacznie szybciej, pokonując dzielącą je od nas odległość w taki sposób, że wszystkie zbiegną się jednocześnie w jednym miejscu. Możemy zatem podejrzewać, że w przeszłości cała materia Wszechświata była upakowana znacznie ciaśniej niż obecnie. Jeśli włączymy ponownie właściwy kierunek upływu czasu, to ujrzymy zjawisko wyglądające jak kosmiczny wybuch.
Czy to możliwe, że Wszechświat wyłonił się z wybuchu? Gdy jezuita Georges Lemaître po raz pierwszy zaproponował takie wyjaśnienie obserwacji Hubble’a, jego koncepcja „Wielkiego Wybuchu” wydawała się śmiałą i piękną ideą, ale niewiele było dowodów przemawiających za jej poprawnością i propozycja ta nie miała solidnego oparcia w podstawach fizyki7. (Sam Lemaître używał określeń „pierwotny atom” lub „kosmiczne jajo”. Mniej poetycka nazwa „Wielki Wybuch” pojawiła się znacznie później). Dalsze badania pozwoliły nam jednak o wiele lepiej zrozumieć zachowanie materii w ekstremalnych warunkach. Obecnie mamy wiele dowodów, które jednoznacznie potwierdzają poprawność koncepcji Wielkiego Wybuchu. W rozdziale 6 zajmiemy się bardziej szczegółowo historią kosmosu i wtedy też przyjrzymy się tym dowodom.
Na razie, aby zakończyć naszą opowieść o pomiarach kosmosu, wykorzystamy scenariusz Wielkiego Wybuchu do zdefiniowania granicy i rozmiaru obserwowalnego Wszechświata. Jeśli wyobrazimy sobie, że odtwarzamy do tyłu film przedstawiający kosmiczną historię, to dojdziemy do wniosku, że w pewnym określonym momencie zobaczymy, jak wszystkie galaktyki spotykają się w jednym miejscu. Kiedy to nastąpiło? Aby obliczyć, ile czasu upłynęło od tej chwili, musimy po prostu podzielić odległość przebytą przez jedną z galaktyk przez prędkość, z jaką się porusza. (Ponieważ, jak wynika z obserwacji Hubble’a, prędkość galaktyk jest proporcjonalna do ich odległości, otrzymamy taki sam wynik bez względu na to, którą galaktykę wybierzemy). Przeprowadzając takie oszacowanie, dojdziemy do wniosku, że wszystkie galaktyki musiały wpaść na siebie jakieś 20 miliardów lat temu. Wykonując trochę dokładniejsze obliczenia, uwzględniające zmianę prędkości w czasie wynikającą z wpływu grawitacji, uzyskamy nieco mniejszą wartość. Z najlepszych współczesnych oszacowań wynika, że Wielki Wybuch nastąpił 13,8 miliarda lat temu.
Spoglądając na obiekty znajdujące się daleko w kosmosie, oglądamy ich przeszłość. Ponieważ światło przemieszcza się ze skończoną prędkością, docierające do nas obecnie promienie światła odległych obiektów musiały być wysłane bardzo dawno temu. Gdy spoglądamy około 13,8 miliarda lat wstecz, cofając się do samego Wielkiego Wybuchu, docieramy do granic możliwości naszego wzroku. Zostajemy „oślepieni światłem”. Początkowy kosmiczny wybuch był tak jasny, że nie możemy zobaczyć niczego, co jest poza nim. (A przynajmniej nikt nie wie, jak można by tego dokonać).
Ponieważ nie możemy zajrzeć poza określoną chwilę w czasie, nie możemy też sięgnąć wzrokiem dalej niż do pewnej określonej odległości, jaką światło mogło przebyć w tym ograniczonym czasie. Bez względu na to, jak wielki jest „naprawdę” Wszechświat, wszechświat widoczny obecnie (czyli Wszechświat obserwowalny) jest skończony.
Jaki jest jego rozmiar? Szukając odpowiedzi na to pytanie, możemy w pełni docenić pomysłowość idei mierzenia odległości w latach świetlnych. Ponieważ graniczny czas wynosi 13,8 miliarda lat, to graniczna odległość musi być równa… 13,8 miliarda lat świetlnych! Aby uzmysłowić sobie tę ogromną wartość, przypomnijmy, że promień Ziemi wynosi około jednej miliardowej roku świetlnego.
Tym zestawieniem skrajnie różnych wartości kończymy naszą opowieść o mierzeniu kosmosu. Świat jest ogromny. Jest w nim mnóstwo miejsca dla ludzkości, by mogła się swobodnie rozwijać, a oprócz tego pozostaje jeszcze mnóstwo przestrzeni, którą możemy podziwiać z daleka.
WEWNĘTRZNA OBFITOŚĆ: CO WIEMY I JAK SIĘ TEGO DOWIEDZIELIŚMY
Teraz popatrzmy do środka. Również tam odkryjemy prawdziwą obfitość. Po raz kolejny przekonamy się, że mamy mnóstwo przestrzeni do wykorzystania i jeszcze więcej do podziwiania.
Dzięki różnym rodzajom mikroskopów możemy oglądać prawdziwe bogactwo kryjące się w małych rzeczach. Mikroskopia jest obszerną dziedziną wiedzy, pełną pomysłowych i użytecznych idei, ale tutaj zdołamy jedynie omówić pobieżnie cztery podstawowe techniki, dzięki którym potrafimy zaglądać na różne poziomy głębokiej struktury materii.
Najprostsze i najbardziej znane mikroskopy wykorzystują zdolność szkła i innych przezroczystych substancji do zakrzywiania światła. Formując ze szkła soczewki i umieszczając je w strategicznych miejscach, możemy zakrzywiać wiązkę światła w taki sposób, by kąty, pod jakimi poszczególne promienie docierają do siatkówki oka lub czujnika kamery, zostały rozciągnięte. Sprawia to, że obraz docierający do oka wydaje się większy. Ta sztuczka pozwala nam w cudownie użyteczny i uniwersalny sposób badać świat na odległościach sięgających około jednej milionowej metra, a nawet jeszcze trochę mniejszych. Dzięki temu możemy oglądać komórki tworzące rośliny, zwierzęta i ludzi. Możemy się przyglądać skupiskom bakterii, które czasem nam pomagają, a czasem wywołują choroby.
Jeśli jednak za pomocą tej techniki zakrzywiania światła będziemy chcieli oglądać jeszcze mniejsze obiekty, natrafimy na pewien podstawowy problem. Metoda ta opiera się na zmianie biegu promieni światła. Kłopot polega jednak na tym, że koncepcja światła jako wiązki promieni jest poprawna tylko w przybliżeniu, ponieważ tak naprawdę światło składa się z fal. Próbę użycia fal do wykrycia szczegółów, które są mniejsze od rozmiaru samych fal, można porównać do zbierania małych szklanych kulek w rękawicach bokserskich. Fale wchodzące w zakres światła widzialnego mają długość około połowy jednej milionowej metra, zatem w mikroskopach wykorzystujących światło widzialne poniżej tej odległości obraz robi się zamazany.
Długość fali promieni rentgenowskich jest od stu do tysiąca razy mniejsza niż w przypadku światła widzialnego, za ich pomocą więc można by w zasadzie uzyskać dostęp do dużo mniejszych odległości. Jednak w przypadku promieniowania rentgenowskiego nie istnieje żadna substancja, która odgrywałaby taką samą rolę jak szkło dla światła. Nie ma żadnego materiału, z którego moglibyśmy uformować soczewki zakrzywiające promienie Röntgena. Bez soczewek klasyczna technika powiększania obrazów nie ma racji bytu.
Na szczęście istnieje zupełnie inne podejście, które doskonale się sprawdza. Technika ta opiera się na wykorzystaniu zjawiska dyfrakcji promieni rentgenowskich. Do zaobserwowania tego efektu nie są potrzebne żadne soczewki. Wystarczy skierować wiązkę promieni rentgenowskich na interesujący nas obiekt, pozwolić, by się na nim ugięła i rozproszyła, a następnie zarejestrować efekt końcowy tych oddziaływań. (Aby uniknąć nieporozumień, podkreślmy, że nie ma to nic wspólnego z lepiej znanym, prostszym rodzajem zdjęć rentgenowskich, które wykonuje się w przychodniach lekarskich i dentystycznych. Tradycyjne zdjęcia rentgenowskie są zwyczajnym rzutowaniem obrazu – zapisem cienia rzucanego w świetle rentgenowskim. Technika dyfrakcji promieni rentgenowskich polega na zastosowaniu starannie dobranych wiązek, którymi bada się o wiele mniejsze próbki). „Zdjęcia” wykonywane aparatem do dyfrakcji promieni rentgenowskich w niczym nie przypominają oglądanego obiektu. Zawierają wiele informacji opisujących jego kształt, ale w zakodowanej postaci.
Za tym prostym słówkiem „wiele” kryje się długa i fascynująca opowieść, w której pojawia się niejedna Nagroda Nobla. Niestety, wzory uzyskiwane techniką dyfrakcji promieni rentgenowskich nie zawierają wystarczająco dużo informacji, by można było odtworzyć badany obiekt, wykonując jedynie obliczenia matematyczne. Tak uzyskane „fotografie” można porównać do uszkodzonych plików z cyfrowymi zdjęciami.
Aby rozwiązać ten problem, uczeni na przestrzeni kilku pokoleń skonstruowali swoistą drabinę interpretacyjną, która pozwala im się wspiąć od prostych do bardziej skomplikowanych obiektów. Pierwszymi obiektami, jakie udało się odszyfrować na podstawie wzoru dyfrakcji rentgenowskiej, były proste kryształy, takie jak kryształ zwyczajnej soli kuchennej. Dzięki badaniom chemicznym uczeni w tym przypadku mieli dość dobre wyobrażenie, jak powinno wyglądać poprawne rozwiązanie, a mianowicie spodziewali się, że będzie to regularna siatka zbudowana z jednakowej liczby dwóch rodzajów atomów, sodu i chloru. Mieli również powody, by podejrzewać – z uwagi na kształt dużych kryształów soli – że siatka ta będzie miała formę sześcianu. Nie wiedzieli tylko, jaka jest odległość między atomami. Na szczęście potrafili obliczyć, jak powinien wyglądać wzór dyfrakcyjny promieni rentgenowskich dla modelu takiego kryształu przy dowolnej zadanej odległości między atomami. Gdy udało im się dopasować wyniki takich obliczeń do zaobserwowanych wzorów, uzyskali potwierdzenie poprawności przyjętego modelu i jednocześnie wyznaczyli odległość między atomami w rzeczywistych kryształach.
Przygotowując się do badania bardziej skomplikowanych materiałów, badacze zastosowali przemyślną procedurę kroków pośrednich. Na każdym etapie wykorzystywali sprawdzone wcześniej wyniki do skonstruowania jeszcze bardziej skomplikowanych modeli, które powinny opisywać materiały o bardziej złożonej strukturze przestrzennej. Potem porównywali teoretyczne wzory dyfrakcji rentgenowskiej uzyskane po wykonaniu obliczeń z wykorzystaniem takiego proponowanego modelu z rzeczywistymi obrazami otrzymanymi w laboratorium. Dzięki zastosowaniu takiej techniki polegającej na zgadywaniu i żmudnych obliczeniach od czasu do czasu udawało im się trafić w dziesiątkę. Z każdym sukcesem pojawiały się nowe cechy strukturalne, które można było wykorzystać jako wkład do konstrukcji modeli następnej generacji.
Do wspaniałych osiągnięć w tej dziedzinie badań należy odkrycie przez chemiczkę Dorothy Crowfoot Hodgkin trójwymiarowej struktury cholesterolu (1937), penicyliny (1946), witaminy B12 (1956) i insuliny (1969), a także opisanie trójwymiarowej struktury DNA (1953) – słynnej podwójnej helisy – przez Francisa Cricka i Jamesa Watsona, którzy rozszyfrowali zdjęcia dyfrakcji rentgenowskiej wykonane przez Maurice’a Wilkinsa i Rosalind Franklin.
Obecnie mamy do dyspozycji o wiele bardziej zaawansowane komputery i dzięki programom wykorzystującym owoce pracy poprzednich pokoleń chemicy i biolodzy mogą bez większych trudności odczytywać jeszcze bardziej skomplikowane wzory dyfrakcji rentgenowskiej. W ten sposób udało nam się określić strukturę dziesiątków tysięcy białek i innych ważnych cząsteczek organicznych. Sztuka wykonywania i interpretacji użytecznych z naukowego punktu widzenia obrazów pozostaje kluczowym obszarem rozwoju biologii i medycyny.
Moim zdaniem opisana tu technika drabiny interpretacyjnej jest pięknym przykładem i metaforą tego, jak w ogólnym przypadku konstruujemy różne modele świata. Posługując się wzrokiem, musimy przekształcać dwuwymiarowe obrazy powstające na siatkówce oka w użyteczne wyobrażenie trójwymiarowego świata obiektów rozmieszczonych w przestrzeni. Z teoretycznego punktu widzenia jest to zadanie niemożliwe do wykonania, ponieważ po prostu mamy za mało informacji. Aby temu zaradzić, przyjmujemy założenia odnośnie do tego, jak działa świat. Analizując docierające do naszych oczu obrazy, wykorzystujemy nagłe zmiany barwy, cienie i ruch, by wykryć poszczególne obiekty, ich własności, zachowanie i odległość.
Małe dzieci i osoby niewidome, które nagle odzyskały wzrok, muszą się uczyć, jak oglądać świat. Uczą się metodą prób i błędów, wykorzystując wszystko, co już udało im się wcześniej ustalić, by z prostych przypadków skonstruować świat, który będzie miał jakiś sens. Nauka „widzenia” obiektów we wzorach dyfrakcji rentgenowskiej była zbiorowym wysiłkiem mającym na celu skonstruowanie czegoś podobnego. Uczeni musieli skompletować odpowiednio bogaty zestaw sztuczek, który pozwolił im zrozumieć świat.
Trzecia technika, mikroskopia skaningowa, jest na szczęście bardziej bezpośrednia. Polega na umieszczeniu igły z cienkim czubkiem blisko interesującego nas materiału i „przeglądaniu” go przez przesuwanie igły równolegle do jego powierzchni. Jeśli wykonamy takie skanowanie w polu elektrycznym, to między badaną powierzchnią i igłą popłynie prąd. Im mniejsza będzie odległość między czubkiem igły i powierzchnią, tym większy będzie strumień prądu. W ten sposób możemy określić topografię badanej powierzchni z dokładnością do pojedynczych atomów. Na ilustracjach pokazujących zebrane w ten sposób dane zobaczymy pojedyncze atomy wystające niczym góry z płaskiej równiny.
Na zakończenie powiedzmy jeszcze, jak naukowcy badają najmniejsze odległości. Pierwsze doświadczenie, którego celem było zajrzenie do środka atomów, przeprowadzili w 1913 roku dwaj fizycy, Hans Geiger i Ernest Marsden, pracujący pod kierunkiem Ernesta Rutherforda. W swoim doświadczeniu Geiger i Marsden skierowali wiązkę cząstek alfa na złotą folię. Niektóre z cząstek odbijały się od powierzchni folii i badacze postanowili policzyć, ile z nich odbija się pod poszczególnymi kątami. Przed wykonaniem doświadczenia spodziewali się, że tylko nieliczne cząstki, jeśli w ogóle, ulegną odchyleniu o duży kąt. Cząstki alfa mają dużą bezwładność, więc tylko zderzenia ze znacznie masywniejszymi obiektami mogły w istotny sposób zmienić trajektorię ich ruchu. Gdyby cała masa złotej folii była rozłożona równomiernie, to do takich dużych odchyleń w ogóle nie powinno dojść.
Badacze zaobserwowali jednak coś zupełnie innego, niż się spodziewali. Okazało się, że w rzeczywistości duża liczba cząstek uległa odchyleniu o znaczny kąt. Od czasu do czasu pojedyncze cząstki alfa nawet całkowicie zawracały do miejsca, z którego je wysłano. Rutherford tak później opisywał swoją reakcję na to odkrycie:
Było to najbardziej nieprawdopodobne zdarzenie w moim życiu. To było niemal tak niewiarygodne, jakbyś wystrzelił piętnastocalowy pocisk w kawałek papierowej bibułki, a pocisk odbił się i trafił w ciebie. Po zastanowieniu zrozumiałem, że rozproszenie wstecz musi być wynikiem jakiegoś pojedynczego zderzenia, a kiedy przeprowadziłem obliczenia, stwierdziłem, że nie można uzyskać takiego efektu, jeżeli się nie założy, że główna część masy atomu jest skupiona w maleńkim jądrze. Właśnie wtedy wpadłem na pomysł atomu z maleńkim masywnym jądrem obdarzonym ładunkiem […]8.
Przeprowadzona przez Rutherforda szczegółowa analiza wyników doświadczenia Geigera i Marsdena była podstawą do skonstruowania pierwszego nowoczesnego wyobrażenia atomu. Rutherford udowodnił, że jeśli chcemy wyjaśnić zebrane dane, to musimy przyjąć, iż masa i cały ładunek dodatni atomu są skoncentrowane w niewielkim jądrze. Jądro atomowe zawiera ponad 99 procent masy atomu, a mimo to obejmuje obszar o promieniu wynoszącym niecałą jedną stutysięczną promienia atomu i – ponieważ jest niemal doskonale kuliste – zajmuje mniej niż jedną dziesięciobilionową procent jego objętości. To są dosłownie astronomiczne liczby. Ogromną dysproporcję między rozmiarem jądra i całego atomu można porównać do tego, jak bardzo znikomy jest rozmiar Słońca wobec otaczającej je przestrzeni międzygwiazdowej.
Doświadczenie Geigera i Marsdena stało się wzorem dla kolejnych uczonych zainteresowanych światem subatomowym i taki sposób wykonywania eksperymentów całkowicie zdominował prace badawcze mające na celu poznanie podstawowych oddziaływań. Bombardując różne cele cząstkami o coraz większej energii, a następnie analizując zmianę ich trajektorii, próbujemy się dowiedzieć jak najwięcej o strukturze wewnętrznej badanych obiektów. Również w tym wypadku tworzymy swoistą drabinę interpretacyjną, wykorzystując wszystko, czego udaje nam się dowiedzieć na każdym etapie, do zaplanowania i wyjaśnienia nowych doświadczeń, które pozwalają zajrzeć jeszcze głębiej.
PRZYSZŁOŚĆ PRZESTRZENI
Poza horyzont
Nie możemy zajrzeć dalej, niż wynosi odległość, jaką światło zdążyło pokonać od chwili Wielkiego Wybuchu. To ograniczenie wyznacza nasz kosmiczny horyzont. Jednak z każdym mijającym dniem Wielki Wybuch odchodzi coraz dalej w przeszłość. Przestrzeń, która jeszcze wczoraj znajdowała się poza naszym horyzontem, dzisiaj jest już w środku i możemy ją oglądać.
Oczywiście dodanie kolejnego dnia, a nawet tysięcy lat zwiększa wiek Wszechświata tylko o niewielki ułamek, tak nieznaczny wzrost obserwowalnego Wszechświata jest więc praktycznie niezauważalny w skali czasu życia pojedynczego człowieka. Możemy się jednak zastanawiać, jaki rodzaj Wszechświata będą mogli oglądać nasi odlegli potomkowie, i zgadywać, co może się dziać poza horyzontem. Alfred Tennyson wkłada w usta Ulissesa następujące słowa:
Stałem się częścią tego, co poznałem,
Ale to wszystko jest mi tylko bramą,
Za którą widać świat niezwędrowany,
Którego krańce w dal się zapadają,
Gdy w dal wędruję. Stanąć, nie iść dalej,
Nie błysnąć w czynie, rdzewieć jak miecz w pochwie –
Wstrętne9.
Fakt rozszerzania się kosmicznego horyzontu rodzi wiele pytań. Na przykład czy w wyniku takiego procesu może dojść do tego, że w którymś momencie cały Wszechświat znajdzie się w środku? Jeśli przestrzeń jest skończona, to taka chwila kiedyś w końcu nastąpi. Pamiętajmy jednak, że skończona przestrzeń wcale nie musi mieć krawędzi. Przykładem skończonej powierzchni, która nie ma granicy, może być sfera, czyli powierzchnia kuli. Powierzchnie zwyczajnych kul są dwuwymiarowe. Choć trudno to sobie wyobrazić, matematycy potrafią bez najmniejszego trudu definiować trójwymiarowe przestrzenie, które – tak jak zwyczajne sfery – są skończone, a mimo to nie mają granic. Tego typu przestrzenie mogą opisywać kształt skończonego Wszechświata.
Obserwowalny Wszechświat jest nadzwyczaj jednorodny. Wszędzie zawiera takie same rodzaje materii, która zachowuje się zgodnie z takimi samymi prawami, jest zorganizowana w taki sam sposób i równomiernie rozmieszczona w całej przestrzeni. W kontekście rozszerzania się horyzontu pojawia się zatem pytanie, czy taki „uniwersalny” rozkład występuje również w tych częściach, których nie możemy jeszcze zobaczyć.
A może Wszechświat jest tak naprawdę „multiwszechświatem” zawierającym wiele różnych prawidłowości i praw? Najprostszym sposobem uzyskania jednoznacznej odpowiedzi na to pytanie byłoby zaobserwowanie niezwykłych zjawisk w jakichś odległych zakątkach kosmosu. Gdyby udało nam się coś takiego zobaczyć, zdobylibyśmy niezaprzeczalny dowód istnienia multiwszechświata. Jednak wiele faktów związanych z podstawowymi prawami i kosmologią sugeruje inną, dość smutną, ale całkowicie logiczną możliwość, że nawet jeśli znajdujemy się w multiwszechświecie, to jego „odmienne” części staną się widoczne dopiero w bardzo odległej przyszłości, gdy znajdą się wewnątrz rozszerzającego się horyzontu