Uzyskaj dostęp do tej i ponad 250000 książek od 14,99 zł miesięcznie
Murray N. Rothbard (1926-1995) był człowiekiem wyposażonym jedynie w maszynę do pisania, a stał się inspiracją do globalnej odnowy nauk wolnościowych. Podczas 45 lat pracy, w 25 książkach i tysiącach artykułów, walczył z każdym niszczycielskim trendem poprzedniego wieku — socjalizmem, upaństwowieniem, relatywizmem i scjentyzmem — obudził jednocześnie pasję wolności wśród tysięcy naukowców, dziennikarzy i aktywistów. Ucząc w Nowym Yorku, Las Vegas, Auburn i na konferencjach na całym świecie, Rothbard przewodził renesansowi austriackiej szkoły ekonomii. Inspirował zarówno akademicką jak i masową walkę z wszechwładnym państwem i dworem jego intelektualistów.
Ekonomiczny punkt widzenia to zbiór ponad 100 komentarzy autorstwa Murraya N. Rotbarda, poruszających szeroki wachlarz zagadnień. Choć dotyczą one wydarzeń gospodarczych w latach 80. i 90. XX wieku, to w zasadzie nie straciły nic na aktualności, jako że bolesne dla gospodarki skutki państwowego interwencjonizmu są ciągle takie same. Autor w charakterystyczny dla siebie, błyskotliwy sposób demaskuje powszechne wśród ekonomistów błędy, opłakane skutki opieki społecznej i mity na temat różnych rozwiązań politycznych, w tym również w sferze polityki fiskalnej oraz wymiany międzynarodowej, a także opisuje konsekwencje papierowego pieniądza i problemy transformacji ustrojowej w krajach byłego bloku wschodniego. Jest to doskonała lektura dla każdego zainteresowanego ekonomią i polityką gospodarczą, również dla osób dopiero zapoznających się z austriacką szkołą ekonomii i wolnorynkowym spojrzeniem na otaczającą nas rzeczywistość gospodarczą. Dzięki lekkiemu pióru i dowcipnemu stylowi Rothbarda Czytelnik będzie mógł bez problemu zrozumieć funkcjonowanie złożonych mechanizmów współczesnej gospodarki.
Richard M. Ebeling: "Książka - podzielona tematycznie - porusza niemal wszystkie istotne dla społeczeństwa problemy polityczne na przestrzeni dekady. [...] Czytając te ponad 100 artykułów, przypomniałem sobie, jak wielki jest mój dług intelektualny wobec Rothbarda i jak dzięki jego pracom na przestrzeni ostatnich dziesięcioleci bogatsza stała się sprawa wolności."
Robert P. Murphy: "W tych kwestiach, w których się z nim zgadzałem, Rothbard wspaniale trafiał w samo sedno, czym od razu do mnie przemawiał. Można to zauważyć w tym zbiorze. Argumenty Rothbarda są nie tylko trafne, ale też ścisłe i bezpośrednie. Ten zbiór pokazuje również ogrom wiedzy Rothbarda. Parafrazując Marka Twaina, im jestem starszy, tym mądrzejszy staje się Murray Rothbard."
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 706
Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:
Mecenasi wydania:
Michał Basiński
Karol Bisewski
Robert Ciborowski
Przemysław Hankus
Łukasz Jasiński
Aleksander Popielarz
Łukasz Sosiński
Mikołaj Stempel
Adam Ślązak
Tomasz Trocki
Oskar Ratajczak
Seria: Biblioteka Klasyków Ekonomii
Tytuł oryginału: Making Economic Sense
Tłumaczenie:
Jan Lewiński (1–17, 28–45, 51, 66–71, 85, 90, 104, 116)
Marcin Zieliński (18–27, 46–50, 52–65, 72–84, 86–89, 91–103, 105–115)
Redakcja serii: Marcin Zieliński
Redakcja językowa: Elżbieta Michalak
Korekta: Paweł Kot
Projekt okładki i stron tytułowych: Marta Ozdarska
Copyright © 1995, 2006 Ludwig von Mises Institute, USA
Copyright © 2015 Instytut Edukacji Ekonomicznej im. Ludwiga von Misesa, Wrocław
www.mises.pl
ISBN 978-83-65086-01-3
Instytut Edukacji Ekonomicznej
im. Ludwiga von Misesa
pl. Strzelecki 20
50-224 Wrocław
Łamanie: PanDawer
Konwersja do EPUB/MOBI:
www.inkpad.pl
Wydanie pierwsze
Murray Newton Rothbard (1926–1995) był jednym z najważniejszych myślicieli dwudziestego wieku. Zdecydowałem się na ten dość ogólnikowy termin „myśliciel”, ponieważ zainteresowania Rothbarda były tak zróżnicowane, iż opierają się jakiejkolwiek zwyczajowej klasyfikacji. To prawda, że Rothbard był teoretykiem ekonomii, działającym w „austriackiej” tradycji, której przedstawicielami byli Ludwig von Mises i Friedrich von Hayek. Ale Rothbard napisał również szczegółową książkę o historii wielkiego kryzysu, dwa tomy poświęcone historii myśli ekonomicznej, wiele artykułów z metodologii oraz niezwykle klarowny traktat o zasadach ekonomii. Biorąc pod uwagę specjalizację wśród współczesnych przedstawicieli profesji ekonomistów, te osiągnięcia są czymś niezwykłym. Zajmujemy się bowiem albo teorią ekonomii, albo historią gospodarczą, albo historią myśli ekonomicznej (jeśli nie zależy nam na znalezieniu pracy), ewentualnie – jeśli należymy do niewielkiego grona ekonomistów zdolnych pisać językiem zrozumiałym dla studentów i laików – możemy wydać podręcznik z podstaw ekonomii. Z wyjątkiem dziwaków, jak Paul Samuelson (i Murray Rothbard), nikt nie zajmuje się wszystkim tym naraz, tak jak chirurg specjalizuje się w operacjach serca albo mózgu, ale nigdy w obu tych dziedzinach.
To jeszcze nie koniec. Oprócz prac ze wszystkich dziedzin ekonomii Rothbard napisał czterotomową (i skłaniającą do refleksji) historię Ameryki epoki kolonialnej. Dokonał również syntezy, stosując metodę dedukcji, wniosków płynących z filozofii, nauk politycznych i teorii prawa w traktacie na temat natury i kształtu kodeksu prawnego w sprawiedliwym i wolnym społeczeństwie. I zapomniałbym: Rothbard właściwie sam stworzył współczesny ruch libertariański za sprawą swej nieustannej agitacji i dwóch książek: pierwsza z nich wyjaśniała straszliwe konsekwencje wszelkich interwencji rządowych, a druga przedstawiała projekt społeczeństwa bez rządu.
Ktoś mógłby powiedzieć: „Imponujące osiągnięcia. Niewątpliwie był geniuszem, ale na pewno przy okazji też pozbawionym poczucia humoru robotem, samotnym i zgorzkniałym krytykiem wszystkich tych zwykłych śmiertelników, z którymi nie mógł się identyfikować”.
Może to być zaskakująca cecha Murraya Rothbarda, ale był on zabawny był człowiekiem z krwi i kości. Można to zauważyć po esejach zawartych w tym tomie. Obawiam się jednak, że jeśli ta książka jest jedyną pracą Rothbarda, z jaką mieliście do czynienia, to możecie odnieść wrażenie, że jego styl był wyjątkowo zabawny tylko na tle tej dość nudnej tematyki. Ale czego należałoby się spodziewać? Większość tych esejów została pierwotnie opublikowana w „The Free Market”, biuletynie poświęconym sprawom gospodarczym i politycznym, a więc tematom, które nieraz okazują się (mimo swego wielkiego znaczenia) dość drętwe. Każdy, kto dojdzie do takiego wniosku, powinien przeczytać The Irrepressible Rothbard, zbiór jego lżejszych prac. Można tam natrafić na tę samą nieskazitelną logikę, brutalną szczerość i wspaniałe poczucie humoru, tym razem w kontekście polemik antywojennych, politycznie niepoprawne rozważania na temat konfliktów rasowych i płciowych, zaskakująco przekonujące teorie spiskowe, pozbawione wrażliwości (choć zarazem wyjątkowo zabawne) ataki adhominem na ludzi, których Rothbard nie znosił, stare i dobre ciosy wymierzone w Clintona oraz – wierzcie albo nie – recenzje filmowe, które są o wiele bardziej wnikliwe od tych, na które zazwyczaj natrafiamy w lokalnych gazetach.
Jak już wspomniałem, większość esejów zawartych w tym tomie zostało pierwotnie opublikowanych w „The Free Market”, comiesięcznym biuletynie wydawanym przez amerykański Instytut Misesa, założony w 1982 roku w celu upowszechniania i rozwijania dziedzictwa umiłowanego mentora Rothbarda. Ludwig von Mises (1881–1973) był za swego życia bezspornym liderem austriackiej szkoły ekonomii (termin „austriacki” odnosi się do narodowości twórców szkoły; ekonomiści austriaccy wcale nie badają stopy bezrobocia w Wiedniu). Do jego osiągnięć teoretycznych należało włączenie na początku dwudziestego wieku cen pieniężnych do subiektywistycznej i marginalistycznej struktury wykorzystywanej przez ówczesnych ekonomistów do wyjaśniania cen wyłącznie w ramach gospodarki barterowej. Ponadto Mises, czerpiąc z prac swojego mentora, Eugena von Böhm-Bawerka, oraz Knuta Wicksella, opracował teorię cyklu koniunkturalnego, w świetle której winą należy obarczyć nie kapitalizm, ale rządowe manipulacje systemem bankowym (to właśnie za rozwinięcie Misesowskiej teorii cyklu Friedrich von Hayek otrzymał w 1974 roku Nagrodę Nobla z ekonomii).
Do innych osiągnięć Misesa należą prace z dziedziny metodologii, w których argumentował, że prawa ekonomii stanowią podzbiór praw „prakseologii” – logiki czy teorii ludzkiego działania – zupełnie różnych od praw odkrywanych przez nauki przyrodnicze. W naukach przyrodniczych obserwujemy faktyczny rezultat – na przykład trajektorię lotu kuli armatniej – by następnie przedstawić hipotezę mającą wyjaśnić siły przyczynowe, które do tego rezultatu doprowadziły. Z kolei w naukach społecznych (zarówno w kryminologii, socjologii, psychologii, jak i ekonomii) znamy siły motywujące dane działanie, przynajmniej na pewnym poziomie uogólnienia. Kiedy ktoś dokonuje napadu na bank, nie badamy wpływu sił fizycznych na atomy składające się na jego ciało, lecz zadajemy sobie pytania: „Co skłoniło go do tego aktu desperacji? Czy nie miał on wzorca, który by pokazał, co jest dobre, a co złe?” (Tu nie tyle chodzi o to, że nie możemy zastosować metod fizyki albo chemii, ile o to, że w ten sposób nie zaszlibyśmy zbyt daleko; z pewnością takie metody nie pomogłyby detektywom w odzyskaniu łupów, bo w tym celu trzeba „zajrzeć do głowy” złodzieja). Mises, przyglądając się rosnącej (przynajmniej na początku dwudziestego wieku) strukturze analizy ekonomicznej, wykrystalizował jej trzon, na który składają się logiczne wnioski płynące z faktu, że ludzie działają. Innymi słowy, Mises uważał, że wszystkie ważne prawa ekonomiczne można wywieść z faktu, że ludzie są istotami racjonalnymi (choć omylnymi), wybierającymi środki, by (spróbować) osiągnąć cele. Zwracam na to uwagę, ponieważ niektórzy ludzie stawiają wszystkich „wolnorynkowych” ekonomistów w jednym szeregu, twierdząc, że Milton Friedman i Ludwig von Mises (albo Murray Rothbard) „zasadniczo mówią to samo”. Zagadnienie właściwych podstaw nauki ekonomii stanowi jeden z najważniejszych przykładów błędu biorącego się z takiego bezmyślnego grupowania. Milton Friedman, co go wyraźnie odróżnia od Misesa i Rothbarda, jest znany ze swej obrony pozytywizmu w ekonomii, czyli zastosowania metod nauk przyrodniczych w naukach społecznych.
Pomiędzy Misesem (i Rothbardem) a popularnymi obrońcami leseferyzmu, jak Milton Friedman czy Lawrence Kudlow i Alan Greenspan, niedawnymi bohaterami politycznych „konserwatystów” ze Stanów Zjednoczonych, istnieje jeszcze jedna różnica. Wszyscy wymienieni ekonomiści zgodzą się na przykład, iż obniżka podatku od zysków kapitałowych byłaby dobra dla gospodarki albo że podniesienie płacy minimalnej do 10 dolarów za godzinę byłoby szkodliwe dla mniejszości żyjących w podupadłych dzielnicach. W tym sensie wszyscy oni są „antyrządowi”. Jednak Mises (i w jeszcze większym stopniu Rothbard) był o wiele bardziej spójny w swej obronie indywidualnej wolności i wolnej przedsiębiorczości oraz w krytyce rządowych interwencji w gospodarkę. Dlatego też Friedman mógł popierać „negatywny podatek dochodowy” – program pomocy społecznej, który jest nowatorski tylko pod względem zastosowania innej metody wyliczania zapomogi – a Greenspan i Kudlow z pewnością nie uważają, że „rząd jest problemem”, kiedy chodzi o Rezerwę Federalną.
Oczywiście część osób może stwierdzić, że takie uwagi są zarówno niesprawiedliwe, jak i politycznie naiwne. Faktycznie jeden z największych zarzutów wysuwanych pod adresem Misesa i jeszcze bardziej Rothbarda brzmiał, że są oni upartymi, „dogmatycznymi” ideologami, którzy nie są gotowi popchnąć ruchu we właściwym kierunku z powodu swoich nierealistycznych zasad. Choć nie podpisuję się pod tym zarzutem, to nie jest to miejsce, by na ów zarzut odpowiadać. Ograniczę się tylko do wspomnienia, że w świetle innego popularnego zarzutu Rothbard był sprzedawczykiem, który wchodził w sojusze ze wszelkiej maści komunistami, demokratami, republikańskimi protekcjonistami itd. w zależności od tego, jak zawiał polityczny wiatr. Mówcie, co chcecie, o jego strategicznej wizji – przy czym na jego rzecz przemawia wielki rozwój skrajnie radykalnego ruchu anarchokapitalistycznego – ale nie mógł być on jednocześnie dogmatycznym purystą i oportunistycznym sprzedawczykiem!
Żałuję, że nie mogę przedstawić kilku osobistych anegdot z Rothbardem w roli głównej, by pokazać, jakim był człowiekiem, ale, niestety, nigdy go nie spotkałem. Ludzie mówią, że doskonale pamiętają, gdzie byli, gdy dowiedzieli się o Johnie F. Kennedym. Podobnie było ze mną i Rothbardem. Byłem studentem ekonomii na College’u w Hillsdale. Kolega ze studiów powiedział, że zmarł „pewien wielki wolnorynkowy ekonomista”. Z niepokojem zapytałem go: „ale nie Murray Rothbard?”, na co on odpowiedział: „tak, właśnie tak się nazywał”. Byłem strasznie zawiedziony, pod wieloma względami bowiem dorobek Rothbarda (w dziedzinie zarówno samej ekonomii, jak i filozofii politycznej) jest standardem, według którego oceniałem swoją pracę. Co do kwestii, w których się z nim nie zgadzałem – a było takich wiele – pragnąłem wysłuchać jego odpowiedzi na moją krytykę, a teraz przestało to być możliwe (byłem równie zaabsorbowany samym sobą, jak wszyscy amerykańscy studenci). Jednak w tych kwestiach, w których się z nim zgadzałem, Rothbard wspaniale trafiał w samo sedno, czym od razu do mnie przemawiał.
Można to zauważyć w tym zbiorze. Argumenty Rothbarda są nie tylko trafne, ale też ścisłe i bezpośrednie (inaczej niż u Hayeka, którego tezy często zachowują ważność i są niezwykle ścisłe, ale zarazem przedstawiane są w formie zdań wielokrotnie złożonych, których człony oddzielone są kilkoma średnikami). Ten zbiór pokazuje również ogrom wiedzy Rothbarda. Parafrazując Marka Twaina, im jestem starszy, tym mądrzejszy staje się Murray Rothbard. Zdałem sobie z tego sprawę, gdy po raz pierwszy prowadziłem wykłady z austriackiej ekonomii dla zaawansowanych, a jedną z lektur był słynny artykuł Rothbarda z 1956 roku pt. Toward a Reconstruction of Utility and Welfare Economics. Ukończyłem właśnie wysoko oceniane studia doktoranckie z ekonomii matematycznej i uważałem, że posiadam dość pokaźną wiedzę na temat takich abstrakcyjnych pojęć jak funkcje użyteczności von Neumanna i Morgensterna. Byłem zaskoczony, kiedy odkryłem, że Rothbard był doskonale obeznany z wyrafinowanymi dowodami matematycznymi, gdy wskazywał na leżące u ich podstaw (fałszywe) założenia. Równie zaskoczony byłem wtedy, kiedy czytałem ponownie eseje wchodzące w skład tego zbioru i natrafiłem na esej Rothbarda o teorii chaosu. Przeczytałem niedawno książkę o historii i obecnych zastosowaniach teorii chaosu, by przygotować się na seminarium na temat ładu spontanicznego (czyli wyłaniania się uporządkowanych zjawisk na poziomie makro z prostych fundamentów na poziomie mikro). Dlatego też wiem, że Rothbard z pewnością musiał zrobić to samo, ponieważ w swoim eseju odwołuje się do terminów i argumentów, które świadczą o jego głębokim zrozumieniu zagadnienia. Na ironię zakrawa to, że przeczytałem ten esej już kilka lat wcześniej, kiedy ukazało się pierwsze wydanie Ekonomicznego punktu widzenia, jednak najwyraźniej nie dostrzegłem subtelności jego argumentów, gdyż nie miałem wówczas zbytniego pojęcia, o czym w ogóle Rothbard mówi.
Mogę również podzielić się anegdotą z pewnej wycieczki samochodowej, w którą udałem się z moją mamą i jej przyjaciółką. Wziąłem ze sobą egzemplarz (pierwszego wydania amerykańskiego) Ekonomicznego punktu widzenia, choć już wcześniej przeczytałem go od deski do deski. W pewnym momencie przyjaciółka mojej mamy, znudzona drogą, spytała mnie, czy może zerknąć na książkę. Mimo pewnych obaw zgodziłem się. Chociaż wiedziałem, że Rothbard jest wspaniały, to wiedziałem też, że dla „człowieka z krwi i kości” okaże się on nudny albo nawet szalony! Jednak po przeczytaniu kilku stron zaczęła chichotać, a nawet rozmawiać z moją mamą na temat książki. Przyjaciółce szczególnie spodobały się spostrzeżenia Rothbarda na temat tego, dlaczego teraz nie stawia się już domów równie wytrzymałych jak te stare. „Ach, oczywiście! Dziś nie byłoby nas stać na ich budowę”. Krótko mówiąc, choć nie pamiętam, jakie były przyczyny moich obaw – może to dlatego, że byłem wówczas jeszcze nastolatkiem – to okazały się one niczym nieuzasadnione.
Choć wielu młodszych libertarian było zszokowanych i rozczarowanych działaniami Partii Republikańskiej i George’a W. Busha, bezprecedensowymi deficytami i skłonnością do podbijania innych krajów, to niektóre z zawartych tutaj esejów pokazują, że to nic nowego. O Ronaldzie Reaganie Rothbard napisał, iż to nie przypadek, że
władza, której udało się godzić retorykę „likwidacji urzędniczego garbu” ze smutną rzeczywistością rozbuchania państwowej wszechwładzy, źródeł wolnej przedsiębiorczości i rozwoju gospodarczegochciała szukać w etatystycznej mizerii keynesizmu.
W późniejszym eseju kontynuuje:
Od początków rządów Reagana tak często zwiastowane „cięcia” w rubryce urzędowo określanej na liście płac mianem „podatku dochodowego” były z nawiązką kompensowane podwyżkami podatku na „ubezpieczenia społeczne”. Ponieważ jednak opinia publiczna była tak uwarunkowana, by myśleć, że podatek na ubezpieczenia społeczne z jakiegoś powodu wcale podatkiem nie jest, to administracja Reagana, a później Busha, mogła z powodzeniem pozować na heroicznych bojowników o cięcia podatkowe, którzy opierają się przejawianym przez złych demokratów skłonnościom do podnoszenia podatków.
Jeśli chodzi o Bliski Wschód, to esej Rothbarda pt. Przyczyny interwencji w Arabii Saudyjskiej wciąż pozostaje lekturą wartą przeczytania (podobnie rzecz się ma z występami nieżyjącego już komika Billa Hicksa; choć zmarł on przed drugą wojną w Zatoce Perskiej, to można słuchać przez kilkanaście minut jego krytyki „Bushowskich” usprawiedliwień dla wojny i hipokryzji towarzyszącej demonizowaniu Saddama, nie zdając sobie wcale sprawy z tego, że mowa o Bushu seniorze).
Zacząłem ten wstęp od stwierdzenia, że Murray Rothbard był jednym z najważniejszych myślicieli XX wieku. W dużej mierze dzięki wysiłkom Instytutu Misesa, jego dorobek, którego niewielką część stanowi ten zbiór, trafia do coraz szerszych kręgów. Choć wciąż nie można mieć pewności, że tak będzie, to być może w przyszłości autorzy będą powoływać się na Murraya Rothbarda jako na jednego z najbardziej wpływowych myślicieli z perspektywy XXI wieku.
Robert P. Murphy
College w Hillsdale
Grudzień 2005
Zwolennicy Billa Clintona powtarzają jeszcze od czasów kampanii wyborczej w 1992 roku to samo pytanie: skoro „liczy się gospodarka, głupcze!”, to dlaczego opinia publiczna nie chwali prezydenta za nasz magiczny renesans ekonomiczny? Demokraci, próbując się jakoś ogarnąć po dotkliwej porażce w listopadzie 1994 roku, tłumaczyli, że po prostu nie udało im się „dotrzeć” do opinii publicznej z dobrymi wieściami o gospodarczej prospericie.
Co bystrzejsi stronnicy Clintona zdali sobie sprawę, że prezydent wraz ze swoimi apologetami powtarzają ten slogan jak zaklęci w całej Ameryce. Dlatego też uciekli się do innego niewiarygodnego wytłumaczenia: otóż kolektywny umysł społeczeństwa miał zostać tymczasowo osłabiony przez słuchanie Rusha Limbaugha i jego kumpli.
Coś tu jednak nie gra. Przede wszystkim analiza taka jest przykładem gospodarczego determinizmu czy też „wulgarnego marksizmu”. Choć stan gospodarki jest z całą pewnością istotnym czynnikiem kształtowania nastrojów politycznych społeczeństwa, to oprócz niego mamy jeszcze do czynienia z wieloma pozaekonomicznymi przesłankami do niepokojów.
Opinię publiczną oburzają choćby kwestie przestępczości, zakazu dostępu do broni, fali imigracji oraz nieustannych napaści rządu i dominującej liberalnej kultury na religię, „burżujów” i tradycyjne wartości etyczne.
Wśród innych pobudek pozaekonomicznych warto wymienić narastające sceptyczne nastawienie do obietnic polityków – sceptycyzm ów to nie przykład zarażenia chorobą cynizmu, lecz raczej efekt licznych doświadczeń z ich prawdomównością. A fortiori intensywną awersję – która znacząco wpłynęła na wynik wyborów – wobec prezydenta, jego żony i cech osobistych („kwestii charakterologicznych”) da się spokojnie oddzielić od spraw ekonomicznych.
Nawet pomijając te pozaekonomiczne czynniki nastrojów politycznych, powtarzająca się wciąż argumentacja „liczy się gospodarka” odwraca uwagę od istotnych motywów ekonomicznych całej sprawy. Slogan Clintona odbiega o całe lata świetlne od właściwych problemów gospodarki.
Aby zachować jego właściwe znaczenie, należałoby go raczej sparafrazować jako „liczy się cykl koniunkturalny, głupcze”. Stronnicy Clintona tak naprawdę wspierają bowiem „wulgarny determinizm cyklu koniunkturalnego”: jeśli gospodarka znajduje się w fazie rozkwitu, to władza uzyska reelekcję. Jeśli natomiast znajdziemy się w recesji, to społeczeństwo pozbędzie się partii rządzącej.
Na pierwszy rzut oka mogłoby się wydawać, że „cykl koniunkturalny” jest odpowiednikiem „gospodarki”. W rzeczywistości jednak istnieją ważkie i silnie odczuwane przez głosujących strony gospodarki, które nie mają cyklicznej natury – są raczej przejawem działania trendów sekularnych (długofalowych). Ważne jest to, co dzieje się z podatkami i jakością życia – czasem nawet ważniejsze od tego, czy akurat technicznie znaleźliśmy się w fazie ekspansji czy depresji.
Tak naprawdę główny powód złości społeczeństwa na polityków nie ma nic wspólnego z cyklem, boomem czy recesją: to wyglądający na trwały trend powolny i nieubłagany spadek jakości życia, który miażdży morale i portfele ludzi. Drenujące oszczędności obywateli podatki rosną stale – zarówno lokalnie, jak i na szczeblu federalnym. Sztuczki semantyczne przestały działać: choć politycy nazywają je „opłatami”, „daninami” czy nawet „składkami ubezpieczeniowymi”, to i tak pozostaną niszczącymi nasze dochody podatkami.
I choć establishment ekonomistów, statystyków i ekspertów od finansów cały czas twierdzi, że „inflacja została zażegnana”, a „strukturalne czynniki ekonomiczne wykluczają jej powrót”, to i tak konsumenci zdają sobie sprawę, że ceny w supermarketach i sklepach, opłaty za studia, ubezpieczenia czy prenumeraty wysysają środki z ich portfeli coraz to skuteczniej, gdyż wartość dolara wciąż spada.
Nie pomagają pogardliwie formułowane przez „naukowców” zajmujących się ekonomią zarzuty o „anegdotyczności” wszystkich tych konsumenckich doświadczeń. Na nic zamanipulowane twarde dane ilościowe, jakoby wspierające tezę o znakomitej kondycji gospodarki czy końcu inflacji. W ostatecznym razie cała ta „nauka” zdołała jedynie skutecznie przekonać opinię publiczną, że eksperci od statystyki i finansów są w takim samym stopniu jak prawnicy i politycy bandą – jak by to ująć? – „speców od dezinformacji”.
Jeśli rzeczywiście wszystko idzie tak świetnie – pyta coraz bardziej zdenerwowana opinia publiczna – to dlaczego młode pary nie mogą sobie obecnie pozwolić na standard życia, jakim cieszyli się ich rodzice po swoim ślubie? Czemu nie stać ich na zakup własnego domu? Jednym z największych osiągnięć Ameryki było utrwalenie się wśród kolejnych pokoleń mieszkańców tego kraju oczekiwania, że ich dzieci będą żyły w lepszych warunkach niż oni sami. Oczekiwanie to nie wypływało nigdy z bezmyślnego optymizmu, lecz było głęboko osadzone w doświadczeniach przodków, rzeczywiście radzących sobie z każdą kolejną generacją coraz lepiej.
Teraz jednak warunki uległy całkowitej zmianie. Ludzie widzą, że żyje im się gorzej niż ich rodzicom, stąd racjonalnie spodziewają się, że ich dzieciom będzie się żyło jeszcze trudniej. Wszędzie, gdziekolwiek by się zwrócili, usłyszą tę samą odpowiedź: „Dlaczego nie możemy zbudować nowego domu tak mocnego jak ten [pięćdziesięcioletni]? Ach, oczywiście! Dziś nie byłoby nas stać na jego budowę”…
Tę tendencję da się dostrzec nawet w oficjalnych statystykach – jeśli wiemy, gdzie szukać. Przykładowo mediana urealnionych (czyli uwzględniających inflację) dochodów liczona w dolarach jest niższa niż w 1973 roku. Jeśli zdezagregujemy gospodarstwa domowe, naszym oczom ukaże się jeszcze gorszy widok. Dochody rodzin nie spadły tylko trochę – w ciągu ostatnich 20 lat zanurkowały raptownie, gdy się uwzględni znaczny wzrost odsetka pracujących mężatek w całkowitej sile roboczej.
Nasza dominująca liberalna kultura postrzega ten masowy odpływ matek i artystek ku nużącym biurom i godzinom zegarowym jako feministyczne wyzwolenie kobiet z oków życia domowego. Zgodnie z tą retoryką kariera zawodowa daje kobietom szansę na rozwój intelektualny. W przypadku niektórych zawodów istotnie może tak być. Dlaczego jednak cały czas słyszy się głosy kobiet, które mówią: „powodem, dla którego poszłam do pracy, jest to, że nie mogliśmy się utrzymać tylko z pensji męża”?
Nie ma oczywiście możliwości ilościowej weryfikacji czy pomiaru tych subiektywnych motywacji, ale podejrzewam, że wiele pracujących kobiet – tych, które nie zrobiły spektakularnych karier – pracuje tylko po to, aby ich rodziny nie zbankrutowały. Przypuszczam też, że wolałyby raczej wrócić do życia w neandertalskiej epoce rodem z serialu „Ozzie and Harriet”2.
Rzecz jasna znajdziemy sektory charakteryzujące się szybkim wzrostem, gdzie ceny, zamiast rosnąć, spadają. Doskonałym przykładem jest przemysł komputerowy i wszystko to, co pojawi się w tej części gospodarki, którą nazywamy infostradą. W którymś momencie nieodległej przyszłości Amerykanie mogą nawet znaleźć ukojenie w glorii setek interaktywnych, cyfrowych i cybernetycznych kanałów, oferujących kolejne warianty bezmózgiej papki.
Taka przyszłość może dać sporą satysfakcję futurystycznym guru technologii, takim jak Alvin Toffler czy Newt Gingrich, ale gniew reszty społeczeństwa będzie narastać, skłaniając je do wyrażenia sprzeciwu wobec politycznego reżimu, który – poprzez uciążliwe opodatkowanie, tani pieniądz i kredyt, machinacje wokół systemu ubezpieczeń społecznych, nakazy i regulacjonizm – przyniósł nam długotrwałe staczanie się amerykańskiego snu w nicość.
Nasz kraj nęka cała chmara ekonomicznych mitów, deformujących sposób, w jaki opinia publiczna podchodzi do najważniejszych problemów. Prowadzi ją to do akceptowania błędnych i fatalnych w skutkach propozycji politycznych rządu. Poniżej omawiam dziesięć najniebezpieczniejszych mitów, jednocześnie analizując błędy tkwiące u ich podstaw.
Mit 1: Przyczyną inflacji jest deficyt; deficyt nie ma z inflacją nic wspólnego.
W ostatnich latach nieustannie borykaliśmy się z deficytem rządu federalnego. Każda z partii, która akurat nie sprawowała władzy, winę za ciągłą inflację zrzucała na deficyt. Jednak niezależnie od tego, o jakiej partii byśmy mówili, ta, zdobywając władzę, zawsze zaczynała upierać się przy tym, że deficyt nie ma z inflacją żadnego związku. Obydwa z owych przeciwstawnych stanowisk są mitami.
Kiedy rząd federalny wydaje więcej, niż pobiera w podatkach, wtedy pojawia się deficyt. Może on być finansowany na dwa sposoby. Jeśli zostanie pokryty sprzedażą obligacji skarbowych, wówczas nie przyczynia się do inflacji. Nie pojawił się żaden nowy pieniądz – obywatele po prostu wycofują swoje oszczędności z kont, a Skarb tak zdobyte środki wydaje. Pieniądze zmieniły jedynie właściciela – zamiast społeczeństwa posiada je teraz Skarb, który następnie przekazuje je innym członkom tegoż społeczeństwa.
Deficyt można też spłacić, sprzedając obligacje systemowi bankowemu. W takim wypadku banki kreują nowe pieniądze, tworząc nowe depozyty bankowe i wykorzystując je do wykupu obligacji. Te nowe środki, które przybierają postać depozytów bankowych, są wydawane przez skarb federalny, na stałe wpływając do strumienia wydatkowego gospodarki, przez co powodują wzrost cen i wywołują inflację. Dzięki dość skomplikowanemu procesowi System Rezerwy Federalnej daje bankom możliwość stworzenia nowych pieniędzy poprzez kreację jedynie jednej dziesiątej ich wartości w postaci rezerw bankowych. Jeśli banki chcą kupić nowe obligacje warte nominalnie 100 miliardów dolarów, to Fed, aby opłacić deficyt, musi skupić stare obligacje, w przybliżeniu warte nominalnie jedynie 10 miliardów. Zakup ten zwiększy rezerwy bankowe o 10 miliardów dolarów, pozwalając bankom na stworzenie, na zasadzie piramidy, nowych depozytów bankowych, a stąd pieniądza o dziesięciokrotnie większej wartości. Krótko mówiąc, państwo i kontrolowany przez nie system bankowy „drukują” nowe pieniądze w celu opłacenia deficytu federalnego.
Dlatego też deficyt ma charakter inflacyjny wtedy, gdy jest finansowany za pomocą systemu bankowego. Nie jest natomiast inflacyjny, jeśli ręczy zań społeczeństwo.
Niektórzy uważają, że lata 1982–1983 – kiedy to deficyt rósł coraz szybciej, a inflacja zamierała – stanowią dowód statystyczny na brak związku między deficytem a inflacją. Żaden to jednak dowód. Zmiany ogólnego poziomu cen determinowane są przez dwa czynniki: podaż pieniądza i popyt na pieniądz. W rzeczonym okresie Fed kreował nowe pieniądze w bardzo szybkim tempie około 15 procent rocznie. Znaczną ich część przeznaczono na sfinansowanie rozrastającego się deficytu. Z drugiej jednak strony głęboka depresja w tym czasie spowodowała wzrost popytu na pieniądz (przez obniżenie skłonności do wydawania środków na dobra) w reakcji na dotkliwe straty przedsiębiorstw. Ten tymczasowy wzrost popytu na pieniądz nie sprawia jednak wcale, że deficyt traci swój inflacyjny charakter. Tak naprawdę w miarę powrotu ożywienia gospodarczego wydatki zaczęły rosnąć i popyt na pieniądz spadł, powodując, że nowe pieniądze zaczęto wydatkować, wywołując przyspieszenie inflacji.
Mit 2: Deficyt nie wypycha prywatnych inwestycji z rynku.
W ostatnich latach w Stanach Zjednoczonych pojawił się zrozumiały niepokój, związany ze zbyt niskim odsetkiem oszczędności i inwestycji. Przykładowo kolosalne rozmiary deficytu federalnego wydają się grozić odciągnięciem oszczędności od produktywnych inwestycji ku jałowym wydatkom rządowym, co skutkować będzie kumulowaniem się długookresowych perturbacji rozwoju gospodarczego i może poważnie uderzyć w standard życia społeczeństwa.
Niektórzy twórcy programów politycznych po raz kolejny starali się odeprzeć ten zarzut, podpierając się statystyką. Między 1982 a 1983 rokiem, jak twierdzili, deficyt był wysoki, podczas gdy stopy procentowe spadały, co miałoby wskazywać, że deficyt nie wywiera na prywatne inwestycje szkodliwego wpływu.
Po raz kolejny widać, jak beznadziejnie błędne są próby obalania logiki za pomocą statystyki. Stopy procentowe spadały ze względu na zmniejszenie się ilości pożyczek zaciąganych przez przedsiębiorców w czasie recesji. Realne stopy procentowe (stopy procentowe pomniejszone o inflację) pozostawały bezprecedensowo wysokie – częściowo ze względu na to, że większość z nas oczekuje powrotu inflacji, a częściowo ze względu na efekt wypychania. Tak czy inaczej statystyka nie jest zdolna zaprzeczyć logice, a ta mówi nam, że jeśli za oszczędności zakupione zostaną obligacje skarbowe, to na pewno nie posłużą już finansowaniu produktywnych inwestycji. Jeśli deficyt opłacany jest z pieniędzy społeczeństwa, wtedy zmiana ostatecznego celu oszczędności jest ewidentna i jawna – lecz jeśli deszcz pieniędzy pochodzi z inflacji bankowej, wtedy zmiana jest utajona. Co do efektu wypychania, to oddziałuje on przez nowo wydrukowany pieniądz, walczący o zasoby rynkowe ze starą, zaoszczędzoną wcześniej przez społeczeństwo gotówką.
Milton Friedman usiłuje nas przekonać, że deficyt nie powoduje jakiegoś szczególnego efektu wypychania. Według niego wszelkie wydatki rządowe w równym stopniu dyskryminują prywatne oszczędności i inwestycje. Nie ulega wątpliwości, że pieniądz wyssany przez podatki również mógłby stać się elementem prywatnych oszczędności i inwestycji. Ale deficyt o wiele silniej wyklucza prywatne inwestycje, kiedy bowiem deficyt jest finansowany przez społeczeństwo, to w oczywisty sposób oznacza to uderzenie w oszczędności i tylko w nie. Podatki tymczasem obciążają zarówno oszczędności, jak i konsumpcję.
Deficyt, z jakiejkolwiek by nań spojrzeć perspektywy, jest źródłem groźnych problemów gospodarczych. Finansowany przy użyciu systemu bankowego staje się powodem inflacji. Nawet w przypadku opłacania go bezpośrednio przez obywateli jego konsekwencje są poważne – wyklucza bowiem z rynku prywatne przedsięwzięcia inwestycyjne i zagarnia oszczędności na rzecz niegospodarnych projektów rządowych. Środki te w innym wypadku mogłyby zostać użyte na rzecz rozsądnych inicjatyw prywatnych. Co więcej, im większy deficyt, tym boleśniej swym ciężarem przygniata amerykańskich obywateli podatek dochodowy. Muszą oni spłacać narastające lawinowo odsetki, jeszcze dotkliwsze w sytuacji wzrostu stóp procentowych wynikającego z deficytu inflacyjnego.
Mit 3: Podwyżki podatków umożliwiają zwalczenie deficytu.
Ludzie, których całkiem słusznie niepokoi deficyt, czasem opowiadają się, niestety, za kiepskim rozwiązaniem tego problemu, czyli za zwiększeniem podatków. Leczenie deficytu wzrostem obciążeń podatkowych jest jak usuwanie zapalenia oskrzeli za pomocą krzesła elektrycznego. „Lekarstwo” jest o wiele gorsze niż choroba.
Przede wszystkim wielu komentatorów już wskazywało, że rosnące opodatkowanie to tylko sposób na zdobycie przez państwo dodatkowych pieniędzy. Dzięki temu politycy i biurokraci mogą dalej zwiększać wydatki – nic więcej. Zgodnie ze słynnym prawem Parkinsona „wydatki rosną, równając do przychodów”. Rząd, jeśli tylko sobie tego zażyczy, nawet przy wyższych wpływach bez kłopotu zdoła podnieść deficyt, na przykład do 20 procent budżetu – wystarczy jedynie, że odpowiednio zwiększy swoje wydatki.
Zapomnijmy jednak na chwilę o tej celnej obserwacji, dotyczącej psychologii świata polityki. Zamiast tego odpowiedzmy na inne pytanie: dlaczego mielibyśmy wierzyć, że podatek jest lepszy od wzrostu cen? Inflacja jest wszak formą podatku, za pomocą którego państwo i inni wcześni odbiorcy strumienia nowych banknotów mogą wywłaszczyć członków społeczeństwa, których dochody wzrosną w wyniku inflacji później. Ale nawet wtedy ludzie odnoszą korzyści z wymiany. Gdy cena chleba wzrośnie do dziesięciu dolarów za bochenek, nie będzie to przyjemne, ale przynajmniej nadal będzie można ten chleb zjeść. Tymczasem wzrost podatków umożliwia politykom i urzędnikom zabór środków obywateli, którzy w konsekwencji tracą szansę na zakup usługi bądź dobra. Jedynym skutkiem będzie zagarnięcie mienia producentów na rzecz biurokracji. To uczyni wywołaną już podatkami szkodę tym dotkliwszą, bo agenci państwa będą mogli wykorzystać skonfiskowane fundusze do dalszego pomiatania społeczeństwem4.
A zatem stanowcze „nie”. Jedyne prawdziwe remedium na deficytową chorobę jest banalnie proste, choć tak często ignorowane: to cięcia budżetowe. Kiedy ciąć i gdzie ciąć? Zawsze i wszędzie.
Mit 4: Za każdym razem gdy Fed zmniejsza podaż pieniądza, stopy procentowe rosną (lub spadają); za każdym razem gdy Fed zwiększa podaż pieniądza, stopy procentowe rosną (lub spadają).
Prasa finansowa wie już wystarczająco dużo o ekonomii, by obserwować tygodniowe statystyki agregatów monetarnych z czujnością jastrzębia. Jej interpretacje są jednak zazwyczaj nieskładne. Gdy podaż pieniądza się zwiększa, pisma ekonomiczne interpretują ten fakt jako inflacjogenny i prowadzący do spadku stóp procentowych. Uznają także, często w tym samym nawet artykule, że prowadzi do wzrostu stóp procentowych. I vice versa. Jeśli Fed ogranicza wzrost podaży pieniądza, komentatorzy twierdzą, że spowoduje to zarówno wzrost stóp procentowych, jak i ich spadek. Czasem wydaje się, że wszelkie działania Fedu, nieważne jak sprzeczne, muszą zaowocować podniesieniem się tych stóp. Jak widać, coś jest tutaj nie tak.
Kłopot w tym, że na stopy procentowe, podobnie jak na poziomu cen, różnorodny wpływ wywiera wiele czynników. Jeśli Fed zwiększa podaż pieniądza, to dlatego że rozszerza rezerwy bankowe, skąd bierze się wzrost podaży kredytu i depozytów bankowych. Ekspansja kredytowa bezsprzecznie skutkuje eksplozją podaży na rynku kredytowym, a więc obniżeniem się ceny kredytu – stopy procentowej. Z drugiej strony, jeśli Fed ogranicza akcję kredytową i spowalnia wzrost podaży pieniądza, to spada podaż na rynku kredytowym, co przyczynia się do podwyższenia stóp procentowych.
W ciągu pierwszych kilku czy kilkunastu lat chronicznej inflacji tak właśnie się dzieje. Prowadzona przez Fed ekspansja obniża stopy procentowe, a jej zahamowanie powoduje skutek odwrotny. Po tym początkowym okresie społeczeństwo i rynek biorą jednak na te działania poprawkę. Orientują się, że skoro podaż pieniądza systematyczne rośnie, to inflacja będzie zjawiskiem przewlekłym. Zdają sobie też sprawę, że inflacja szkodzi wierzycielom z korzyścią dla dłużników. Jeśli ktoś udzieli kredytu na 5 procent rocznie, a roczna stopa inflacji wyniesie 7 procent, to straci na tym 2 procent. Dostanie bowiem dolary, których siła nabywcza będzie o te 7 procent niższa. To oznaczać też będzie zysk kredytobiorcy. Stąd pożyczkodawcy, pragnąc przystosować się do tych konsekwencji zjawisk inflacyjnych, nałożą na stopę procentową premię, czyli opłatę, którą pożyczkobiorcy będą skłonni spłacać. Dlatego też w długim okresie wszelkie oczekiwania inflacyjne spowodują wzrost premii inflacyjnej dodawanej do stopy procentowej, natomiast wszelkie czynniki, które zdaniem uczestników rynku wywołają redukcję inflacji, będą miały skutek przeciwny. Wniosek jest taki, że gdyby teraz Fed zaczął prowadzić bardziej restrykcyjną politykę pieniężną, to tym samym zdusiłby oczekiwania inflacyjne, powodując spadek stóp procentowych. Polityka ekspansywna te oczekiwania by natomiast wzbudziła, prowadząc do wzrostu stóp procentowych. Mamy oto do czynienia z dwoma jednoczesnymi i odwrotnymi procesami przyczynowo-skutkowymi. Właśnie dlatego rozkręcenie lub przyhamowanie kreacji pieniądza przez Fed może zarówno zmniejszyć, jak i zwiększyć stopy procentowe, zależnie od tego, który z tych procesów przyczynowo-skutkowych zadziała silniej.
Który okaże się silniejszy? Nie ma sposobu, aby mieć pewność. We wczesnych latach inflacji nie będzie raczej owej premii inflacyjnej – pojawia się ona dopiero w okresie późniejszym, który mamy obecnie. Względne siły i opóźnienia w działaniu wspomnianych ciągów przyczynowo-skutkowych zależą od subiektywnych oczekiwań społeczeństwa i nie da się ich przewidzieć ze stuprocentową pewnością. Jest to jeszcze jeden z powodów, dla których nie ma możliwości stworzenia całkowicie pewnych prognoz ekonomicznych.
Mit 5: Ekonomiści, posługując się wykresami i modelami wymagającymi superszybkich komputerów, mogą dokładnie przewidzieć przyszłość.
Kwestia prognozowania przyszłych stóp procentowych stanowi doskonałą ilustrację kłopotów z prognozowaniem jako takim. Ludzie są przewrotni i kapryśni, więc na całe szczęście ich zachowań nie można z wyprzedzeniem dokładnie przewidzieć. Ich systemy wartości, poglądy, oczekiwania i wiedza zmieniają się nieustannie. Jaki ekonomista mógł na przykład przewidzieć (lub przewidział) szaleństwo Cabbage Patch Kid5 w okresie świątecznym 1983 roku? Każda z wielkości ekonomicznych – pensje, ceny, dochody – wynika z tysięcy czy milionów nieprzewidywalnych zachowań jednostek.
Na przestrzeni lat powstało wiele formalnych i nieformalnych badań dotyczących historii prognoz ekonomistów – ich dorobek konsekwentnie utrzymuje się na katastrofalnym wprost poziomie. Progności często kwękają, że wszystko by im wychodziło, gdyby tylko obecne w gospodarce trendy się utrzymywały – problem pojawia się wtedy, gdy trzeba uchwycić zmiany owych trendów. Ale przecież jest oczywiste, że proste ekstrapolowanie obecnych trendów w niedaleką przyszłość to po prostu banał. Do tego nie są potrzebne żadne skomplikowane modele komputerowe. Dużo prościej i taniej jest wziąć linijkę i przedłużyć istniejącą linię trendu na kartce papieru. Wyzwanie polega właśnie na tym, aby dokładnie przewidzieć, kiedy i jak trendy ulegną zmianie. W tym progności zawsze byli słabi. Żaden z ekonomistów nie przewidział, jak głęboka będzie depresja w latach 1981–1982 i nikt nie był w stanie przepowiedzieć mocy boomu w 1983 roku.
Następnym razem, gdy zachłyśniesz się żargonem i pozorną biegłością ekonomicznego jasnowidza, zadaj sobie pytanie: jeśli on naprawdę potrafi tak dobrze przewidzieć przyszłość, to dlaczego marnuje czas na bazgrolenie do gazet lub zajmowanie się konsultingiem, skoro mógłby bez problemu zbijać miliardy dolarów na giełdzie i rynkach towarowych?
Mit 6: Między bezrobociem a inflacją zachodzi pełna wymienność.
Za każdym razem gdy ktoś przekonuje, że państwo powinno porzucić politykę inflacyjną, rządowi ekonomiści oraz politycy natychmiast zaczynają ostrzegać, że groziłoby to głębokim bezrobociem. Nie mamy więc żadnego wyboru: albo uciekamy od inflacji, albo od bezrobocia. W ten sposób wmawia się nam, że musimy zaakceptować jakiś złoty środek pomiędzy jednym a drugim złem.
Doktryna ta jest dla keynesistów swego rodzaju bezpieczną przystanią. Pierwotnie obiecywali oni, że dzięki sterowaniu deficytem i wydatkami państwa, wspomaganym przez pewne drobne korekty, mogą przynieść nam stabilny wzrost i pełne zatrudnienie bez inflacji. Później, gdy inflacja stała się przewlekła i zaczęła lawinowo narastać, zmienili śpiewkę, tym razem ostrzegając przed rzekomą odwrotną zależnością między nimi. Próbowali w ten sposób osłabić ewentualne naciski na rząd, aby zawrócił z drogi nakręcania inflacyjnej spirali kreacji pieniądza.
Doktryna owej odwrotnej zależności opiera się na tzw. krzywej Phillipsa, wymyślonej przed wielu laty przez brytyjskiego ekonomistę Albana W. Phillipsa, który powiązał wzrosty stawek płac z bezrobociem. Twierdził, że działają one w przeciwnych kierunkach: im wyższy wzrost stawek płac, tym niższe bezrobocie i odwrotnie. Już na pierwszy rzut oka teza ta wydaje się dziwaczna, jako pozostająca w sprzeczności z logiczną, zgodną ze zdrowym rozsądkiem teorią. Teoria głosi, że im wyższe stawki płac, tym większe powinno być bezrobocie. Gdyby każdy z nas poszedł jutro do swojego pracodawcy i upierał się przy podwojeniu lub potrojeniu pensji, miałby duże szanse na szybką utratę stanowiska. Jednak ta absurdalna konstatacja Phillipsa została przez keynesowski establishment ekonomiczny uznana za objawienie.
Dziś powinno być już jasne, że to oparte na statystyce twierdzenie zaprzecza zarówno faktom, jak i logicznej teorii. Zauważmy, że w latach pięćdziesiątych inflacja utrzymywała się na poziomie jedynie 1–2 procent, bezrobocie wynosiło około 3 czy 4 procent, podczas gdy późniejsze bezrobocie oscylowało wokół przedziału 8–11 procent przy inflacji 5–13 procent. Krótko mówiąc, w ostatnich dwóch czy trzech dziesięcioleciach zarówno inflacja, jak ibezrobocie rosły bardzo poważnie i gwałtownie. Jeśli już, to możemy mówić o zupełnej odwrotności krzywej Philipsa. Nie doświadczyliśmy dotychczas niczego bodaj trochę przypominającego wymienność inflacji i bezrobocia.
Lecz ideologowie rzadko dają posłuch faktom, choćby nie wiadomo ile razy zarzekali się, że właśnie z ich pomocą „testują” swoje teorie. Aby ocalić swoją koncepcję, powiedzieli więc zwyczajnie, że krzywa Philipsa nadal zachowuje relację zamienności inflacji do bezrobocia, ale w niedający się określić sposób „przesunęła się” ku nowemu zestawowi takich domniemanych relacji. Przy takim podejściu żadnej teorii nikomu i nigdy nie uda się obalić.
Obecna inflacja, nawet jeśli rzeczywiście krótkookresowo redukuje bezrobocie ze względu na wyprzedzenie podwyżek płac przez wzrost cen produktów (czyli spadek płac realnych), tak naprawdę w długim okresie będzie skutkować jedynie większym bezrobociem. W końcu płace dogonią inflację, a ta nieuchronnie przyniesie ze sobą recesję i bezrobocie. Po ponad dwóch dekadach inflacji znaleźliśmy się właśnie w owym „długim okresie”.
Mit 7: Deflacja – spadek cen – jest koszmarem, który może wywołać katastrofalną depresję.
Pamięć opinii publicznej jest krótka. Zapominamy, że od zarania rewolucji przemysłowej w połowie XVIII wieku do początku drugiej wojny światowej ceny, ogólnie rzecz ujmując, spadały rok w rok. Działo się tak na skutek stałego wzrostu produktywności i ilości wytwarzanych dóbr, co było wielkim osiągnięciem wolnego rynku. Nie było jednak żadnej depresji, bo wraz z cenami spadały też koszty. Zazwyczaj stawki płac pozostawały stałe przy spadku kosztów życia, co oznaczało, że płace realne, czyli standard życia, nieustannie szły do góry.
Praktycznie rzecz biorąc, jedynym wyjątkiem były okresy, gdy toczyły się wojny (wojna brytyjsko-amerykańska 1812 roku, wojna secesyjna, pierwsza wojna światowa), a walczące rządy nakręcały spiralę inflacji tak bardzo, że sprawnie niwelowało to wpływ rosnącej produktywności na ceny.
Wystarczy spojrzeć na ceny komputerów w ciągu ostatnich kilku lat, aby się przekonać, jak świetnie radzi sobie kapitalistyczny wolny rynek. Nawet najprostszy komputer był kiedyś molochem kosztującym miliony dolarów. Teraz, za sprawą bezprecedensowego wzrostu produktywności, wynikającego z rewolucji mikroprocesorów, ceny komputerów spadają bez przerwy. Firmy komputerowe odnoszą sukcesy pomimo malejących cen, ponieważ wzrostowi produktywności towarzyszy zmniejszanie się kosztów. W rzeczywistości to właśnie spadek kosztów i cen umożliwił producentom komputerów podbicie rynku masowego – i jest to typowe dla dynamicznie rozwijającego się kapitalizmu na wolnym rynku. Deflacja nie przyniosła temu sektorowi żadnej szkody.
Podobnie jest w wypadku innych sektorów, które odnotowują szybki wzrost, na przykład branż wytwarzających kalkulatory, tworzywa sztuczne, odbiorniki telewizyjne i magnetowidy. Deflacja, odbiegając daleko od kasandrycznych wizji jej przeciwników, cechuje prawidłowy i dynamiczny przebieg rozwoju gospodarczego.
Mit 8: Najlepszym rodzajem podatku dochodowego jest podatek liniowy, pozbawiony wszelkich odliczeń czy ulg i proporcjonalnie obciążający dochody wszystkich uczestników gospodarki.
Zwykle stronnicy liniowych stóp opodatkowania dodają, że eliminacja ulg pozwoli rządowi na dokonanie daleko idących obniżek obowiązującej stopy opodatkowania.
Takie twierdzenie wiąże się z automatycznym przyjęciem założenia, że istniejące już ulgi od podatku dochodowego są czymś w rodzaju niemoralnych dotacji albo „furtek”, które dla dobra nas wszystkich powinny być polikwidowane. Można je jednak tak postrzegać tylko w jednym wypadku: gdy uznamy, że rząd jest właścicielem 100 procent dochodu każdego obywatela. Wtedy zgoda na to, aby uchronić część tego dochodu przed opodatkowaniem, istotnie stanie się irytującą „furtką”. W rzeczywistości rzecz ma się zupełnie inaczej. Pozostawienie cudzych zarobków w rękach ich prawowitego właściciela to żadna tam łaskawa dotacja czy szkoda budżetowa. Obniżka ogólnie obowiązujących stawek podatkowych, która wiąże się z jednoczesnym zniesieniem ulg na opiekę zdrowotną, spłatę odsetek czy poniesione przez podatnika nieubezpieczone straty to nic innego jak spadek podatku płaconego przez jedną grupę ludzi (tych, którzy nie ponoszą wydatków zdrowotnych, nie spłacają odsetek lub nie ponieśli strat niepokrytych przez ubezpieczenie) kosztem jego zwiększenia dla drugiej grupy, której członkowie takie wydatki ponieśli.
Co więcej, gdy już rząd bez oporu zlikwiduje ulgi i wyjątki podatkowe, to nadal nie będziemy mogli mieć żadnej pewności, czy rzeczywiście obniży podatki lub utrzyma je na niższym poziomie. Wnosząc z zachowania byłych i obecnych rządów, można ze sporą dozą prawdopodobieństwa uznać, że państwo niedługo potem znów nie oprze się swojemu zainteresowaniu naszymi portfelami, (co najmniej) przywracając stare stopy opodatkowania. Summa summarum uskuteczniany przez biurokratów drenaż kieszeni produktywnych członków społeczeństwa stanie się problemem jeszcze bardziej palącym.
Są tacy, którzy twierdzą, że system podatkowy powinien odpowiadać z grubsza cenom i dochodom rynkowym. Ale wyceny rynku wcale nie są proporcjonalne do dochodów. Cóż to byłby za świat, w którym taki Rockefeller musiałby za bochenek chleba zapłacić tysiąc dolarów, czyli cenę w stosunku do jego dochodu odpowiadającą cenie płaconej przez człowieka o przeciętnych zarobkach. W takiej rzeczywistości równość dochodowa zostałaby wprowadzona na wyjątkowo pokraczną i nieefektywną modłę. Gdyby podatki nakładane były na uczestników rynku zgodnie z rynkowym sposobem wyceny, to wówczas byłyby one identyczne dla każdego klienta, a nie proporcjonalne do jego dochodu.
Mit 9: Obniżenie podatków pomaga wszystkim – nie tylko ich płatnikom, ale też rządowi, który zyskuje dzięki temu, że wpływy z podatków rosną wraz ze spadkiem wysokości stawek podatkowych.
Chodzi tu o tak zwaną krzywą Laffera – koncepcję autorstwa kalifornijskiego ekonomisty Arthura Laffera. Pomysł polega na tym, by politycy mogli stworzyć kwadraturę koła – ciąć podatki, jednocześnie utrzymując na dotychczasowym poziomie wydatki, a wszystko to przy zrównoważonym budżecie. Dzięki temu społeczeństwo mogłoby się cieszyć niższymi podatkami, chwalić zrównoważony budżet i jeszcze otrzymywać od rządu środki na niezmienionym poziomie.
To prawda, że jeśli podatki wynoszą 99 procent i zmniejszymy je do 95 procent, to wpływy do budżetu z tego tytułu wzrosną. Nie ma jednak żadnego powodu, by przyjmować równie proste zależności w odmiennych warunkach. Tak naprawdę ta relacja jest o wiele wyraźniejsza dla lokalnego podatku akcyzowego niż dla ogólnokrajowego podatku dochodowego. Parę lat temu władze Dystryktu Kolumbii postanowiły zapewnić sobie szybkie wpływy i znacznie podniosły lokalny podatek na benzynę. Kierowcy mogli jednak przecież wyskoczyć na chwilkę poza granice Dystryktu Kolumbii, na przykład do Wirginii czy Maryland, i tam zatankować taniej. Wpływy z podatku od benzyny w Dystrykcie Kolumbii spadły i, ku rozgoryczeniu i oszołomieniu lokalnych biurokratów, musieli oni swój podatek znieść.
Rzecz się ma inaczej z podatkiem dochodowym. Ludzie nie przestaną pracować i nie opuszczą kraju ze względu na stosunkowo niewielką podwyżkę podatku. Ani nie zaczną pracować albo przyjeżdżać ze względu na jego niewielką podwyżkę.
Ale to nie wszystko. Tak naprawdę nigdy nie wiadomo, jak długo trzeba czekać na pojawienie się efektu Laffera. Co więcej, Laffer zakłada, że naszym celem powinna być maksymalizacja wpływów do budżetu państwa. Zakładając, że z jakichkolwiek przyczyn znajdowalibyśmy się gdzieś w drugiej połówce krzywej Laffera, to po kiego diabła mielibyśmy próbować dotrzeć do punktu „optymalnej” stopy opodatkowania? Po co? Czemu miałoby być naszym marzeniem zwiększenie wpływów rządu, a więc, krótko mówiąc, odciągnięcie możliwie największej ilości kapitału z prywatnej produkcji na rzecz idiotycznych projektów rządowych? Odnoszę nieodparte wrażenie, że rozsądniejsze byłoby zainteresowanie się minimalizacją wpływów rządu przez cięcia podatkowe i jak najdalszą ucieczką od Lafferowskiego optimum, gdziekolwiek by się ono akurat znalazło.
Mit 10: Import z krajów, w których siła robocza jest tańsza, wywołuje u nas bezrobocie.
Jednym z wielu kłopotów z tą doktryną jest pomijanie kwestii podstawowej: dlaczegóż to stawki płac są niskie w obcym kraju, a wysokie w Stanach Zjednoczonych? Czy są dane odgórnie i nie ma żadnych powodów, dla których takie właśnie są? Skądże. Najprościej rzecz ujmując, ich wysokość bierze się z tego, że w Ameryce produktywność pracy jest wysoka – pracownicy dysponują tu znacznymi zasobami kapitału w postaci technicznie zaawansowanego wyposażenia. W wielu innych krajach zarobki są niższe, ponieważ ten kapitał jest niewielki i dosyć prymitywny. Bez jego pomocy produktywność pracownika jest tam o wiele niższa niż tutaj. Stawki płac w każdym kraju określa m.in. produktywność lokalnych pracowników. Dlatego też wysoki poziom płac w Stanach Zjednoczonych nie jest zagrożeniem dla amerykańskiej koniunktury, lecz jest jej efektem.
Co jednak z sektorami przemysłu, które ustami swych przedstawicieli głośno i bez ustanku skarżą się na „nieuczciwą” konkurencję produktów z tych krajów, w których płace są niskie? Musimy zdać sobie sprawę, że w każdym z krajów płace, występujące w poszczególnych sektorach, zawodach i regionach, są ze sobą wzajemnie powiązane. Wszyscy pracownicy konkurują ze sobą i jeśli płace w przemyśle A są znacznie niższe niż w innych gałęziach, to pracownicy – w pierwszej kolejności ci młodzi i rozpoczynający dopiero kariery – opuszczą branżę A lub odmówią w niej pracy, przenosząc się do tych firm czy sektorów, w których stawki płac są wyższe.
Płace w sektorach, w których pracownicy wysuwają tego rodzaju obiekcje, są zatem wysokie, gdyż znalazły się na takim poziomie za sprawą zapotrzebowania ze strony pozostałych sektorów przemysłu Stanów Zjednoczonych. Jeśli producenci stali i tekstyliów w Stanach Zjednoczonych nie radzą sobie z konkurencją swoich odpowiedników z innych części globu, to nie dzieje się tak dlatego, że zagraniczne firmy płacą mało, lecz dlatego, że w innych miejscach amerykańskiej gospodarki stawki płac są wyższe niż to, co może zaoferować amerykański przemysł stalowy czy tekstylny. Krótko mówiąc, przemysł stalowy czy tekstylny wykorzystuje pracę zatrudnionych u siebie ludzi mniej wydajnie niż inni. Cła czy kwoty importowe wprowadzane po to, aby utrzymać przy życiu mniej skuteczne firmy czy gałęzie przemysłu szkodzą wszystkim tym, którzy w nich nie pracują (także mieszkańcom innych krajów). Amerykańscy konsumenci tracą na tym, że ceny są sztucznie zawyżone, spada jakość i konkurencyjność towarów, a procesy produkcji zostają zakłócone. Cła i kwoty importowe to pomysł podobny działaniem do rozbierania torów kolejowych i wysadzania w powietrze samolotów, bo też przynosi sztuczny wzrost kosztów transportu.
Cła i kwoty importowe szkodzą też innym, efektywnym ekonomicznie częściom gospodarki, gdyż zagarniają zasoby, które gdzie indziej mogłyby być wykorzystane o wiele wydajniej. Dodatkowo w dalszej perspektywie cła i kwoty importowe, jak każdy przywilej monopolowy nadany przez rząd, tak naprawdę nie są takie dobre nawet dla firm subsydiowanych i znajdujących się pod ochroną. Jak pokazuje przykład kolei i linii lotniczych, sektory korzystające z monopolu rządu (czy to dzięki cłom, czy też regulacjom) w końcu stają się do tego stopnia nieefektywne, że i tak trwale brakuje im środków. Zmuszone są wówczas do wyciągania ręki po państwową jałmużnę i pomoc publiczną, domagając się dodatkowych i coraz większych przywilejów, mających obronić je przez wolną konkurencją.
W zależności od usposobienia rok wyborów prezydenckich można odbierać jako powód do załamania się lub śmiania do rozpuku. Jednym z bardziej dezorientujących aspektów kampanii jest redefiniowanie przez Szacowne Media naszego języka. Ponad pół wieku temu George Orwell pisał, że władzę tak naprawdę dzierży ten, kto kontroluje język – media dobrze odrobiły tę lekcję. Szacowne Media uzurpują sobie na przykład prawo do ustalania, czym w danej kampanii jest „debata merytoryczna”. Jeśli kandydat X złapie kandydata Y z ręką w konfiturach, media natychmiast ruszają Y na odsiecz, wołając: „To nie jest istotny temat! Dlaczego nie rozmawiacie o meritum”?
Podczas wyścigu Busha z Dukakisem media ogłosiły, że jedynym merytorycznym punktem dyskusji będzie gospodarka. Wszystko inne miało być jedynie zasłoną dymną, służącą „odwróceniu uwagi” od „meritum sprawy”. Można byłoby pomyśleć, że ekonomistów ucieszy tego rodzaju zainteresowanie. Ale pamiętajmy o ekspertach od semantyki z establishmentowych mediów – ich zdaniem o gospodarce rozmawiać można wyłącznie poruszając się wąsko wytyczonymi ścieżkami. Na salonach nie ma miejsca dla innych punktów widzenia.
Media skupiają się także – zdawałoby się całkiem sensownie – na recesji. Lecz i w tym wypadku dozwala się na użycie tylko wąskiej grupy argumentów. Z powodu recesji wzrosło bezrobocie („brak pracy”), ucierpiało tanie budownictwo mieszkaniowe (bezdomność), służba zdrowia nie daje sobie rady, bo wzrosły koszty opieki medycznej, a deficyt rośnie o 400 miliardów dolarów rocznie.
Krótko mówiąc, brakuje pracy, opieki zdrowotnej, mieszkań i innych fruktów, co ma – implicite bądź explicite – sprawiać, że rząd powinien znacząco zwiększyć wydatki. Dostarczanie lub gwarantowanie takich dóbr i usług to jakoby jego obowiązek. Każda osoba poddająca w wątpliwość konieczność zapewniania tych dóbr przez rząd zostanie oskarżona przez Szacowne Media o próbę ucieczki od merytorycznej dyskusji.
Zgodnie z medialnym żargonem „dyskusja” w kwestiach merytorycznych sprowadza się do uznania założeń etatyzmu i – w narzuconych przez owe założenia ramach – toczenia zażartych sporów o technikalia. Jeśli przykładowo ktoś stwierdzi, że narodowy fundusz zdrowia to nic innego jak socjalizm w medycynie, może się spodziewać zarzutu o ignorowanie meritum. Każdy, kto uważa, że socjalizm bądź kolektywizm jest istotną sprawą, wnet zostanie wyłączony z dyskusji.
Jak jednak rząd ma wydać setki miliardów dolarów i zarazem poradzić sobie z deficytem? Ach, oczywiście! Wystarczy sięgnąć po odwieczne panaceum: podwyżki podatków. Do mitów można zaliczyć twierdzenie, że ludzie proponujący wprowadzenie podatków są poddawani ostracyzmowi, a zwolennicy cięć – fetowani. Choć opinia publiczna może otaczać resztkami rewerencji postulat obniżki podatków, to zazwyczaj elitom intelektualnym i mediom udaje się ją skutecznie omamić trąbieniem o tym, że zalecanie podwyżek podatków jest jednoznaczne z mierzeniem się z kwestiami merytorycznymi i jako takie dowodzi odwagi i odpowiedzialności.
Takie wąskotorowe dyskusje mają jeszcze jedną cechę – ściągają do nich jak muchy gryzipiórki z Waszyngtonu, mieniący się niezależnymi „ekspertami”. Sypią oni jak z rękawa rzekomo ilościowymi komputerowymi analizami skutków każdej podwyżki podatków i każdej innej propozycji. Powtarza się więc ten sam żałosny spektakl: kandydat A proponuje podwyżkę podatków; jego oponent B zarzuca, że plan kandydata A będzie kosztował podatników pochodzących z klasy średniej x miliardów dolarów; A odparowuje, że B „kłamie”, co powtarza B w przypadku innego projektu podwyżki podatków autorstwa A.
Najbardziej irytuje jednak skłonność mediów do „korygowania” tych wyników – gadające głowy z gazet czy telewizji twierdzą, że „fakty są takie”, iż plan kandydata B tak naprawdę będzie kosztować podatników y miliardów dolarów. Owe „korekty” drażnią wprost niepomiernie, wszyscy bowiem zdają sobie sprawę z tego, że każdy z kandydatów będzie się starał postawić swoje pomysły w jak najlepszym świetle, a propozycje przeciwników w jak najgorszym – jednak stronniczość samych mediów skrywa się pod maską obiektywnej prawdy.
Prawda jest jednak taka, że faktycznie nikt nie wie, kto i ile właściwie zapłaci w przypadku wejścia w życie któregokolwiek z tych programów. Liczby, które rzuca się jak prawdy objawione, jak „fakty” w kraju od zawsze wielbiącym twarde dane, biorą się z różnorakich fałszywych założeń. Każde z nich zakłada przykładowo, że ilościowe relacje między rozmaitymi czynnikami gospodarczymi pozostaną na takim samym poziomie, jaki utrzymywał się w ciągu ostatnich lat. Lecz przecież właśnie o to chodzi, że te relacje zmieniają się, i to w sposób nieprzewidywalny.
Niechże ktoś wytłumaczy, dlaczego żaden z ekonomistów dysponujących komputerowymi modelami czy owych nawijających makaron na uszy rządowych mandarynów nie przewidział obecnej recesji? Żaden z nich nie wiedział, jak długa i głęboka będzie. Stało się tak dlatego, że – jak wszelkie recesje – była ona ilościowo unikatowa. Gdyby nie doszło do nagłej zmiany danych, nie byłoby recesji, a zamiast tego trwałby nieprzerwany boom. Jak w biuletynie „Currency and Credit Markets”wskazał niemiecki bankowiec Kurt Richebacher, ekonomiści – w odróżnieniu od swoich poprzedników z lat dwudziestych i trzydziestych XX wieku – porzucili metody intelektualne. Wbijają po prostu do komputera przeterminowane dane statystyczne i dziwią się potem, że ich przewidywania nadają się tylko do kosza.
Proponuję inny zgoła temat do merytorycznej dyskusji, o którym media nawet się nie zająkną: tak, to prawda – deficyt jest poważnym problemem, ale nigdy sobie z nim nie poradzimy, podnosząc podatki (z pewnością nie podczas recesji!). Zamiast tego należy ciąć wydatki rządu. Wbrew potocznej opinii mediów wzrost opodatkowania nie jest równoważnikiem obniżki wydatków (chyba że chodzi o czystą arytmetykę). Zarówno podatki, jak i wydatki budżetowe powiększają jedynie marnotrawczy garb sektora publicznego i jego klienteli, rosnący na plecach ubożejącego, lecz wydajnego sektora prywatnego. Cięcia podatków i wydatków budżetowych kruszą okowy pętające produktywną inicjatywę prywatną.
Na dalszą metę – co przykładnie pokazał komunizm – publiczny pasożyt pożera gospodarną prywatną przedsiębiorczość, szkodząc nawet samemu sobie. Jak na ironię to ci sami lewicowi liberałowie, którzy na co dzień afektują się stanem „środowiska” czy Matki Ziemi za 5 tysięcy lat, przyjmują krótkowzroczne podejście do gospodarki, zgodnie z którym należy się przejmować wyłącznie najbardziej bieżącymi problemami, a nie kłopotami ludzi oszczędnych, inwestujących i przedsiębiorczych.
Gdzie ciąć budżet rządu? Najprostsze sposoby są najlepsze: wystarczy uchwalić ustawę unieważniającą wszelkie poprzednie ustawy, która będzie zakazywać wszystkim agencjom rządowym przekraczania budżetu z poprzednich lat – im odleglejszy termin ustalimy, tym lepiej. Na początek jednak może warto byłoby wybrać przedostatni rok rządów Cartera, czyli 1979, gdy rządowe wydatki wynosiły 504 miliardy dolarów? Po prostu niech żaden urząd nie przekroczy kwoty wydanej w 1979 roku, a te, które wówczas nie istniały, mogą próbować na siebie zarabiać – jeśli tak się podoba ich urzędnikom – nie otrzymując od rządu wsparcia.
Dla mandarynów establishmentu taki projekt byłby rzecz jasna zbyt prosty i zbyt rewolucyjny. Z definicji nie zmieści się on w wąskich ramach „merytorycznej debaty”.
Choć ekonomiści pracujący dla rządu federalnego w ostatnich latach nie przyłożyli rąk do niczego produktywnego, to jednak należy im oddać, że poczynili znaczące postępy w dziedzinie, którą można nazwać „kreatywną semantyką ekonomiczną”. Wpierw wzięli na tapetę niby nieskomplikowany termin „cięcia budżetowe”. W dawnych czasach tym mianem można było określić zmniejszenie budżetu w stosunku do jego ubiegłorocznej wersji. Zgodnie z tym staromodnym rozumieniem przez pierwsze dwa lata sprawowania urzędu prezydent Dwight Eisenhower dokonał zauważalnych – choć jeszcze nie dramatycznych – cięć budżetowych. Dziś mamy do czynienia z „cięciami budżetowymi”, które niczego nie tną, lecz oznaczają znaczący wzrost wydatków w porównaniu z poprzednimi latami.
Pojęcie „cięć” zredefiniowano w sposób subtelny, acz kluczowy, jako coś innego. Czym było to coś innego, nie miało znaczenia dopóty, dopóki skutecznie spychano dzięki temu kwestię rzeczywistych kwot wydatków. Czasem były to cięcia „stopy wzrostu”, innym razem redukcja wydatków w ujęciu „realnym”, a później mogło chodzić o odsetek PNB czy cięcie względem przygotowanych kiedyś prognoz na dany rok.
Skutkiem takiej serii „cięć” był dotkliwy wzrost wydatków nie tylko w tradycyjnym ujęciu, lecz także w każdej z nowo wprowadzonych kategorii. Jakkolwiek by patrzeć, wydatki rządu wzrosły drastycznie. W rezultacie nawet w kreatywnej semantyce cięć budżetowych pasa nam się zacisnąć nie udało.
Kolejny przykład kreatywnej semantyki to „cięcia podatkowe” w latach 1981–1982. Były one ponoć tak potworne, że koniecznie trzeba było je zrównoważyć podwyżkami podatków pod koniec 1982 roku i w kolejnych latach. Dawno temu mówiło się, że dzięki cięciom podatkowym więcej pieniędzy może pozostać w portfelu przeciętnego podatnika. I choć dla części podatników tak właśnie było, to dla większości mikroskopijne cięcia okazały się niewystarczające, aby zadośćuczynić stałemu wzrostowi składki na ubezpieczenie społeczne czy taksflacji – malowniczemu określeniu wpychania podatników w wyższe progi podatkowe przez inflacyjne (kreowane rządową ekspansją podaży pieniądza) nadmuchiwanie ich dochodów (ich wzrost nie jest wcale taki korzystny, jak by się wydawało, bo równocześnie rosną ceny dóbr konsumpcyjnych). Dlatego nawet przy nominalnie niezmiennym rozłożeniu progów podatkowych przeciętnie płacimy wyższe podatki.
Zgodnie ze zwyczajowym znaczeniem tak osławione i wyszydzane „cięcia podatków” okazują się czymś wręcz przeciwnym – znaczącą podwyżką podatków. W zamian za wątpliwą przyjemność owych „bezcięć” opinia publiczna będzie zmuszona „zbilansować” je w następnych latach wykrwawianiem się z ostatnich oszczędności przez te jak najbardziej, niestety, realne podwyżki podatków.
Co więcej, opłacani przez rząd ekonomiści wychodzą ze skóry, aby jakoś zamaskować te podwyżki. Nigdy nie powiedzą, że to „wzrost” opodatkowania. W żadnym razie! To przecież tylko „zwiększanie wpływów budżetowych” i „uszczelnianie systemu podatkowego”. Najlepiej skomentował ten drugi przypadek Ludwig von Mises. Uznał on samą koncepcję „dziur” i „uszczelniania” systemu podatkowego za próbę przemycenia sugestii, że rządowi należą się zarobione przez ciebie, drogi Czytelniku, pieniądze i stąd rzekomo konieczna staje się naprawa tego, skutkująca oczywiście położeniem przez skarbówkę łap na tych środkach.
Pomimo obietnic zrównoważenia budżetu do 1984 roku okazało się, że w wyniku prowadzonej latami polityki podrasowanych semantycznie „cięć budżetowych” i „cięć podatkowych”, w połączeniu z rozmaitymi „uszczelnieniami”, na trwałe zawitał do nas gigantyczny deficyt budżetowy o bezprecedensowej skali. Jeszcze raz na ratunek ruszyła kreatywna semantyka. Jedną z dróg obieranych z powodzeniem przez jej akolitów jest takie przedefiniowanie deficytu, aby całkowicie zniknął. Keynesiści uciekali się w tym celu do twierdzeń, jakoby w sytuacji czegoś, co nazwali „budżetem w warunkach pełnego zatrudnienia”, nie mogło być o deficycie mowy – w takim sensie, że gdybyśmy odjęli wydatki konieczne do osiągnięcia pełnego zatrudnienia, to nie byłoby deficytu, a nawet można byłoby mówić o nadwyżce budżetowej. Takie prestidigitatorskie sztuczki mogą zadziałać przy deficycie wynoszącym 20 miliardów dolarów, ale to kiepski sposób na odczarowanie dziury o rozmiarach 200 miliardów! Rządowi ekonomiści wciąż jednak próbują.
Do tej pory przedefiniowali „deficyt” jako „wzrost realny” długu, tj. deficyt pomniejszony o inflację. Im więcej generowanej przez rząd inflacji, tym mniejszy zdaje się deficyt. Dzięki takiej semantycznej magii w Republice Weimarskiej obrońcy hiperinflacji z 1923 roku twierdzili, że nie było jej wcale, skoro ceny dóbr w złocie spadały! Na podobnej zasadzie zapewniali, że skoro w kategoriach realnych wielkość podaży marek niemieckich spadała, to rzeczywistym problemem był zbyt mały dodruk pieniądza, a nie zbyt wielki.
Ogólnie rzecz biorąc, ludzie raczej nie wierzą w to, że za sprawą jakiegoś iluzjonistycznego triku deficyt zniknie. Powszechnie jednak przyjmują, że wzrost opodatkowania jest rodzajem „zaliczki” na poczet deficytu. Dawniej uznawano, że wpłacenie „zaliczki” na poczet długu to spłata jego części. Kreatywnym ekonomistom rodem z Waszyngtonu udało się wykręcić znaczenie tego pojęcia tak, aby oznaczało obietnicę obniżenia wzrostu długu w następnym roku, a więc zupełnie inną bajkę.
Teoria chaosu to obecnie najmodniejsza dziedzina matematyki, fizyki i podobnych nauk. Jej implikacje są radykalne, ale nikt nie może zarzucić jej praktykom niewiedzy matematycznej – to gałąź pod tym względem bardzo złożona, znajdująca się w awangardzie teorii matematycznej, by nie wspomnieć o zaawansowanej grafice komputerowej, wykorzystywanej w jej wizualizacjach. W pewnym głębszym sensie teoria chaosu stanowi odpowiedź na wysiłki i pieniądze wkładane od dawna w takie cieszące się powodzeniem dziedziny jak odkrywanie kolejnych subatomowych poziomów w budowie cząstek czy pojawianie się nowych obserwacji astronomicznych. Po raz pierwszy od lat nauka wraca na ziemię.
Teoria chaosu wywodzi się, co zrozumiałe, z obszaru skromnej, lecz rodzącej frustrację meteorologii. Dlaczego bowiem prognozowanie pogody przez wszystkich tych otrzaskanych meteorologów, dysponujących całą armią superkomputerów i gigantycznych baz danych, wydaje się graniczyć z niemożliwością? Dwadzieścia lat temu Edward Lorenz, meteorolog z Instytutu Technologicznego Massachusetts, trafił na teorię chaosu, odkrywszy, że bardzo drobne zmiany klimatyczne mogą wywołać gwałtowne i znaczące zmiany pogodowe. Stwierdził on – nazywając to zjawisko efektem motyla – że jest możliwe, aby trzepot skrzydeł motyla w Brazylii spowodował powstanie tornada w Teksasie. Odkrycie, że skutki niewielkich i nieprzewidywalnych zdarzeń mogą mieć katastrofalny i wszechogarniający charakter, wpłynęło na pozornie niezwiązane z meteorologią gałęzie nauki.
Zgodnie z tą teorią – prawdziwą nie tylko w odniesieniu do pogody, lecz także do wielu innych aspektów rzeczywistości – pogody nie da się przewidzieć, bez względu na ogrom danych zgromadzonych na jej temat w komputerach. Tak naprawdę nie chodzi o „chaos”, bo w efekcie motyla mamy do czynienia z wzorcami przyczynowo-skutkowymi, choć niezmiernie złożonymi (w wielu z nich obecna jest tzw. stała Feigenbauma). Lecz nawet gdybyśmy mogli poznać wszystkie te reguły, któż mógłby przewidzieć pojawienie się łopoczącego skrzydełkami motyla?
Lekcją płynącą z teorii chaosu nie jest stwierdzenie, że świat jest chaotyczny lub z zasady indeterministyczny czy nieprzewidywalny, ale to, że w praktyce znacznej części zjawisk nie jesteśmy zdolni prognozować. W szczególności narzędzia matematyczne, sięgające po rachunek różniczkowy zakładający gładkość funkcji i nieskończenie małe kroki, są wadliwą metodą opisu rzeczywistości (dlatego właśnie „fraktale” Benoîta Mandelbrota można interpretować jako sugestię, że gładkie powierzchnie nie są właściwą – a wręcz mogą być mylącą – metodą modelowania linii brzegowych czy powierzchni geograficznych).
Teoria chaosu może stanowić jeszcze poważniejsze wyzwanie dla nauk społecznych, skupiających się na takich dziedzinach jak funkcjonowanie giełd. Badacze zajmujący się teorią chaosu wzięli się za łby z ortodoksją neoklasycznej teorii giełdy, która to ortodoksja zakłada „racjonalność” oczekiwań rynku, interpretowaną jako wszechwiedza o przyszłych zdarzeniach. Jeśli ceny akcji i towarów na giełdzie w sposób doskonały zawierają w sobie perfekcyjną wiedzę o przyszłości, to tym samym zachowania cen na giełdach muszą być pozbawionym znaczenia czysto przypadkowym „błądzeniem losowym”.
Z absurdalnością wiary w to, że rynek dysponuje nieograniczoną wiedzą o przyszłości lub doskonałą wiedzą o wszelkich możliwych „rozkładach prawdopodobieństw” dotyczących przyszłości, równa się założenie, że wszystkie wydarzenia na giełdzie są „przypadkowe”, tj. żadna z cen nie odpowiada w jakimkolwiek stopniu cenom – przeszłym albo przyszłym – innych aktywów. Lecz przecież nie da się uciec od tego, że w historii rodzaju ludzkiego wzajemnie ze sobą powiązane były wszelkie zdarzenia, układy przyczynowo-skutkowe wszechobecne, niewiele rzeczy homogenicznych, a już najtrudniej byłoby wskazać choćby jedno wydarzenie czysto losowe.
Cieszący się znaczącym prestiżem teoretycy chaosu przyczynili się do obalenia tych założeń i dania odporu próbom statystycznego abstrahowania od konkretnych zdarzeń. Oto zatem wystąpili oni przeciw powszechnie stosowanej technice, polegającej na „wygładzaniu” danych przez wyciąganie z danych miesięcznych dwunastomiesięcznych średnich kroczących – czy to dotyczących cen, produkcji, czy zatrudnienia. W próbie usunięcia „losowych” obserwacji niepasujących od rzekomego trendu ukrytego w danych, ortodoksi statystyki nieświadomie pozbywają się faktycznych informacji wartych zbadania.
To ledwie garść wywrotowych dla ortodoksji ekonomii matematycznej wniosków płynących z teorii chaosu. Bo skoro teoria racjonalnych oczekiwań nie zgadza się z prawdziwym światem, to to samo dotyczyć musi równowagi ogólnej, koniecznego przy stosowaniu rachunku różniczkowego założenia istnienia nieskończenie małych zmian, doskonałej wiedzy oraz całej reszty złożonej neoklasycznej aparatury.
Neoklasycy od dawna chełpili się swoją znajomością zaawansowanych technik matematycznych, która w ich mniemaniu dyskredytowała austriaków. Tym razem to właśnie teoretycy matematyki, biegli w jej najnowszych osiągnięciach, nieumyślnie podnoszą część wypowiadanych wcześniej przez austriaków argumentów o nierealności i nieścisłościach ekonomii neoklasycznej. W obecnej fazie rozwoju nauk matematycznych fraktale, nieliniowa termodynamika, stała Feigenbauma i pozostałe osiągnięcia przerastają archaiczne metody pracy neoklasyków.
Nie oznacza to, że wszystkie postulaty filozoficzne teorii chaosu należy gładko przełknąć – warto krytycznie spojrzeć choćby na twierdzenia o indeterminizmie natury czy „wolnej woli” cząstek. Trzeba jednakże pochwalić teoretyków chaosu za świeży powiew, od wewnątrz podważający założenia ortodoksyjnej ekonomii matematycznej.
Choć dziś wydaje się to nieprawdopodobieństwem, swego czasu wybrałem w koledżu specjalizację statystyczną. Przeszedłszy wszystkie z możliwych kursów ze statystyki w koledżu, zapisałem się na kurs dyplomowy ze statystyki matematycznej na Uniwersytecie Columbia z samym Haroldem Hotellingiem, jednym z twórców współczesnej ekonomii matematycznej. Po wysłuchaniu kilku jego wykładów doświadczyłem objawienia: zdałem sobie nagle sprawę, że cała „nauka” wnioskowania statystycznego opiera się na jednym fundamentalnym założeniu, które jest kompletnie bezpodstawne. Odszedłem, porzuciwszy na zawsze zarówno kurs Hotellinga, jak i świat statystyki.
Statystyka to nie tylko zwykłe zbieranie informacji. Wnioskowanie statystyczne dotyczy konkluzji, które można z tych informacji wywieść. Zazwyczaj przecież nie znamy całości danych – pomijając odbywające się co dziesięć lat amerykańskie badania cenzusowe – dlatego nasze wnioski muszą się opierać na bardzo małych próbach wziętych z całości populacji. Po zebraniu owych prób musimy postawić twierdzenia o ogóle populacji. Załóżmy przykładowo, że chcemy przedstawić jakąś tezę odnoszącą się do wzrostu całej męskiej populacji Stanów Zjednoczonych. Skoro nie możemy zebrać wszystkich mężczyzn w Ameryce, aby zmierzyć ich wzrost, to uczyńmy to na mniejszej próbie, na przykład składającej się z pięciuset osób płci męskiej. Próba ta będzie musiała zostać dobrana w odpowiedni sposób, abyśmy mogli uznać, że możemy pokusić się o twierdzenia dotyczące przeciętnego wzrostu mieszkańców USA.
Aby w naukach statystycznych przejść intelektualnie od znanych nam z prób egzemplarzy do nieznanej populacji, musimy przyjąć podstawowe założenie co do dystrybucji statystycznej tych prób. Muszą być one w każdym analizowanym przypadku – wzrostu, bezrobocia albo sondaży wyborczych – rozrzucone po całej populacji zgodnie z „rozkładem normalnym”.
Rozkład normalny to znana z podręczników statystyki symetryczna krzywa dzwonowa. Zakłada się, że wszystkie elementy próby są rozsiane po populacji zgodnie z takim rozkładem. Dlatego też statystyk – wyposażony w jedną lub więcej ograniczonych prób – uznaje za zasadne swoje zapewnienia o tym, że wzrost Amerykanów, stopa bezrobocia czy cokolwiek innego z całą pewnością wynosi tyle a tyle z „poziomem ufności” 90 czy 95 procent. Krótko mówiąc, jeśli na przykład w próbie przeciętny wzrost mężczyzny wynosi 175 centymetrów, to 90 czy 95 z każdej ze 100 prób znajdzie się w określonym skończonym otoczeniu tegoż wzrostu. Te ścisłe liczby wynikają właśnie z przyjęcia założenia, że dystrybucja wszystkich tych prób w populacji jest zgodna z rozkładem normalnym.
Przykładowo to właśnie ze względu na własności rozkładu normalnego sondażownie mogły z wielką pewnością twierdzić, że określony procent wyborców popiera Busha, a inny Dukakisa – a wszystko to w granicach „trzech lub czterech procent błędu statystycznego”. Dzięki rozkładowi normalnemu statystycy mogą twierdzić, że wprawdzie nie posiedli absolutnej wiedzy ilościowej o populacji, ale zamiast tego mają taką wiedzę w granicach kilku punktów procentowych.
Zapytajmy zatem, jakież to dowody wskazują na prawdziwość tego kluczowego założenia o dystrybucji zgodnej z rozkładem normalnym? Żadne. To czysto mistyczny akt wiary. W moim starym podręczniku statystyki jedynym takim „dowodem” na uniwersalną prawdziwość rozkładu normalnego było stwierdzenie, że jeśli dobry strzelec stara się trafić w dziesiątkę, to ślady po kulach będą rozrzucone po tarczy zgodnie z czymś przypominającym rozkład normalny. Na tej niesłychanie wątłej podstawie opiera się założenie fundamentalne dla solidności wszelkiego wnioskowania statystycznego.
Na nieszczęście nauki społeczne lubią kierować się regułą, której funkcjonowanie w medycynie wskazywał nieżyjący doktor Robert Mendelsohn: nigdy nie porzucaj choćby najbardziej błędnej z procedur, jeśli ktoś nie zaproponuje lepszej. Tymczasem wydaje się, że cała mylna konstrukcja wnioskowania statystycznego, której podstawą jest rozkład normalny, straciła znaczenie na rzecz wysokich technologii.
Dziesięć lat temu Bradley Efron, statystyk z Uniwersytetu Stanforda, wykorzystał technologię komputerową do wygenerowania opierających się na bazowej próbie „syntetycznych zbiorów danych”. Dzięki milionom operacji numerycznych możliwe stało się stworzenie przybliżenia populacji bez krzywej dzwonowej czy innego arbitralnie przyjętego założenia dotyczącego dystrybucji próby w nieznanym kształcie populacji. Po dekadzie rozważań i udoskonaleń statystycy przekonali się do praktycznego wykorzystania metody bootstrap10 i zyskuje ona na popularności. Jerome H. Friedman, inny statystyk z Uniwersytetu Stanforda, jeden z pionierów tej metody, nazywa ją „najważniejszą nową koncepcją statystyki w ciągu ostatnich dwudziestu, a być może nawet pięćdziesięciu lat”.
Dziś statystycy wreszcie są gotowi przyznać się do błędu. Friedman uznaje, że „dane nie muszą mieć rozkładu normalnego – gdy tak się dzieje, popełniamy błąd”, stosując standardowe rozwiązania. Co więcej, twierdzi on nawet, że „rozkład danych wygląda często zupełnie inaczej niż krzywa dzwonowa”. To tyle. Wreszcie dostrzeżono, że król jest nagi. Możemy porzucić odwieczny mistycyzm krzywej dzwonowej – to dziś bóg, który wreszcie umarł.
Niektórzy ekonomiści utrzymują, że ekonomia austriacka zajmuje się badaniem jedynie niecelowych skutków ludzkiego działania, czyli zgodnie z ich ulubionym powiedzeniem (wywodzącym się od szkockiego socjologa Adama Fergusona, a które ostateczną swoją postać przyjęło za sprawą Friedricha A. von Hayeka) „konsekwencji ludzkiego działania, a nie ludzkich zamierzeń”.
Na pierwszy rzut oka slogan ten wydaje się uzasadniony. Adam Smith podkreślał, jak korzystne jest, że nie musimy polegać na łaskawości rzeźnika albo piekarza, by na co dzień móc zdobyć jedzenie. Wystarczy ich egoistyczne poszukiwanie dochodu. Za cel mogą więc obrać zysk, ale i tak realizowane będą niezamierzone tego następstwa w postaci wydajniejszej produkcji, spełniającej życzenia konsumentów i powiększającej powszechny dobrobyt.
Bliższe przyjrzenie się tematowi pozwala stwierdzić, że ten punkt widzenia jest mylny. Skąd wiemy, jakie są zamiary rzeźnika, piekarza czy w ogóle jakiegokolwiek przedsiębiorcy? Nie możemy przecież wniknąć do ich jaźni i zyskać pewności. Rzeźnik i piekarz, maksymalizujący zysk, mogli przecież przestudiować wolnorynkowe dzieła ekonomiczne i dowiedzieć się, że dzięki maksymalizowaniu przez nich zysku skorzysta każdy człowiek z osobna i społeczeństwo jako całość.
Od tego momentu w swej pracy świadomie zechcą