Wstęp
W 476 roku upadł Rzym, w 1453 Konstantynopol. 1789 to początek Rewolucji Francuskiej, 1917 – radzieckiej. Ludzkość doczekała się wielu przełomowych chwil. W wielu przypadkach daty to tylko symbole, skróty myślowe, punkty pomocnicze, wyznaczniki chronologiczne, pojęcia ułatwiające opis rzeczywistości – ktoś w USA powie: „11 września” – wszyscy wiedzą o co mówcy chodzi, ktoś w Polce wspomni datę 1 września – każdy rozumie, co chce przez to wyrazić. W znaczeniu potocznym można stwierdzić, że tego a tego dnia o takiej a takiej godzinie rozpoczęła się nowa era. Ale przecież wiemy, że niezwykle rzadko zdarza się, aby przełom następował przypadkowo. Mamy świadomość, że wielkie wydarzenia, wielkie daty, to tylko punkty kulminacyjne, że każdy przełom jest poprzedzony procesem, którego geneza częstokroć sięga wielu lat, ba, dziesięcioleci, stuleci wstecz. Teraz, gdy piszę te słowa, w Polsce i na świecie zachodzi niezliczona liczba procesów, które za parę lat zaowocują wielkimi datami, erupcjami na ogromną skalę.
Która data jest z punktu widzenia dziejów ludzkości istotniejsza – 1 września 1939, czyli formalne rozpoczęcie II wojny światowej, czy układ monachijski z września roku poprzedniego? A może znacznie ważniejszy był 1933 i moment dojścia Hitlera do władzy? Może 1 września to tylko pochodna Układu Wersalskiego? A może znacznie poważniejsze konsekwencje przyniósł rok 1871? A może II wojna światowa, jeden z najstraszniejszych koszmarów ludzkości, to w prostej linii konsekwencja średniowiecznego układu z Verdun sprzed ponad tysiąca lat? Albo ujarzmienia Sasów przez Karola Wielkiego? Może wreszcie pobłądziliśmy zupełnie analizując przyczyny polityczne i historyczne, podczas gdy bezpośrednią przyczyną 1 września był słynny „dzień samobójców” – czwartek 24 października 1929 roku? Niezwykle trudno jest nam oceniać doniosłość wydarzeń. Prawdopodobnie daty, których nikt nie pamięta są tymi najważniejszymi dla zrozumienia znaczenia procesów, które zmieniają świat. Kto wie, czy dziś nie zdarza się coś, co w sposób bezpośredni wpłynie na kolejną przełomową datę w historii ludzkości – za 10, 20, 100 lat? Musimy być niezwykle czujni, aby takie wydarzenia lokalizować i opisywać. Nie mamy żadnej pewności, że nasze rozumowanie jest trafne, czy dobrze rozumiemy otaczający nas świat i czy dobrze identyfikujemy problemy, przed którymi staną przyszłe pokolenia. Dopiero mając dzisiejszą wiedzę a sięgając po gazetę sprzed 5, 10, 50 lat mamy świadomość, które wydarzenia z pierwszych stron gazet tak naprawdę wpłynęły na kształtowanie się przyszłości. Nie możemy mieć jednak pewności, czy te z piątej, dziesiątej czy ostatniej strony, o których nikt dziś nie pamięta, za kolejne ileś lat okażą się właśnie tymi najważniejszymi.
Rok 2008 był przełomowy pod wieloma względami. Przede wszystkim dlatego, że przyniósł więcej pytań niż odpowiedzi. Świat do roku 2001 żył obietnicą końca historii, większość była przekonana, że to tylko kwestia czasu. Późniejszy wielki problem – terroryzm w wersji globalnej – po kilku latach też wydawał się być oswojony. Panowało powszechne przekonanie, że zgodne współdziałanie świata zapewni mu względne bezpieczeństwo i dobrobyt. Rok 2008 pokazał, że państwo narodowe wcale nie umarło, że stare konflikty z zadziwiającą łatwością wchodzą w „gorące fazy”, że wielkie mocarstwa wciąż patrzą na siebie bardzo nieufnie, że przyszłość kolejny raz jawi się jako wielka zagadka.
2008 to również śmierć innego mitu. Zdążyliśmy uwierzyć, że osiągnęliśmy taki poziom wiedzy ekonomicznej, że stosując odpowiednie dawki kontroli i wolności potrafimy zapewnić, przynajmniej Zachodowi, stały i stabilny wzrost gospodarczy. Naszym problemem było tylko to, kiedy i w jaki sposób do klubu światowego dobrobytu dołączą biedniejsze państwa i regiony, tym samym kończąc epokę ekonomicznych konfliktów na osi Północ – Południe. Martwiliśmy się efektem cieplarnianym, podnoszeniem się poziomu wód oceanicznych, zanieczyszczeniem powietrza. Dziś do tych problemów, do których rozwiązania bynajmniej wcale się nie zbliżyliśmy, dołączają dawno zapomniane: bezrobocie, stagnacja, recesja, niepewność, bankructwa.
W plebiscycie na najpopularniejsze słowo 2008 roku zacięcie rywalizowałyby ze sobą „kryzys” i „zmiana”. Dziś jeszcze trudno wyłonić zwycięzcę. Za tym pozornie błahym problemem kryją się bardzo ważne dyskusje toczone na wszystkich płaszczyznach społecznych i politycznych, przede wszystkim zaś właśnie wokół ekonomicznego paradygmatu i jego zmiany. Jak echo powraca pytanie: Czy ktokolwiek ma pomysł, jak taka zmiana miałaby wyglądać i co stanie się ze światem po kryzysie?
Tak naprawdę te kilka miesięcy następujące po tąpnięciu na rynku nieruchomości w USA nie przyniosło odpowiedzi na większość stawianych w tych dyskusjach pytań. Czy obecne zawirowania oznaczają śmierć starego, „neoliberalnego paradygmatu” ekonomicznego i narodziny nowego, jeszcze nie zdefiniowanego? Czy trzęsienie ziemi w sektorze finansowym spowodowało tylko popękanie nadbudowy światowego systemu ekonomicznego, pozostawiając niewzruszone jego fundamenty?
Chińczycy o kryzysie mówią: „wei ji”. „Wei” to niebezpieczeństwo, ale „ji” oznacza „szansę”. Czy świat przetrwa niebezpieczeństwo i jak wykorzysta daną mu szansę? Ci, którzy zawsze uważają, że szklanka jest zawsze po połowy pełna, w tę szansę bardzo mocno wierzą. Niektórzy podkreślają nawet, że kryzys może spełnić funkcję pewnego katharsis, biblijnego potopu, który oczyści świat ekonomii ze wszystkich jego grzechów. Pesymiści zaś wieszczą upadek cywilizacji Zachodu. I jedni, i drudzy nie mają racji, co jest zarówno pokrzepiające, jak i smutne, na pewno zaś ciekawe.
Rozdział I: Problem metody
Gdy ekonomiści mylą się w teorii, ludzie cierpią w praktyce.
– Moises Naim
1. Znaczenie metodologii
Niedocenianym, niestety, przez wielu praktyków pytaniem nauki ekonomicznej jest: „Jak badać zjawiska ekonomiczne?”. Będzie ono wyjściowe dla naszej analizy – kto wie, czy metodologia nie jest tą dziedziną ekonomii, w której kryzys dokonał największych spustoszeń. Fakt, że znakomita większość praktyków i teoretyków ekonomii nie tylko nie przewidziała obecnych kłopotów, ale była przez nie wręcz zaskoczona, działa na ekonomistów zniechęcająco. Pojawia się bowiem wątpliwość, czy to, co robili przez całe życie ma w ogóle jakikolwiek sens, kiedy okazuje się, że stworzony przez nich system, który miał zapewnić trwały i stabilny wzrost rozsypał się jak domek z kart? Co w ogóle zostało z naszej wiedzy ekonomicznej? A może zasadne jest pytanie, czy badaliśmy zjawiska ekonomiczne w poprawny sposób? Pytania te są tym bardziej doniosłe, że świat potrzebuje dziś ekonomicznej wiedzy bardziej niż kiedykolwiek wcześniej w przeciągu ostatnich kilkudziesięciu lat. Czy mamy więc czas na budowę nowego podejścia ekonomicznego? Gwałtowny wzrost popytu wytrącił rynek wiedzy ekonomicznej z równowagi. Nagle, jak spod ziemi pojawiają się więc tuziny gotowych recept i złotych środków, z których każdy jest naiwnie przedstawiany jako niezawodne panaceum na wszystkie problemy. Rządzący, z przyczyn politycznie doskonale zrozumiałych, choć ekonomicznie niekoniecznie racjonalnych, działają niezwykle szybko, po omacku, bez należytego zastanowienia. Nie ma w tym szaleństwie metody.
Inna sprawa, że czasy są szalone. Bardzo łatwo byłoby nawoływać do zamknięcia się w ekonomicznych laboratoriach, majstrowania przy modelach, gromadzenia i przetwarzania danych empirycznych. Bo to, że coś w ekonomii nie działa poprawnie, widać gołym okiem. Niestety, nauka ekonomiczna jest zanurzona w realnym świecie, w którym czas gra główną rolę i w którym każdy dzień zwłoki przekłada się na realną sytuację zwykłych ludzi – likwidację miejsc pracy, spadek dochodu narodowego, zamknięcie firmy, ludzki dramat.
Sytuacja ekonomii w ogólności, a w szczególności dziś, w 2009 roku, jest niezwykle podobna do sytuacji medycyny. Lekarstwo na raka zostanie prędzej czy później wynalezione. Epidemia AIDS zostanie prędzej czy później opanowana. Ale w tym przypadku to „prędzej” i owe „później” ma kolosalne znaczenie – w obu przypadkach nieźle kwantyfikowalne. Zmagania ekonomistów mają więc znacznie szerszy wymiar niż suche, abstrakcyjne, akademickie rozważania. Tutaj nie tylko prawda i wiedza odgrywają wielką rolę. Tutaj liczy się również czas.
Pozostając przy porównaniach z medycyną – o ile z wielkim prawdopodobieństwem można założyć, że gnębiące dziś ludzkość choroby uda się ujarzmić w dającej się przewidzieć przyszłości, to można również przyjąć graniczącą z pewnością tezę, że w szybkim czasie zostaną one zastąpione przez choroby nowsze, jeszcze groźniejsze i jeszcze trudniejsze do pokonania. Lekkomyślnością byłyby w tym przypadku próby implementowania metod walki ze średniowieczną dżumą do współczesnej wojny na przykład z wirusem HIV. Postulowanie „powrotu do Keynesa”, czyli przeniesienia rozwiązań z lat 30 XX wieku do problemów pierwszej dekady wieku XXI, ma więc więcej wspólnego z bezradnością i desperacją niż poważną próbą rozwiązania problemu1. Nie ulega oczywiście wątpliwości, że historyczne nauczki mogą i powinny być dla nas lekcją na przyszłość. I rzeczywiście, nietrudno odnaleźć daleko idące analogie między obiema sytuacjami. Znów mamy chociażby problem z rosnącym bezrobociem i ujemnym wzrostem gospodarczym. Ale, podążając za słowami praktyka i teoretyka ekonomii, profesora Grzegorza Kołodki, rzeczy dzieją się tak, jak się dzieją, ponieważ wiele rzeczy dzieje się naraz2. Z tej prostej prawdy wynika równie banalna, co prawdziwa konstatacja. Mianowicie, skoro na każde najmniejsze wydarzenie składa się niezliczona ilość innych wydarzeń, to prawdopodobieństwo, że jeden kryzys będzie wypadkową tych samych zdarzeń, co inny jest znikome. W praktyce zaś – niemożliwe. Nie stać więc nas na takie proste przenoszenie rozwiązań. Czasy są na tyle trudne, że taka nonszalancja może się skończyć tragicznie.
2. Podejście Oppenheima-Hempela i teza o symetrii
Co w takim razie mają począć ekonomiści? Mają gotowe recepty, ale nie są one przystające do bieżących problemów. Potrzebują czasu, którego nie mają. Skoro gospodarka jest coraz bardziej złożona, a jej struktura wyjątkowo dynamiczna, to i nauka ekonomii winna podlegać nieustannej rozbudowie i ewolucji. Ale czy możemy wymagać, aby ekonomiści za tymi zmianami nadążali, skoro dysponują takimi, a nie innymi narzędziami badawczymi? Czy nadzieja, że będziemy w stanie jednocześnie wyjaśniać i przewidywać zjawiska ekonomiczne, nie jest zwykłą naiwnością? Ba, czy można oczekiwać takich rezultatów od jakiejkolwiek z nauk?
Przez lata wymóg ten stawiali wszystkim naukom Peter Oppenheim oraz Carl Hempel3. Uważali oni, że każda prawda naukowa da się wyprowadzić z tak zwanego prawa wyższego rzędu, pewnego uniwersalnego explanans, z którego wywodzą się wprost zarówno naukowe predykcje, jak i wyjaśnienia zjawisk z przeszłości. Skoro wszystkie twierdzenia, niezależnie od czasu, którego dotyczą, mają to samo pochodzenie, to zarówno wyjaśniania jak i predykcje mają w nauce taki sam status i są wobec siebie doskonale symetryczne. Oznacza to, że jeśli z pewnej prawdy ogólnej zwanej prawdą wyższego rzędu wypływa wyjaśnienie pewnego zjawiska, to wywodzone z tego samego prawa przewidywania przyszłości też powinny okazać się prawdziwe – i na odwrót. Już na pierwszy rzut oka widać kontrowersje. Krytycy tezy Oppenheima-Hempela z największą siłą zaatakowali oczywiście „tezę o symetrii”. Wskazywano, słusznie zresztą, że nie istnieje teoria, która jednocześnie wyjaśniałaby, jak i przewidywałaby procesy i zjawiska, lub która robiłaby to w sposób przekonywujący. Newton mógł z łatwością przewidzieć, co stanie się z jabłkiem, które zostało strącone z gałęzi. Ale wyjaśnić – dlaczego dzieje się tak, że jabłko spada na ziemię – nie potrafił on ani nie potrafi nikt z nas. Wiemy, że istnieje grawitacja, ale jaki jest mechanizm jej powstawania i co sprawia, że każde ciało oddziałuje grawitacyjnie na inne ciało – nie wie nikt. Z drugiej strony słynna teoria Karola Darwina o pochodzeniu gatunków, choć jest w stanie dość przekonywująco wyjaśnić jak to się stało, że z „człowieka wyprostowanego” wyewoluował „człowiek myślący”, to w żadnym wypadku nie daje podstaw do przewidywania, jakie cechy będą charakteryzowały gatunek ludzki za kolejne 1,7 miliona lat. Wydaje się, że w przypadku ekonomii asymetryczność predykcji i wyjaśnień musi być jeszcze bardziej wyraźna. W biologii proces dostosowawczy trwa wiele setek lat, a prawa fizyczne (przynajmniej według obecnego stanu wiedzy) są uniwersalne w każdym miejscu na osi czasu. W ekonomii zaś, zwłaszcza współczesnej, przedmiot badań może zmienić się nawet z dnia na dzień, dezaktualizując stare prawa, które w nowej rzeczywistości stają się nieprzydatne. Trudno więc oczekiwać, że teoria, która jako tako wyjaśniała zjawiska i procesy ekonomiczne kilka, kilkanaście lat temu, ma jakiekolwiek szanse przewidzieć to, co będzie dziać się za kolejne piętnaście lat. Konstruowanie teorii przewidującej w celu wyjaśnienia przeszłości jest po pierwsze niemożliwe, po drugie zaś mało sensowne. Możemy więc już teraz odrzucić od siebie pragnienie stworzenia uniwersalnej teorii ekonomicznej, owego explanans w rozumieniu Oppenheima i Hempela, jednocześnie skutecznie atakując argumentację: „skoro działanie X sprawdziło się w przeszłości, to X sprawdzi się dziś”.
3. Falsyfikacjonizm Poppera
Na razie jednak odpowiedzieliśmy (częściowo) na pytanie „czego nie robić?”. Przed nami znacznie trudniejsze pytanie i znacznie trudniejsza odpowiedź: „co robić?”. Nęcącą propozycję podsuwa nam Karl Popper – jeden z największych filozofów nauki XX wieku. Jego opus magnum, czyli teoria falsyfikacjonizmu4, zakłada, w bardzo daleko idącym uproszczeniu, że każda (naukowa) teoria jest prawdziwa i skuteczna, o ile nie zostało dowiedzione, że jest fałszywa5. Praca naukowca nie ma zatem polegać na udowadnianiu, które jest bardzo trudne, a często nawet niemożliwe. Nikt po dziś dzień nie udowodnił, że rewolucyjna teoria ewolucji Darwina jest prawdziwa, nikt nie wie na pewno, czy historię wszechświata rozpoczął Wielki Wybuch. Popper proponuje zatem, aby naukowcy falsyfikowali i formułowali nowe teorie. Takie podejście ma zapewnić nie tylko efektywniejsze, ale również szybsze, a przede wszystkim liniowe zbliżanie się do prawdy absolutnej, zamiast uporczywego uganiania się za nią, bez pewności, że ona w ogóle istnieje, albo że ludzki potencjał umysłowy jest wystarczający aby do niej dojść. Tym samym Popper odrzuca jednoznacznie pozytywizm logiczny, który nieostrożnie głosił przekonanie o istnieniu prawdy absolutnej, ba, wierzył nawet, że ludzkość może ją poznać poprzez doświadczenia empiryczne.
Podejście Poppera może być bardzo interesujące i użyteczne, ale nie pozbawia nas wątpliwości. Czym bowiem różni się dowodzenie prawdy od falsyfikowania? Czy propozycja Poppera nie sprowadza się po prostu do udowodniania, że (~p)=1 zamiast q=1? Różnica tkwi w rodzaju kwantyfikatorów. W ekonomii udowodnić, że q jest prawdziwe, to wykazać, że we wszystkich przypadkach stosowanie q jest skuteczne, bo właśnie skuteczność teorii ekonomicznej jest głównym jej zadaniem. To, jak zauważył już David Hume6, a z całą mocą podkreślał Popper, stwarza ogromne problemy, których często nie da się pokonać. Mowa tu o słynnym „problemie indukcji” – nie ma bowiem żadnego powodu, aby twierdzić, że wszyscy konsumenci wolą batoniki od czekoladek tylko dlatego, że sto milionów osób postawionych przed takim problemem wybrało batonik. Tak samo zresztą, jak błędne jest wnioskowanie, że skoro wszystkie wróble jakie widzieliśmy w życiu są szare, to wróble-albinosy nie istnieją. W przypadku falsyfikowania wystarczy dowieść, że istnieje na świecie jeden biały wróbel lub że istnieje jeden konsument który ponad wszystko uwielbia czekoladki. To zadanie z pewnością o wiele prostsze.
Problem polega na tym, że teorie naukowe są znacznie bardziej skomplikowane, niż teza o kolorze upierzenia wróbli, a dowiedzenie ich fałszywości nie sprowadza się do czysto empirycznych wniosków i może nastręczać wiele innych problemów. Czy możemy stwierdzić jednoznacznie, że prawo Saya7 jest fałszywe? A może po prostu nasze narzędzia badań i laboratorium w którym pracujemy są niedoskonałe? To, że fałszywość teorii jest rzeczą względną jest doskonale widoczne we współczesnym stanie nauki ekonomicznej, w której istnieje trudno policzalna liczba różnorodnych nurtów, szkół i podejść, z których większość jest skonfliktowana i arbitralnie zakłada fałszywość teorii przeciwników. Czy keynesowskie założenie o „mnożniku inwestycyjnym” jest prawdziwe, czy zostało sfalsyfikowane przez szkołę austriacką i monetarystów? Nawet jeśli mamy dobre narzędzia do liczenia wzrostu PKB, bezrobocia i poziomu cen, to przecież nie są one doskonałe. Fałsz, podobnie, jak prawda jest więc rzeczą względną.
Te namacalne wady podejścia popperowskiego przekładają się na konkretne problemy współczesnej myśli ekonomicznej. Jest ona niesłychanie mocno podzielona i skonfliktowana. Energia największych umysłów ekonomicznych jest skoncentrowana na atakowaniu, lub ataków tych odpieraniu. Obecny mainstream, czyli podejście neoklasyczne, jest od dłuższego czasu okopany na starych pozycjach, starając się przede wszystkim utrzymać swoją rolę w nauce. Tymczasem liczne nurty heterodoksyjne starają się rozpychać łokciami i atakując pozycje neoklasyków z nadzieją, że same zajmą ich miejsce. Spór taki może oczywiście być, i bardzo często rzeczywiście jest, płodny. Ale nie jest twórczy wystarczająco, a często przypomina wręcz dreptanie w miejscu. Współczesna ekonomia miota się między większym i mniejszym zastosowaniem matematyki i ekonometrii, między postulatem powrotu do empirycznego podejścia Adama Smitha, a abstrakcyjnymi, zmatematyzowanymi modelami, między postępującą integracją z innymi naukami społecznymi a próbami odcięcia się od wpływu nauk humanistycznych. O tym, że współczesna myśl ekonomiczna przechodzi poważny kryzys, świadczy zaskoczenie i szok jaki przeżyła wraz z załamaniem się rynków nieruchomości w USA i wszystkimi jego następstwami. Teoria Poppera, że ciągle falsyfikowanie i budowanie nowych teorii zbliża nas do prawdy, jest więc falsyfikowalna.
4. Thomas Kuhn i paradygmaty
Wobec tych wątpliwości ciekawą alternatywę zaprezentował amerykański filozof i historyk nauki Thomas Kuhn. Teoria Kuhna, znana powszechnie pod terminem paradygmatyzmu8, sytuuje się na przeciwnym od metodologii Poppera biegunie filozofii nauki. Czym jest ów paradygmat Kuhna, nie zostało explicite wyjaśnione nawet przez samego autora. Upraszczając, można go zdefiniować jako całościowy, obejmujący również elementy metafizyczne, obraz naukowego pojmowania świata, dostarczający modelowych rozwiązań w pewnej dziedzinie nauki. Przykładowo – paradygmat newtonowski dostarczył odpowiedzi na wiele pytań dotyczących teorii ruchu planet. Definicja taka jest bardzo szeroka i nieprecyzyjna (z czego zdawał sobie sprawę sam Kuhn), ale intuicyjnie dość prosta do zrozumienia i bardzo często oraz łatwo stosowana (o czym świadczy również tytuł niniejszej pracy). Istotą teorii Kuhna i jednocześnie tym jej aspektem, który najbardziej nas interesuje, jest jednak wyjaśnienie, w jaki sposób następuje zmiana paradygmatu w nauce, w jakim stopniu mogą się one wzajemnie przenikać i uzupełniać, a w jakim są dla siebie konkurencyjne. Na początku, być może w celu zwiększenia siły przebicia swojej teorii, Kuhn stał na bardzo odważnym stanowisku, że naukowe paradygmaty wzajemnie się wykluczają. Można być albo fizykiem kartezjańskim, albo newtonowskim, możemy przyjmować albo paradygmat darwinowski, albo kreacjonistyczny. Nie możemy natomiast wierzyć, że Ziemia trochę krąży wokół Słońca i jednocześnie, że Słońce krąży trochę wokół Ziemi.
Ta dość naiwna i prostoduszna konstatacja stała się przedmiotem ostrej krytyki, która zmusiła Kuhna do zrewidowania swoich radykalnych poglądów. W drugim wydaniu swojej Struktury rewolucji naukowej, Kuhn przyznaje swoim krytykom rację i przyjmuje możliwość wzajemnego przenikania się paradygmatów. Wobec tego nie jest już błędem metodologicznym założenie, że inflacja może być powodowana zarówno czynnikami realnymi, jak i pieniężnymi, a najczęściej jest powodowana splotem tych czynników. Te pragmatyczne ustępstwo rozmiękcza nieco teorię Kuhna, ale czyni ją lepiej przystosowaną do rzeczywistości i łatwiej stosowalną.
Faktycznie, metodologia Kuhna jest dość szeroko stosowana. Szczególnie w ostatnich miesiącach mówi się często o „paradygmacie neoliberalnym”. Pojęcie to jest jednak zazwyczaj używane jako skrót myślowy. Bo czy rzeczywiście ów „neoliberalizm” spełnia definicję kuhnowskiego paradygmatu? Oprócz opisanych wyżej problemów z określeniem samego „paradygmatu”, pojawia się jeszcze pytanie, czym jest „neoliberalizm”? Czy sprowadza się on tylko do większego zaufania do rynku niż do państwa oraz akceptacji różnic majątkowych jako naturalnej funkcji pracowitości i zdolności jednostek? Jeśli pod tym pojęciem rzeczywiście kryłaby się tak prosta konstatacja, to trudno byłoby uznać neoliberalizm za szerokie naukowe podejście stosowalne do większej części otaczającej nas rzeczywistości. Wówczas neoliberalizm byłby raczej czymś w rodzaju światopoglądu ekonomicznego, zbiorem pewnych przekonań i wartości, a więc pojęciem aksjologicznym, nie naukowym. Jeśli natomiast neoliberalizm miałby oznaczać maksymalnie poluzowaną politykę fiskalną rządów, stronienie od kontrolowania podmiotów gospodarczych i działania wolnorynkowe, to znów nie byłoby to pojęcie naukowe, lecz polityczne. Jeśli neoliberalizm ma być kuhnowskim paradygmatem, to musiałby on dostarczać spójnej metody badawczej, wyjaśniającej naukowo zjawiska ekonomiczne.
Czy możemy go tak zaklasyfikować? Jest to problem dyskusyjny, ale z naszego punktu widzenia mało istotny. Naszym celem jest bowiem próba przewidzenia tego, w jaki sposób, w jakim kierunku, a przede wszystkim czy zmieni się ekonomia pod wpływem kryzysu gospodarczego rozpoczętego w 2008 roku. Jeśli nawet uznamy, że przez ostatnie dwadzieścia lat myśl ekonomiczna była zdominowana przez paradygmat neoliberalny, to oznaczałoby to jedynie, że kryzys może ten paradygmat zmienić. Może, ale przecież nie musi. Wynika to z faktu, że metoda Kuhna jest czysto opisowa, stricte defensywna. Ma ona uzasadniać stan rzeczy panujący w nauce, sankcjonować pewną schematyczność – na przykład skoro naukowcy zalecają uwolnienie cen rynku energii, to wynika to wprost z tego wolnorynkowego paradygmatu, który nazwaliśmy neoliberalnym. Na zasadzie analogii wolny rynek gazu może przynieść podobne rezultaty, jak uwolnienie cen w innych branżach, na przykład telekomunikacyjnej. Podobnie – stosując w praktyce paradygmat newtonowski, możemy udowodnić, że skoro tor obrotu Ziemi wokół Słońca jest elipsa, to również orbita Saturna będzie wyglądała podobnie. Nie chodzi tutaj oczywiście o aprioryczne założenia, lecz o pewien schemat, którym możemy się posługiwać w procesie badawczym. Moglibyśmy więc uznać metodologię Kuhna za lepszą propozycję niż popperyzm, ale pod warunkiem, że badalibyśmy ekonomię statycznie, w pewnym określonym punkcie czasu. W momencie przemian, w którym się aktualnie znajdujemy, potrzeba nam metodologii normatywnej, dynamicznej, takiej, która pozwoliłaby nie tylko przewidzieć zmiany, ale sformułować pewne postulaty dotyczące tych zmian. Ofensywna metoda Poppera jest, dla naszych celów, bardziej przydatna, ale i ona nie jest pozbawiona poważnych wad, które wymieniliśmy już wyżej.
5. Lakatos i naukowe programy badawcze
Świadom tych wad i ograniczeń obu teorii, jeden z uczniów Karla Poppera, Węgier Imre Lakatos skonstruował teorię, która zakłada pewne kompromisy zarówno ze strony metody Poppera, jak i propozycji Kuhna i plasuje się gdzieś pomiędzy tymi dwoma podejściami. Lakatos wprowadza całkiem nowy aparat pojęciowy. Centralnym punktem jego teorii jest pojęcie naukowego programu badawczego. Wydaje się, że jest to pojęcie szersze od paradygmatu Kuhna. Za naukowy program badawczy możemy więc uznać na przykład samo badanie ekonomicznych zachowań jednostek, zapoczątkowane wiele wieków temu przez Smitha czy Mandeville’a, a może nawet samego Arystotelesa. Nic nie stoi zresztą na przeszkodzie, aby całą ekonomię zaklasyfikować jako jeden wielki program badawczy w rozumieniu Lakatosa.
Oczywiście tak szeroka definicja byłaby tak mało precyzyjna, że aż nieużyteczna. Lakatos dokonuje więc wewnętrznego podziału naukowego programu badawczego na hard core i protective belt, co można tłumaczyć odpowiednio jako „twardy rdzeń” i „pas ochronny”. Te enigmatyczne, charakterystyczne dla Lakatosa terminy kryją pod sobą kluczowe dla jego teorii pojęcia. „Twardy rdzeń” jest bardzo bliski pojęciu paradygmatu Kuhna. Zawiera on bowiem te elementy naukowego programu badawczego, które najtrudniej jest zmienić, a często jest to nawet niemożliwe. Są to również elementy, które są szeroko akceptowalne i stosowane w praktyce badań. „Twardy rdzeń” zawiera nie tylko dogmatyczne tezy i założenia, nieraz bardzo daleko idące, ale również swoistą heurystykę i to zarówno negatywną jak i pozytywną. „Twardemu rdzeniowi” naukowego programu badawczego względną stałość i niezmienność zapewnić ma „pas ochronny”. Jest to z kolei zbiór tez i wierzeń pomocniczych, nawiązujących do elementów „twardego rdzenia”, zmiennych jednak i poddawanych próbom naukowym, również falsyfikacji.
Widzimy jednak, że ten aparat pojęciowy jest bardzo sztywny. Przyjmując ekonomię za przykład naukowego programu badawczego, możemy oczywiście wyodrębnić ortodoksyjny neoklasycyzm jako „twardy rdzeń” i całą masę różnych nurtów heterodoksyjnych jako „pas ochronny”, pojęcia te nie będą jednak zbieżne z tymi zaproponowanymi przez Lakatosa. Neoklasycyzm nie jest przecież uznawany ani za niezmienny, ani nadrzędny wobec innych teorii. Jest po prostu tym nurtem, który na dzień dzisiejszy znalazł sobie najwięcej zwolenników. Ponadto, rozmaite heterodoksje w wielu przypadkach całkowicie negują dorobek neoklasyczny, ostentacyjnie ignorując przy tym jego heurystyczny przekaz. „Twardy rdzeń” ekonomii jest więc nie tylko popękany i wciąż atakowany, ale również nie jest kompatybilny ze swoim „pasem ochronnym”.
Krytyka poszczególnych podejść metodologicznych jest jednak bardzo prosta, budowanie nowych zaś niezwykle trudne. Co więcej wydaje się, że wobec teoretycznego obciążenia empirycznych doświadczeń ludzkich, budowla, która w całości by nas zadowalała, jest niemożliwa do wzniesienia. Nawet bowiem jeśli uda nam się jakimś cudem udowodnić, że wszystkie wróble są szare, to kolor ich piór nie jest niczym innym niż zastosowaniem innej teorii, tym razem fizycznej. Kolor to przecież tylko fala świetlna o określonej częstotliwości. Najprostsze, najbardziej naturalne testowanie teorii naukowych – za pomocą empirii jest więc równie zwodnicze, jak wszystkie pozostałe metody.
Zarówno Popper, Kuhn jak i Lakatos, oraz wielu innych metodologów wykonali olbrzymią pracę i przybliżyli nas do optymalnego podejścia do teorii naukowych. Nie będziemy próbowali uszeregować torii tych autorów według stopnia przydatności dla naszych rozważań. Spróbujemy więc korzystać ze wszystkich trzech teorii. Takie eklektyczne podejście może okazać się niebezpieczne, ale wydaje się nam, że równie nierozsądne byłoby arbitralne odrzucanie któregokolwiek z podejść.