Prognozowanie (el)
- Autor: Marek Chlebuś
- Odsłon: 4189
Co może, a nawet powinno, być dla większości edukowanych osób zdumiewające, porządek świata, w znacznej części już ten współczesny, w jeszcze większej przyszły, jawi się jako wyraźnie arystokratyczny, z tendencją do kastowości, zbudowany na systemowym wyzysku, podpartym finansowymi fetyszami i demokratycznym bałwochwalstwem, dyskretnie i selektywnie wspierany przez przemoc i gwałt, zadawane skrycie i poza wszelkimi prawami przez różne służby.
Elity kulturowo i nawet biologicznie odrębne od mas, fałsz nauk społecznych, usłużność edukacji, fasadowość państw... Najczystsza teoria spisku, prawda? No, ale skoro już tyle razy niedawne herezje uznawano za naukową prawdę, a stare dogmaty zaczynano uważać za psychozy i leczyć, to jaką wagę i jaką trwałość ma dziś taki zarzut?
Wszystko zdaje się konsekwentnie zmierzać w kierunku wymóżdżenia, wywłaszczenia oraz zniewolenia większości ludzi. Planetarny system społeczny może się docelowo wypiętrzać nawet bardziej niż ten średniowieczny, bo choć ciemnota, nędza i poddaństwo ludu będą raczej mniej głębokie niż wtedy, to nowa arystokracja będzie się wynosić na wyżyny niepojęte, trudne do ogarnięcia wyobraźnią, a i liczebność elit może być mniejsza niż kiedykolwiek.
Czy taki proces musi być celowy? Z pewnością nie. Masowe media i powszechna edukacja samorzutnie obniżają poziom swój i poziom ludu, nawzajem ciągnąc się w dół. Wolny rynek w naturalny sposób prowadzi do koncentracji bogactwa, wydziedziczając ubogich i powiększając istniejące fortuny, podobnie też demokracja poddaje prawomyślnych i przyzwoitych obywateli władzy cynicznych demagogów, rozwarstwiając społeczeństwo na rządzących i rządzonych. To są procesy naturalne, co nie znaczy, że sprawiedliwe czy nieuniknione.
Zresztą, głównym problemem rodzącego się ładu może być nie tyle nędzne położenie ludu i nawet nie odczłowieczająca go indoktrynacja, zakrywająca jego upodlenie, lecz raczej rosnąca zbędność mas, coraz szerzej wykluczanych z gospodarki przez maszyny. Wkrótce nieszczęściem ludu może być nie to, że ktoś go wyzyskuje lub otumania, lecz przeciwnie: to, że nikt go nie chce ani wyzyskiwać, ani otumaniać, ani nawet gwałcić. Lud może stać się po prostu zbędny.
Skądinąd, dość trudno wierzyć w przyszłość cywilizacji, dla której ludzie nie są dobrem, tylko obciążeniem. Chyba, że nie miałaby to być cywilizacja ludzi... Ale to znów science fiction. Czyżby już tylko fantastyka była w stanie opisywać rzeczywisty świat?
Bez rozumu
Ludzie nie są równi, zawsze ich można posortować według jakichś cech. Gdyby na przykład wszystkich ponumerować według wagi, wyróżni się grubasów. Czy jednak można mówić o ich jakimkolwiek uprzywilejowaniu w stosunku do reszty, nawet w czymś tak niby oczywistym, jak dostęp do jedzenia? Gdyby ważyć ludzi przez sto lat, pewnie się okaże, że dzieci grubasów są zazwyczaj także grube. Czy zatem oznacza to jakąś pokarmową zmowę kosztem głodujących mas? Raczej nie, do wyjaśnienia tego wystarcza zwykłe dziedziczenie. Podobnie mogą się dziedziczyć inne cechy, jak inteligencja, chciwość czy skłonność do dominacji. Niektórzy ludzie i niektóre rodziny mogą zajmować uprzywilejowaną pozycję nie w wyniku spisków, lecz dzięki genom albo wychowaniu, które pomagają im wygrywać gry o to, co akurat lubią: autorytet, majątek, władzę... zresztą, jedzenie też.
Życie społeczne to raczej nierówna gra, chociaż niekoniecznie ustawiona, bo niesprawiedliwość nie musi mieć sprawcy. Typowa giełda, nawet bez nadużyć i bez nierównego dostępu do informacji, transferuje bogactwo od mniejszych do większych graczy, znaczy: od biedniejszych do bogatszych. Podobnie wolny rynek Smitha, gdy go nie pilnować, prowadzi do koncentracji majątku i kończy się oligopolem albo monopolem. Jest to proces samorzutny, który nie wymaga spisków ani porozumień, przeciwnie, to jego powstrzymywanie potrzebuje świadomych i konsekwentnych działań antymonopolowych.
Inteligencja jest ważną i wyróżniającą człowieka cechą, ale chyba przecenianą, jeśli chodzi o znaczenie w makroskali. Do ukształtowania ogólnego, a nawet ogólnoludzkiego, ładu nie jest konieczny wielki rozum. Może nawet wystarczyć sam instynkt rywalizacji i dominacji, zdolny sortować ludzi także wtedy, kiedy każdy widzi tylko najbliższe, chwilowe otoczenie i w nim zajmuje najlepszą w jego rozumieniu pozycję. Wtedy całościowo, bez niczyjego planu, może się utworzyć planetarny porządek dziobania. Niejako sam z siebie.
Czy miałoby to znaczyć, że wielki system może istnieć bez świadomych władz? Bez wątpienia, może. Czy znaczyłoby to, że globalizacja nie musi mieć sprawców? Może i nie musi. A beneficjantów? A tych, to już musi, bo nawet zjawiska naturalne sprzyjają jednym bardziej niż drugim. Nieurodzaj premiuje tego, kto ma pełne magazyny, powódź ‒ tego, kto mieszka na górze, ostra zima ‒ tego, kto ma tani opał. Cokolwiek się dzieje w tej największej grze, zawsze ktoś wygrywa. Nawet, jeśli nie gra, a mówiąc precyzyjniej - nie wie, że gra. Taka to gra.
Jedno zjawisko zdaje się wymagać planu, a nawet zmowy, choć i tutaj może, a przynajmniej mógł kiedyś, zadziałać dobór, niczym w ewolucji. Jest to system pieniężny świata, konstytuujący coś w rodzaju kamienia filozoficznego. Dawni alchemicy przez tysiąclecia poszukiwali recepty na zamianę pospolitych pierwiastków w złoto, dzisiejsi bankierzy po prostu ją zadekretowali. Drukując liczby na papierze, każą wierzyć innym, że są one równoważne złotu, a przestawiając bity na dysku, każą ludziom oddawać majątki, rzekomo powiązane z tym porządkiem spinów, albo elektronów.
Bankierzy to chyba jedyna elita, której pozycja zdaje się wymagać przebiegłej i konsekwentnej zmowy. Pozostałe elity mogą działać nieświadomie i bez planu, chociaż oczywiście nie muszą. Zaznaczyć przy tym należy, że spisku nie wymaga sama wiara w pieniądz, ten zawsze był tylko opartym na wierze symbolem, a często powstawał samorzutnie. Spisek jest potrzebny raczej dla podtrzymywania, kamuflażu i ochrony prawnej monopolu kilkunastu rodzin na kreację pieniądza, przynoszącą im gigantyczne i nieuzasadnione niczym ‒ oprócz właśnie spisku ‒ zyski.
Sprawcy ewolucji
Gdyby istniał sprawca opisanych procesów, to może, aby je powstrzymać, wystarczyłoby go zabić. Czy jednak ktoś taki istnieje? Czy w ogóle musi istnieć? Według prawa rzymskiego, winien jest zwykle ten, kto odnosi korzyść. To jednak dotyczy tylko działań zamierzonych. Sprawca wypadku może być i winien, i zarazem martwy, a to przecież dość wątpliwa korzyść. Ewolucja ma i będzie mieć jakichś beneficjantów, ale nie musi mieć sprawców, może przebiegać całkiem samorzutnie. Tym bardziej zresztą warto ją rozumieć.
Znane nam mechanizmy ewolucji opierają się na doborze. To takie zawody na dostosowanie, w których nagrodą jest reprodukcja, mnożąca tych, którzy dziedziczą zwycięskie cechy. Ponieważ dla różnych form władzy dobór mógłby selekcjonować odmienne właściwości, łatwiej będzie zbadać zamiast przyczyn skutki, czyli nie dlaczego, ale co podlega dziedziczeniu. Geny? Oczywiście, wszak definiują one wiele cech osobniczych, decydujących o sukcesie. Klasa społeczna? Również, choć ta nie jest teraz dziedziczona formalnie, to realnie zwykła się reprodukować. Majątek? Jak najbardziej, chociaż ten z kolei, mimo że jest dziedziczony prawnie, to nie zawsze faktycznie, bo spadkobiercy mogą go roztrwonić.
Doborowi podlegałyby zatem rodziny, klasy społeczne i majątki. W ten sposób, splatałaby się biologia, kultura i ekonomia, tworząc wspólną podstawę dla różnych form władzy. Czy taka ewolucja dałaby się powstrzymać? Teoretycznie tak. Można łatwo zakwestionować dziedziczenie pozycji społecznej i własności, robiły to już różne rewolucje i wojny. Jak jednak twierdzi Braudel, utracona pozycja zwykle odbudowuje się. Badając księgi wieczyste dawnej Europy, odkrył on, że o ile bezpośrednio po rewolucjach większość nieruchomości przechodzi w ręce nowych właścicieli, to już po upływie pokolenia ci nowi stanowią tylko mały ułamek posiadaczy, bo dawni właściciele lub ich potomkowie odzyskują utraconą własność ‒ majątki zdają się jakoś do nich przywiązywać. Problem ten może wprawdzie rozwiązać częste ponawianie rewolucji czy wojen, ale to by mogło stwarzać inne, kto wie, czy nie jeszcze większe problemy.
Kontrolując rozród, można także przerwać dziedziczenie biologiczne, a jeszcze łatwiej przeciąć dziedzictwo społeczne i ekonomiczne, po prostu odbierając dzieci rodzicom. Przykładów kontroli rozrodu dostarcza celibat oraz kastracja, tworzące szczególne i raczej stabilne kasty księży lub eunuchów. Jeśli chodzi o wychowywanie dzieci poza rodzinami, po to chętnie sięgano w dziejach, zwłaszcza dla wytwarzania fanatyków, ale ani różne przykłady historyczne, ani dzisiejsze domy dziecka, nie dostarczają tu budujących przykładów.
Przy osiąganiu granic pojemności środowiska i tak pewnie będzie trzeba zakwestionować nieograniczoną własność oraz jej proste dziedziczenie, bo to prowadzi nieuchronnie do całkowitego wywłaszczenia mas, co w końcu będzie trudno kamuflować czy usprawiedliwiać. W miarę zanurzania się w sieci i delokalizowania więzi społecznych, samoistne dziedziczenie pozycji społecznej powinno się zmniejszać, bo ludzi może dywersyfikować bardziej wykształcenie niż pochodzenie. Tym ważniejsza zresztą byłaby rola oświaty i tym bardziej musi zasmucać jej dzisiejsza degeneracja. To jednak jest do przełamania, zwłaszcza dzięki telenauczaniu, które na razie skutecznie powstrzymują zagrożeni utratą pracy i autorytetu nauczyciele, ale w sieci może się ono rozwinąć samorzutnie.
Pozostaje dziedziczenie biologiczne, najbardziej naturalne i stosunkowo najodporniejsze na społeczne eksperymenty. Tu jednak wiele zmieni technologia, zwłaszcza inżynieria genetyczna, która może nawet spowodować, że na własne życzenie ambitnych rodziców dzieci przestaną być ich biologicznymi potomkami ‒ wskutek uszlachetniania genotypów.
Wydaje się zatem, że przerwanie obecnych mechanizmów ewolucji społecznej jest nie tylko możliwe, ale wysoce prawdopodobne i nawet powinno zajść samorzutnie. Tylko w jakiej fazie?
Rehumanizacja człowieka
Monokultury są z natury nietrwałe. Niestabilność nowego modelu władz i społeczeństwa wydaje się w dłuższym horyzoncie bezdyskusyjna, zresztą, przecież w wystarczająco długiej perspektywie nic nie jest trwałe. Jednak już marne sto lat to dla większości z nas wieczność i raczej słaba to pociecha, że w sto pierwszym roku miałaby nastąpić istotna poprawa.
Czy skutki zapowiadanych zmian będą odwracalne? Raczej wątpię, choć to trochę zależy od tego, jak daleko zajdą. Nie taki jest przedmiot tego studium, więc tylko napomknę, co już wielokrotnie pisałem w różnych pracach, że według mnie, dominująca dziś cywilizacja oświeceniowa czy postoświeceniowa, europejska czy euroamerykańska, zachodnia czy północna, chrześcijańska czy judeochrześcijańska, obojętne, jak jeszcze ktoś chciałby ją nazywać, w każdym razie, chodzi o tę naszą, weszła na ścieżkę rozwoju w kierunku cyborgizacji ludzi, potem hybrydyzacji ludzi z maszynami, a w końcu pewnie postępującej redukcji składnika biologicznego. Podobny los może czekać, jak sądzę, jednostkowe umysły, gdy w równoległym procesie inteligencję indywidualną zastępować będzie inteligencja zbiorowa. Oczywiście, procesy te nie muszą dojść do samego końca, ale już we wczesnych etapach mogą stać się nieodwracalne. O ileż łatwiejszy, a przecież już praktycznie niemożliwy, byłby dla nas, dziś żyjących, zwykły powrót do natury, prawda?
Opisana ewolucja falsyfikuje ideały oświeceniowe. Znosi demokrację, równość, wolność, własność, wydziedzicza masy i prawie deifikuje elity. Czy to jest w ogóle możliwe? A jeśli możliwe, to czy konieczne? Wątpię, ale na razie w takim zmierzamy kierunku. Im dłużej pozostajemy tego nieświadomi, tym dalej to może zajść. Sama zresztą świadomość też raczej niewiele pomoże, najwyżej złagodzi przebieg oraz skutki zmian. Ale też zwiększy frustrację. Cóż, widać, nie tylko kij ma dwa końce.
Pokojowe zakończenie opisanych procesów wydaje się niemożliwe, bo po pierwsze, przerwać je może tylko wielki wstrząs, co najmniej porównywalna z wojną katastrofa, a po drugie, nawet gdyby się miały samorzutnie wyczerpać, to przecież też trudno oczekiwać, że runą bez zniszczeń. Jakoś nie widać pokojowej ścieżki rehumanizacji. Zresztą, na dzisiejszych mapach, nie widać jej żadnej. Co nie znaczy, że nie istnieje.
Marek Chlebuś
- Autor: Anna Leszkowska
- Odsłon: 1769
Z prof. Robertem R. Gałązką, fizykiem, dyrektorem Instytutu Fizyki PAN rozmawia Anna Leszkowska
Techniki satelitarne należą do tych technologii, które zdecydowanie zadecydowały o kształcie końca XX wieku. Z pewnością też będą miały ogromny wpływ i na następny wiek, ale jaki? Niosą one przecież nie tylko ułatwienia, lecz i niemałe zagrożenia. Czy dziś można ocenić które z nich przeważą?
Na pewno ułatwienia. Z wszystkich technik satelitarnych najbardziej odczuwamy postęp w telekomunikacji. To jest główny nurt tych technik, najlepiej finansowany i przynoszący największe zyski. Liczba informacji przesyłana przez satelity jest kolosalna i coraz bardziej rośnie. Z jednej strony jest to niezwykłe ułatwienie, bo dzięki temu jest niezmiernie łatwo dotrzeć do każdego miejsca na Ziemi, jeśli tylko jest się w sieci internetowej, łatwo też samemu uzyskać informacje różnego typu.
Z drugiej strony są zagrożenia – zalew kompletnie bezużytecznych informacji. Komputer staje się groźny jak narkotyk, gdyż siadając przed monitorem – nie sposób się od niego oderwać. Sposób podawania informacji i korzystania z nich jest taki, że znalezienie jednej wywołuje potrzebę szukania następnej. W rezultacie zamiast uzyskać potrzebną informację w ciągu minuty, spędza się przy komputerze godzinę, albo więcej. Groźna jest fascynacja i liczbą informacji, jaką można uzyskać, i ich wątpliwą jakością. Bo informacja komputerowa jest generalnie bardzo płytka merytorycznie, niekiedy także błędna. Do jej weryfikacji często potrzeba eksperta, który umie z tej sieczki wydobyć to, co najważniejsze. Odbiorca tych informacji nie umie najczęściej sam ocenić ważności i prawdziwości tych danych. Wskutek tego użytkownikowi wydaje się, że wszystko wie, tymczasem w rzeczywistości jego wiedza jest żadna. Do tego dochodzi jeszcze jedno niebezpieczeństwo: komputer wpływa i na psychikę, i zmienia tryb życia na siedzący, co dla młodzieży nie jest wskazane.
Wraz z rozwojem technik telekomunikacyjnych, równie szybki postęp jest w nawigacji i geodezji satelitarnej, GPS (Global Position System). Wszystkie one są związane z określeniem położenia i czasu, także GPS. Na każdym satelicie GPS umieszczone są dwa atomowe zegary – dokładność wyznaczenia pozycji obiektu na Ziemi zależy od tego, jak precyzyjnie określi się czas przebiegu sygnału z Ziemi do satelity i położenie satelity w chwili wysyłania impulsu. Odbiorca na Ziemi rejestruje te dwie informacje i jeśli ma zegar zgodny z satelitarnym – może precyzyjnie wyznaczyć położenie obiektu. W tej chwili – z dokładnością do 2-3 metrów.
Te techniki – w odróżnieniu od informacji komputerowej - nie niosą za sobą zagrożeń, gdyż właściwie adresowane są dla specjalistów. Informacje o położeniu wykorzystywane są w samochodach, wszystkich samolotach, okrętach. Także w telefonach komórkowych, ale w tym przypadku operatorzy telefonii komórkowej mogą podsłuchiwać rozmowy i rozpoznać miejsce, z którego rozmowa jest prowadzona. W skali społecznej to może być groźne. Bo wszystkie te techniki i urządzenia w ogromnym stopniu i coraz bardziej, acz w sposób mało zauważalny, ograniczają wolność człowieka. Każdego, kto posługuje się takimi technikami można namierzyć, określić gdzie jest i co robi. Pomaga w tym także szybko rozwijająca się technika teledetekcji – obrazowania Ziemi z kosmosu. Dzisiaj można już kupić zdjęcia satelitarne terenu zrobione z dokładnością do 2 m, czyli można na nich odróżnić samochód osobowy od ciężarowego. Zdjęcia specjalne robione są z rozdzielczością mniejszą niż pół metra, czyli pozwalają zobaczyć człowieka. Czyli nie dość, że możemy określić, gdzie jest, o czym rozmawia, to jeszcze możemy go zobaczyć: czy siedzi, czy idzie. To wszystko widać z satelity. Powstaje świat Orwellowski, w którym każdy człowiek może być śledzony.
Ale nie należy zapominać, że wszystkie techniki satelitarne dają nie tylko łatwość inwigilacji, lecz i bezpieczeństwo – wszystko zależy kto i w jakim celu będzie je wykorzystywać.
- W jakim kierunku idzie rozwój technik satelitarnych?
- Głównie w kierunku większych dokładności pomiarów i danych. Na spotkaniu ekspertów Europejskiej Fundacji Naukowej, w którym ostatnio uczestniczyłem, jeden z uczestników przedstawiał projekt, który będzie sprawdzany w przyszłym roku – dotyczący możliwości lokalizacji obiektu z satelity z dokładnością do 3 mm! A już dzisiaj możemy ocenić położenie względem siebie dwóch odbiorników GPS z dokładnością do centymetrów, a bezwzględną odległość – do kilku metrów. Jeśli będzie urządzenie pozwalające wyznaczyć odległość bezwzględną (także wysokość) w stosunku do środka Ziemi z dokładnością do 3 mm – będzie można wiedzieć, czy obserwowany człowiek oddycha.
Powstaje jednak pytanie, czy taka dokładność jest potrzebna w dziedzinach innych jak fizyka czy geodezja. Z pewnością zostanie to użyte i do celów wojskowych. Dotychczas np. do naprowadzania rakiet na cel używano laserów. Dziś jest to już technika przestarzała – stosuje się tu GPS, gdyż pozycja geograficzna wyrzutni (czy innych obiektów) jest znana (np. ze zdjęć satelitarnych). Dzięki temu można nakierować rakietę, wystrzeliwaną z obojętnie jakiego miejsca i bez względu na warunki meteorologiczne z dokładnością do centymetrów.
Wiedza ta – poza zastosowaniami militarnymi - jest wykorzystywana przede wszystkim w naukach inżynierskich. Dzisiejsza geodezja prawie całkowicie korzysta z technik satelitarnych. Już nie ma wież triangulacyjnych, mapy, plany tworzy się z danych GPS. Geodeta nie musi korzystać z teodolitu – może posługiwać się GPS do wyznaczania pozycji działek, także zalesionych, w których kiedyś trzeba było do tych celów robić przecinkę.
- Nie ma żadnych ograniczeń w penetrowaniu tego co na Ziemi i pod jej powierzchnią?
- Fale elektromagnetyczne, a te są wykorzystywane w tych technikach, mają swoją specyfikę – np. nie docierają pod wodę, zwłaszcza morską, także trudno im się przebić przez wilgotną dżunglę. Mimo tych ograniczeń, radary satelitarne penetrują nie tylko powierzchnię, ale i wnętrze Ziemi, do głębokości ok. 20 m. Piasek pustynny można penetrować do głębokości 30 m i na zdjęciach satelitarnych widać koryta rzek, które dziesiątki tysięcy lat temu płynęły przez Saharę. Z tych technik korzysta się przy szukaniu wody, choć geolodzy mają z nich mniejszy pożytek. Nie można bowiem tą techniką zbadać warstw głębszych.
Fale elektromagnetyczne, odbijające się w różnym stopniu od różnych materiałów, dają też informacje o rodzaju upraw. Przy pomocy zdjęć satelitarnych można więc poznać nie tylko gdzie rośnie pszenica, a gdzie owies, ale także w jakim są one stanie. To są informacje o ogromnej wartości ekonomicznej. Amerykanie np. dużo wcześniej wiedzą, czy będą dobre zbiory kawy, czy zboża i gdzie. Jeśli to się wie odpowiednio wcześniej – można wiele zarobić.
W technikach satelitarnych widać bardzo ostro, że bogaci stają się bogatsi, a biedni – biedniejsi. Ci, którzy dysponują taką techniką nie tylko korzystają z niej dla własnych celów, ale i najlepiej na niej zarabiają. Inni coraz więcej muszą za nią płacić. W tej dziedzinie absolutnym potentatem jest USA – nakłady państwa na te techniki są tam dwa razy większe niż budżet rządowej agencji NASA (13 mld USD rocznie). Drugie tyle dostaje wojsko, a dodatkowo płyną na to pieniądze z koncernów.
Warto jeszcze powiedzieć o zagrożeniu, jakie niosą te techniki (także naziemne) w skali globu. Jest to nieznane wcześniej zwiększenie natężenia pola elektromagnetycznego w atmosferze. Nie wiadomo, czy to jest zdrowe dla człowieka, bo zjawisko jest obserwowane dopiero od ok. 100 lat. Na razie nie widać specjalnych symptomów szkodliwego działania nawet w przypadku telefonów komórkowych, które są nie tylko odbiornikami, ale i nadajnikami. Niemniej wcale nie muszą być prawdziwe wyniki badań dotyczące szkodliwości używania takich aparatów, skoro telefonia komórkowa rozpowszechniła się na wielką skalę dopiero kilkanaście lat temu.
- Co zmieni w tej dziedzinie następny wiek?
- W najbliższych latach na pewno powstaną nowe typy rakiet. Będą nie tylko mniejsze, ale i bardziej ekonomiczne, a to oznacza większe ich rozpowszechnienie. Z drugiej strony postęp w elektronice, miniaturyzacja wymuszona postępem w technologii kosmicznej, będzie powodować, że satelity będą coraz mniejsze. Kiedyś dążono do tego, aby satelita żył możliwie długo na orbicie, bo drogo kosztował. Pierwsze pracowały pół roku, rok , co uważano za sukces. W tej chwili typowy czas życia satelity to 10 – 12 lat, ale uważa się, że to za długo, bo szybki postęp w tych technologiach sprawia, że satelity są przestarzałe. Więc satelity robi się coraz mniejsze, nowocześniejsze, tańsze. Ważące 10 razy mniej niż te pierwsze, ale spełniające te same funkcje co pierwsze, dwutonowe.
Konsekwencją tego postępu są dwa zjawiska: wolny rynek na satelity oraz zaśmiecenie kosmosu. Dziś każdy może sobie kupić satelitę – wystarczy że ma 200 mln dolarów. Jednak coraz groźniejszy staje się problem śmieci kosmicznych, powstających m.in. z osłon, jakimi jest chroniony satelita do momentu zakotwiczenia na orbicie. Satelity po pewnym czasie też stają się śmieciami, jeśli krążą na orbitach powyżej 500 – 600 km, bardzo gęsto w tej chwili upakowanymi, a w przyszłości, wraz z rozwojem technik multimedialnych – jeszcze bardziej zagęszczonymi. Najgorzej jest na orbitach 700 – 800 km, oraz na superorbicie – jednej, jedynej geostacjonarnej. I choć wszyscy o tym wiedzą, wiele państw czerpiących z kosmosu wielkie korzyści blokuje rozwiązania prawne, międzynarodowe. Np. nieprzypadkowo nie ma definicji przestrzeni kosmicznej. Fizycznie można bardzo łatwo ją określić – to tam, gdzie się kończy atmosfera, czyli na wysokości ok. 100 km, gdzie wiatr słoneczny zderza się z atmosferą.. Ale definicji nie ma dlatego, że prawnie przestrzeń kosmiczna jest dobrem ogólnoludzkim, a tam każdy może latać gdzie i jak chce. I oglądać stamtąd to, co dzieje się w danym kraju.
- Czyli na postęp – jak i na wszystko – można spojrzeć jak optymista i pesymista...
- Generalnie jednak więcej jest plusów. Tak jest z całą techniką. Liczba ludzi ginących w wypadkach samochodowych jest ogromna, ale czy można powiedzieć, że samochód jest złem? Każde rozwiązanie techniczne ma plusy i minusy – przy czym minusy są z reguły ceną postępu. Ale jest jeszcze jedna sprawa związana z całą naszą cywilizacją techniczną: używamy coraz więcej rzeczy, o których nie wiemy jak działają. A jeśli nie mamy wyobrażenia o tym, nie mamy również wyobrażenia o możliwościach tych rozwiązań. I ci, którzy wiedzą jak to działa - mogą bez naszej wiedzy, świadomości – wykorzystywać to przeciwko nam. Np. tak bywa z programami komputerowymi, licencjonowanymi, które po pewnym czasie użytkowania nagle komunikują, że ich ważność kończy się. I nie wiadomo, czy w takim programie Microsoftu nie ma zapisanych jakichś podprogramów, które mogą zniszczyć dane, bądź narobić innych szkód.
- Pesymistyczny to wydźwięk naszej rozmowy...
- Jeszcze bardziej pesymistyczne jest to, że liczba globalnych problemów, jakie widzimy dzięki technikom satelitarnym wcale nie maleje. Możemy w jednej chwili zobaczyć wszystko, co dzieje się na globie, wszystkie niekorzystne tendencje, ale nie mamy pojęcia jak je zmienić. Technologia satelitarna podsunęła nam informacje, ale nie powiedziała co z nimi zrobić. Nie umiemy odwrócić złych trendów.
Ludzkość, mimo swojego potencjału intelektualnego, wielkiej szybkości informowania, wcale nie poprawiła umiejętności porozumiewania się człowieka z człowiekiem. To, że się więcej gada nie oznacza, że gada się mądrzej i że można się lepiej porozumieć. Człowiek stał się tu najsłabszym ogniwem.
- Dziękuję za rozmowę.
- Autor: Andrzej Wierzbicki
- Odsłon: 2002
W ostatnich latach wzrasta liczba prognoz, ocenianych przez główny nurt nauk społecznych jako katastroficzne, co jest wygodnym uzasadnieniem dla ich ignorowania. Osobiście jednak uważam, że są to nie tyle prognozy katastroficzne, co ostrzegawcze o możliwości przyszłych katastrof, i należy traktować je z należytą uwagą.
Jednakże, aby dobrze zrozumieć takie możliwości katastrof, trzeba dobrze poznać dynamikę procesów z dodatnim sprzężeniem zwrotnym. Żeby ją zrozumieć, trzeba albo analizować dynamikę realnych procesów z dodatnim sprzężeniem zwrotnym ‑ jak np. dynamikę przełączania się elementów pamięci komputerowej ‑ albo przejść przez ćwiczenia laboratoryjne z symulacją komputerową takich procesów (niezbędne np. przy kształceniu automatyków elektrowni jądrowych).
Niestety, uniwersytety (zwłaszcza w Polsce) odcinają się od nauk technicznych, stąd rozumienie dynamiki procesów z dodatnim sprzężeniem zwrotnym wśród nauk społecznych jest ułomne. Tymczasem to właśnie objawy takich procesów niepokoją autorów prognoz zwanych katastroficznymi, którzy usiłują w ten sposób ostrzec społeczeństwa świata.
Wybuchowa szpilka
Głównym objawem takich procesów jest przyspieszanie tempa rozwoju. W literaturze pojawiło się wiele wykresów ilustrujących to zjawisko. Ostatnio w dwóch publikacjach ‑ Morris (2010) Why the West Rules - For Now oraz Brynjolfson i McAfee (2014) The Second Machine Age ‑ pojawił się wykres dwóch wskaźników rozwoju ludzkości (liczby ludności świata oraz syntetycznego wskaźnika Human Social Development) w zależności od czasu przez ostatnie 10 tysięcy lat.
W obu przypadkach wykres ten ma postać szpilki zaczynającej się ok. dwustu lat temu, a znacznie przyspieszającej obecnie. Autorzy tych dwóch książek zachwycają się tym wykresem, choć mnie on napawa przerażeniem, gdyż nie wiedzą oni, co widzą. A widzą typowy proces wybuchu reaktora jądrowego.
Każdy taki (występujący w przyrodzie lub technice) proces dodatniego sprzężenia zwrotnego prowadzi do rozwoju lawinowego ‑ najpierw przyspiesza, później kończy się uderzeniem w jakieś ograniczenie (dla lawiny jest to uderzenie w przeciwległe zbocze, dla wybuchu reaktora wyczerpanie się atomów pierwiastka promieniotwórczego).
Nie jest jasne jeszcze, co będzie takim ograniczeniem w rozwoju ludzkości ‑ może być nim koniec pracy, jaką dzisiaj znamy, może być nim rewolucyjny koniec kapitalizmu, który - jeśli zbyt gwałtowny - może doprowadzić do samozagłady inteligentnej cywilizacji na Ziemi. W każdym bądź razie, nie ulega dzisiaj wątpliwości, że niezbędne jest ograniczenie tempa rozwoju ‑ w technice osiągane zazwyczaj poprzez zastosowanie dodatkowego, ujemnego sprzężenia zwrotnego (tak jak w reaktorze jądrowym przez sterowanie prętami kontrolnymi ograniczającymi szybkość reakcji).
Złudne samouspokajanie się
Zanim się jednak takie regulacyjne sprzężenie zastosuje, trzeba dokładniej przeanalizować mechanizmy dodatniego sprzężenia zwrotnego, które wywołują to przyspieszenie rozwoju. Nie ulega dla mnie wątpliwości, że jednym z takich mechanizmów jest dodatnie sprzężenie zwrotne pomiędzy rynkiem a wiedzą (nauką i techniką), wyrażające się przez zastępowanie pracy kapitałem (czyli raczej maszynami za ten kapitał zakupionymi). Można wprawdzie twierdzić, że zastępowanie pracy przez kapitał postępuje od początków rewolucji przemysłowej, od końca XVIII wieku, i jak dotychczas powodowało niekoniecznie bezrobocie, jedynie zmiany struktury pracy. Ale twierdzenie takie jest samouspokajaniem się, z dwóch powodów.
Po pierwsze, zastępowanie pracy przez kapitał ma charakter procesu z dodatnim sprzężeniem zwrotnym: im więcej kapitalista zyska na inwestycji w nowe maszyny i urządzenia, tym więcej jest skłonny inwestować w nie dalej. A procesy z dodatnim sprzężeniem zwrotnym mają charakter lawinowy: mogą zaczynać się powoli, ale nieuchronnie potem przyspieszają. Zastępowanie pracy w przedsiębiorstwach przez kapitał następuje dzisiaj w bezprecedensowym tempie i skali, (opisywałem to w mojej książce Przyszłość pracy w społeczeństwie informacyjnym), a więc opinie historyczne nie mają dzisiaj racji.
Po drugie, kapitał w krajach rozwiniętych wykorzystał jeszcze inny mechanizm do zniszczenia proletariatu wielkoprzemysłowego w swoich krajach ‑ globalizację, eksport pracy do krajów rozwijających się, o mniejszych kosztach pracy. Jednakże roboty, tak jak i inne urządzenia rewolucji informacyjnej, stają się coraz tańsze, a więc wspomniany wyżej mechanizm dodatniego sprzężenia zwrotnego spowoduje destrukcję proletariatu fabrycznego oraz koniec pracy w przedsiębiorstwach także w krajach biedniejszych. Spowoduje to wzrost konfliktów w tych krajach oraz dalszy wzrost obserwowanej dzisiaj presji migracyjnej. W stosunku do Europy, będzie to presja głównie z Afryki i Małej Azji, obszarów o najszybszym wzroście demograficznym; a jeśli Europa ograniczy możliwości migracji, spowoduje to wzrost napięcia Północ-Południe.
Przyspieszenie - rozwarstwienie
Jednakże rozpowszechnienie robotów w pracy przemysłowej to jeszcze nie jest powszechne rozpowszechnienie społeczne. Takie powszechne rozpowszechnienie zacznie się, gdy roboty zaczną chodzić z nami po ulicach (tak, jak aparaty telefonii mobilnej) lub zastępować nas w pracy usługowej, jak np. w supermarketach (co już sygnalizowane jest np. w Japonii). Tak więc nie jest trwałą, tylko przejściową prawdą, że pracę przemysłową zastąpi praca usługowa. Już obecnie praca usługowa się kurczy nie tylko z uwagi na zastosowanie robotów i komputerów, także poprzez wykorzystywanie usług sieciowych.
Ostatnio w telewizji polskiej pojawiła się reklama administracji elektronicznej, ze wskazaniem źródeł finansowania (dotacji europejskich). Jednakże nie wspomniano przy tym, że wprawdzie administracja taka będzie miała szereg zalet, ale ekonomicznie zyskają na tym przedsiębiorcy ją wprowadzający, zaś stracą - pracę - niektórzy pracownicy administracji. Spowoduje to dalsze rozwarstwienie: szybki wzrost dochodów najlepiej zarabiających i utratę pracy oraz dochodów dolnej części dotychczasowej klasy średniej.
To zjawisko rozwarstwienia jest typowym rezultatem obecnego przyspieszenia zastępowania pracy przez kapitał. Obserwowany i opisywany dzisiaj wzrost nierówności (p. Stiglitz, (2013), The Price of Inequality) zintensyfikował się na świecie po roku 1990 i nie polega na znacznym wzroście współczynnika Gini’ego, tylko na bardzo szybkim wzroście dochodów jednego procenta najlepiej zarabiających (kilkakrotnie szybszym niż tempo wzrostu globalnego PKB) z jednoczesną pauperyzacją części dawnej klasy średniej, tracącej trwałe zatrudnienie.
Rozsądnym wskaźnikiem nierówności jest stosunek dochodów 1% ludzi najbogatszych do dochodów 20% ludzi najbiedniejszych (bo rozsądnym jest jeszcze, aby ludzie najbogatsi zarabiali 20 razy więcej, niż najbiedniejsi). Jeśli jednak wskaźnik ten przekracza znacznie jedność (jak to obserwujemy w większości krajów świata), oznacza to znaczne nierówności w danym społeczeństwie.
Podatek od kasyna
Wprawdzie zastępowanie pracy przez kapitał następuje już od ponad dwustu lat, ale jest to proces z dodatnim sprzężeniem zwrotnym, który ostatnio znacznie przyspieszył. O ile dawniej ludzie mogli się do tego procesu przystosować, ucząc się nowych zawodów i dostosowując do nowej struktury zatrudnienia, o tyle dzisiaj procesy te stały się po prostu zbyt szybkie, ludzie musieliby się uczyć nowych zawodów i elementów skomplikowanych technik informacyjnych kilka razy w życiu.
Natomiast koncentracja majątku w rękach jednego procenta ludności powoduje chorobę systemu kapitalistycznego: większa część ich zysków nie zwiększa realnego popytu, tylko wirtualny popyt na spekulacje giełdowe i walutowe, tzw. wirtualną gospodarkę, co jest przyczyną coraz częstszych kryzysów (p. ostatnie numery The Economist z artykułem wstępnym The Chronicle of Debt).
Jednym ze sposobów ograniczenia tej szybkości wzrostu i wynikających z niej objawów chorobowych jest wzrost opodatkowania ludzi najbogatszych, z przeznaczeniem tych podatków na cele socjalne (np. komunalne budownictwo mieszkaniowe, ale także emerytury i renty, włącznie z realizacją idei renty obywatelskiej dla każdego obywatela państwa). Istotna jest przy tym nie tylko modyfikacja podatków osobistych, PIT, potrzebna zwłaszcza jest modyfikacja podatków korporacyjnych, CIT, gdyż 19% podatku CIT płaconego od zysku skutkuje tylko w ok. 1% podatku CIT, jeśli liczyć go od przychodu (lub przychodu z niewielkimi potrąceniami, czyli dochodu). Dla porównania podatków CIT i PIT wyobraźmy sobie, że przed wyliczeniem podatku PIT moglibyśmy odliczać od dochodów osobistych koszty utrzymania siebie i całej rodziny.
Dlatego też podatek CIT powinien być obliczany od dochodu, przychodu z niewielkimi tylko odliczeniami. Np. na pewno nie należy odliczać od przychodu kosztów marketingu, a może nawet kosztów nowych technologii. Na argument, że spowolni to rozwój, odpowiadam, że właśnie o to chodzi. Natomiast można wprowadzić ulgi podatkowe CIT dla przedsiębiorstw zatrudniających więcej pracowników, (uzależniając to od udziału wypłat pracowniczych w całkowitym przychodzie przedsiębiorstwa, lub nawet pozwalając na pełne odliczenie od przychodu tych wypłat).
W lawinie
Nie uważam natomiast, że realistyczne są prognozy Jeremy’ego Rifkina z jego niedawnej książki The Zero Marginal Cost Society, (2014). Twierdzi on, że nieuchronne zmniejszanie się kosztów krańcowych produkcji w wyniku postępu technicznego doprowadzi (w ciągu drugiej połowy wieku XXI) do samoczynnego upadku kapitalizmu i zwycięstwa sieciowych collaborative commons (wspólnot pracowniczych). Nie zauważa jednak, że kapitalizm wcale nie musi stosować cen powiązanych z cenami krańcowymi (jak to by wynikało z neoliberalnych teorii rynku), tylko skutecznie broni się przed obniżką kosztów krańcowych, unikając konkurencji cenowej oraz stosując ukryte zmowy cenowe na rynkach oligopolistycznych – co zresztą wiadomo już od badań Sylosa Labini w 1956 roku. Dlatego też nie wierzę, że koniec czy korekta kapitalizmu nastąpi samoczynnie, niezbędna jest demokratyczna reforma kapitalizmu, która zgodnie z zaleceniami Adama Smitha może być oparta na przesłankach etycznych.
Jeśli takiej reformy nie przeprowadzimy, grozi nam zderzenie z barierą, które oby nie było równoznaczne z zagładą ludzkiej cywilizacji na Ziemi. Natomiast tym, którzy nazwą taką prognozę katastroficzną, aby ją spokojnie zignorować, odpowiem, że mogą się narazić na zarzut ignorancji w dziedzinie dynamiki procesów z dodatnim sprzężeniem zwrotnym. Jedziemy toczeni przez lawinę. Tyle tylko, że ci, którym się udało wydostać na jej wierzch, opowiadają nam, jaka to wspaniała jazda.
Andrzej P. Wierzbicki
Śródtytuły i wyróżnienia pochodzą od Redakcji.
- Autor: Anna Leszkowska
- Odsłon: 957
Redakcja „Biuletynu PTE” w 90. rocznicę publikacji eseju Johna M. Keynesa – Ekonomiczne perspektywy dla naszych wnuków poprosiła znanych ekonomistów o komentarze dotyczące przewidywań Keynesa, przede wszystkim w kwestii znaczenia, aktualności oraz trafności sformułowanych przez niego prognoz.
Jak pisze – zachęcając do dyskusji – prezes PTE, prof. Elżbieta Mączyńska, „fascynujący esej Keynesa to wielce pouczająca i pobudzająca do refleksji wizja perspektyw wzrostu gospodarczego i dobrobytu społecznego, zmian relacji między pracą a wypoczynkiem, ale też wizja dotycząca m.in. zmian na rynku pracy i tygodniowego jej wymiaru (wg Keynesa do 2030 r. nastąpi skrócenie tego wymiaru do 15 godzin).
Wizja ta obejmuje też kwestie przedsiębiorczości, modeli konsumpcji, a zarazem warunków życia ludzi i ich poczucia szczęścia.
Dyskurs i refleksje na ten temat mają dziś specjalne znaczenie, tym bardziej, że niemal w skali globalnej zauważalny jest zanik kultury myślenia strategicznego, do czego przyczynia się wiele czynników, ale przede wszystkim charakterystyczne dla neoliberalnej doktryny założenie, że wystarczającym i efektywnym mechanizmem kształtowania przyszłości jest wolny rynek.
Jednak coraz bardziej złożona rzeczywistość przeczy temu, wskazując, że we wszystkich niemal sferach życia społeczno gospodarczego potrzeba strategicznego myślenia i futurologicznych refleksji jest tym większa, im większa jest niepewność działania i większe ryzyko popełniania błędów. Gdy bowiem świat jest nieprzewidywalny i pełen Talebowskich „czarnych łabędzi”, podstawową funkcją refleksji futurologicznej powinna być identyfikacja potencjalnych głównych trendów kształtujących przyszłość”.
Poniżej publikujemy jeden z komentarzy autorstwa dr. Jana Polowczyka, profesora UEP, z Instytutu Gospodarki Międzynarodowej Uniwersytetu Ekonomicznego w Poznaniu.
Prognozy trafne i chybione
Esej J.M. Keynesa z 1930 r. jest ciekawym zapisem historycznym osadzonym w ówczesnych realiach społeczno-gospodarczych Wielkiej Brytanii i przedstawiającym ramy poznawcze jednego z najważniejszych ekonomistów XX wieku. Celem Keynesa było „spojrzenie w dalszą przyszłość”, aby zbadać, jakiego poziomu życia gospodarczego można oczekiwać za sto lat.
Moje uwagi składają się z dwóch części. Po pierwsze, konfrontuję prognozę Keynesa z podobnymi prognozami, tylko sporządzonymi w drugiej dekadzie XXI wieku i oceniam trafność jego przewidywań dotyczących wzrostu dobrobytu. Po drugie, rozważam niektóre poglądy Keynesa z perspektywy współczesnej wiedzy ewolucyjno-behawioralnej.
Przewidywania dziesięciu ekonomistów
W roku 2013 nakładem Massachusetts Institute of Technology ukazała się książka Gospodarka za 100 lat. Najważniejsi ekonomiści przewidują przyszłość. Swoje prognozy przedstawiło w niej dziesięciu ekonomistów, m.in. nobliści: Robert J. Shiller, Robert M. Solow, Angus Deaton i Alvin E. Roth.(1) Niektórzy autorzy nawiązywali do omawianego eseju Keynesa. Poniżej skrótowo przedstawiam kluczowe wnioski wybranych czterech prognoz, koncentrując się na dwóch aspektach: jak uwzględniały czynniki zdrowotne (pandemiczne), które tak bardzo wpłynęły na gospodarkę światową w minionym roku, i czy można w nich doszukać się jakichś związków z prognozą Keynesa sprzed 90 lat.
Wizja każdego z dziesięciu autorów książki MIT różni się w związku z ich indywidualnymi zainteresowaniami. Książkę otwiera prognoza Darona Acemoglu, który szczególną wagę przywiązuję do wpływu rozwiązań instytucjonalnych na efekty gospodarowania. Punktem wyjścia jego rozważań jest niesłabnący wzrost gospodarczy w ciągu ostatnich dwóch wieków, a zwłaszcza w wieku minionym: jesteśmy średnio per capita około ośmiu razy bogatsi niż nasi przodkowie z początku XX wieku. Acemoglu zwraca uwagę na rosnące nierówności między najbogatszymi, a najbiedniejszymi krajami, ale jednocześnie podkreśla, że dzięki innowacjom w opiece zdrowotnej, nawet w najbiedniejszych krajach ludzie żyją znacząco dłużej niż w XIX stuleciu. Acemoglu nazywa ten proces rewolucją zdrowotną i przewiduje, że będzie trwać dalej.
Noblista Angus Deaton był mniej optymistyczny. Według niego możliwości wydłużania życia związane z dostatkiem pożywienia są na wyczerpaniu. Wydłużenie oczekiwanej długości życia wiąże się w dużym stopniu z mniejszą umieralnością dzieci, zwłaszcza w krajach biednych. Natomiast w krajach bogatych wynika z wydłużania życia dorosłych. Deaton podaje, że za większość zgonów odpowiadają dziś na świecie, z wyjątkiem Afryki Subsaharyjskiej, choroby niezakaźne, takie jak choroby serca i nowotwory, a nie infekcje wirusowe, które były największymi wrogami człowieka przez długi okres w historii.
Z kolei Edward L. Glaeser stwierdza, że w ciągu ostatnich 200 lat trzęsienia ziemi, cyklony czy powodzie nie zakłóciły poważnie długoterminowego wzrostu gospodarczego praktycznie żadnego kraju. Natomiast znacznie więcej szkód wyrządziły pandemie. Przynajmniej trzy razy w historii naszej cywilizacji choroby zakaźne pochłaniały ponad 25 mln ofiar (dżuma z czasów Justyniana w VI wieku, dżuma w Europie w XIV wieku, hiszpanka sprzed 100 lat). Według Glaesera, a także noblisty Alvina A. Rotha, największe prawdopodobieństwo przyszłej pandemii wiąże się z chorobami przenoszonymi drogą kropelkową, takimi jak grypa. Prawdopodobieństwo pojawienia się pandemii zwiększa zdolność wirusa grypy do mutowania się, co ogranicza możliwość ochrony za pomocą leków. Jednocześnie globalizacja ułatwi szybkie rozprzestrzenianie się infekcji na całym globie.
A zatem osiem lat temu spośród 10 wybitnych ekonomistów, tylko Roth i Glaeser dostrzegli niebezpieczeństwo pandemii, która obecnie tak dotknęła życie społeczeństw na naszej planecie. Keynes kwestią zagrożeń pandemicznych się nie zajął, chociaż dzisiaj, nas tak ciężko doświadczonych przez Covid-19 może to dziwić. Pisał przecież tylko 10 lat po pandemii hiszpanki, która według różnych szacunków zabiła od 50 do 100 mln ludzi, czyli więcej niż zginęło wskutek I wojny światowej.
Natomiast niewątpliwie Keynes trafnie przewidział długookresowy trend rozwojowy i trafnie zdefiniował jego wykładniczy wzrost, wykorzystując pojęcie „siły procentu składanego”. Słusznie zwrócił uwagę na przyszłe zjawiska takie jak bezrobocie technologiczne i problemy społeczno-obyczajowe z tym związane, np. kwestia czasu wolnego.
Trudno mi się zgodzić z opinią, że Keynes był zbyt optymistyczny co do przyszłości. Keynes sformułował swoją prognozę następująco: „Przewiduję, że za sto lat poziom życia w krajach rozwiniętych będzie od czterech do ośmiu razy wyższy niż obecnie”. D. Acemoglu w swojej prognozie, o czym wspomniałem powyżej, pisze o 8-krotnym wzroście średniego dochodu na osobę w skali światowej (przy stałym parytecie siły nabywczej w dolarach z 2010 r.).
Z kolei T. Piketty podaje dla lat 1913–2012 średnioroczną stopę wzrostu światowej produkcji na mieszkańca na poziomie 1,6%, co jak łatwo wyliczyć zgodnie z zasadą procentu składanego w skali 100 lat daje wzrost 5-krotny. Dla Europy ta sama stopa wzrostu wynosi 1,9%, co daje wzrost 6,5-krotny w skali 100 lat. Pamiętając o różnicach w sposobach mierzenia poziomu życia, i o tym, że Keynes nie brał pod uwagę wojen, trudno zgodzić się z poglądem, że był nadmiernym optymistą. Natomiast trzeba docenić wyczucie przez Keynesa trendu rozwojowego, oparte na wiedzy o naturze postępu technologicznego.
Emocje vs wiedza
J.M. Keynes jest uważany za jednego z pionierów podejścia ewolucyjnego, ale i behawioralnego: „ewolucyjnie zostaliśmy w szczególny sposób przygotowani przez naturę – ze wszystkimi naszymi impulsami i najgłębszymi pragnieniami – do radzenia sobie z problemem ekonomicznym”. Podobnie jak Schumpeter był przekonany, że „zdeterminowani przedsiębiorcy mogą zaprowadzić nas wszystkich na łono gospodarczego dostatku”.
Keynes w 1936 r., w swoim koronnym dziele Ogólna teoria zatrudnienia, procentu i pieniądza, wprowadził pojęcie zwierzęcych instynktów (animal spirits), które sprawiają, że „nasze działania – czy to w sferze moralności, czy zaspokajania potrzeb, czy gospodarki – w znacznej mierze zależą raczej od spontanicznego optymizmu niż od nadziei matematycznej. Prawdopodobnie większość naszych decyzji zdziałania czegoś pozytywnego (…) można rozpatrywać jedynie jako wynik zwierzęcych instynktów, jako wrodzony człowiekowi pęd do czynu (…), a nie jako średnią ważoną ilościowo wyrażonych korzyści mnożonych przez ilościowo wyrażone prawdopodobieństwa”.
Co więcej, Keynes stwierdził, że przedsiębiorczość opierająca się na zwierzęcych instynktach jest korzystna dla społeczeństwa, ponieważ „jej źródłem są nadzieje wybiegające w przyszłość”, a nie tylko kalkulacje.
Jednakże część poglądów Keynesa dotyczących ludzkich zachowań odbiega od współczesnej wiedzy ekonomii behawioralnej opartej na teorii perspektywy Daniela Kahnemana i Amosa Tverskiego. W omawianym eseju Keynes stwierdza, że „natura obdarzyła” nas orientacją na cel, co oznacza, że „bardziej interesują nas odległe przyszłe wyniki naszych działań”.
Z teorii perspektywy wynika coś zupełnie odwrotnego. Decydenci nie lubią strat dużo bardziej niż pożądają zysków. Bardziej nas boli zgubienie 100 zł niż cieszy znalezienie 100 zł. Wolimy mieć to co mamy, niż angażować się w niepewne zdobycie czegoś lepszego, o czym świadczy przysłowie „lepszy wróbel w garści niż gołąb na dachu”. Prezesi spółek giełdowych powinni myśleć dalekosiężnie, ale raporty kwartalne nie mogą nie zgadzać się z oczekiwaniami inwestorów. Ta krótkowzroczność była obwiniana za wszystkie kryzysy i skandale, które pojawiły się w spółkach giełdowych pierwszej dekady XXI wieku: od Enronu po Lehman Brothers. Problem rozłożenia preferencji w czasie sugeruje, że decydenci wolą od razu realizować zyski, niż je odraczać. Ale są pewne warunki dodatkowe.
W omawianym artykule Keynes przytacza pouczającą anegdotę o krawcu, który przychodzi do pewnego profesora. Krawiec dopomina się o zaległą zapłatę 2 tys. funtów. Profesor nie bardzo chce mu zapłacić i proponuje odroczenie zapłaty o rok, ale obiecuje, że zapłaci wtedy dwukrotność tej kwoty, czyli 4 tys. funtów. Krawiec się na to zgadza i odchodzi. Profesor to komentuje tak: „zawsze warto poczekać kolejny rok, aby dostać dwa razy więcej!”. I to akurat zgadza się z teorią Tverskyego i Kahnemana, którzy na podstawie badań laboratoryjnych stwierdzili, że aby zrównoważyć bieżącą stratę, przyszły zysk powinien być co najmniej dwa razy wyższy (loss-aversion coefficient wynosi co najmniej 2).
Czyli można wypuścić owego wróbla z garści i warto zaryzykować złapanie gołębia, ale pod warunkiem, że gołąb jest wystarczająco duży (i w domyśle, z tego powodu kiepsko fruwa).
Jan Polowczyk
Pełen tekst został opublikowany w Biuletynie PTE Nr 1/21 Niepewność i wizje przyszłości, dostępnym pod adresem biuletyn pte.pdf
(1) Dokładniej: laureaci nagród Banku Szwecji im. Alfreda Nobla w dziedzinie ekonomii.
Wyróżnienia i śródtytuły pochodzą od Redakcji SN.