Ekonomia (el)
- Autor: Marek Chlebuś
- Odsłon: 2585
Pieniądz dłużny, ten kamień filozoficzny XX wieku,
zdolny zamieniać papier w złoto, właśnie traci moc. Co dalej?
Lata tłuste, lata chude
Oto znowu mamy kryzys finansowy w USA. Nie pierwszy i nie ostatni. Był już kryzys paliwowy, była bańka internetowa, jest zapaść w kredytach hipotecznych, a gdy ta się skończy – będzie chwila uspokojenia, może entuzjazmu, aż przydarzy się jakiś nowy kryzys... Wydawałoby się, że to tylko cykle gospodarcze: po siedmiu latach tłustych przychodzi siedem lat chudych, po euforii – trwoga, a PKB to wolniej, to szybciej, ale ciągle rośnie; akcje drożeją, konta puchną, rozwój nie ustaje. Cóż – to prawda – rozwój, tyle że... choroby. Choroby pieniądza.
Dwieście lat temu, na początku XIX stulecia, za jednego dolara można było kupić około 1,6 grama złota; sto lat temu, na początku XX stulecia – półtora grama, i taka cena pozostawała aktualna aż do Wielkiego Kryzysu lat 30-tych, po którym siła nabywcza dolara ustabilizowała się na poziomie około 0,9 grama złota. Ten poziom utrzymywał się bez większych zmian aż do lat 70-tych, kiedy to dolar oderwał się od parytetu złota, po czym zaraz imponująco zanurkował. Pod koniec roku 1970 za dolara można było kupić 0,83 grama złota, a z końcem kolejnych lat: 0,71... 0,48... 0,27... 0,16...
Przez cały XIX wiek dolar stracił na wartości kilka procent, w ciągu dwudziestu lat Wielkiego Kryzysu i Wielkiej Wojny – siedemdziesiąt procent, a przez pierwsze kilka lat dysparytetu staniał pięćset procent. Z początkiem drugiego tysiąclecia dolar był wart 0,114 grama złota, na koniec siódmego roku tysiąclecia tylko 0,037. W obecnym, ósmym roku, dług publiczny USA może wzrosnąć dwukrotnie i proporcjonalnie do tego będzie mogło przybyć dolarów. Ile wtedy będzie można kupić złota za zielony banknot? Wciąż więcej niż setną część grama?
Jeśli wierzyć liczbom, a nie zaklęciom polityków czy finansistów, kryzys nabiera tempa i coraz bardziej wymyka się spod kontroli. Dolar odgrywa dziś centralną rolę w systemie finansowym świata. Kryzys dolara szybko musi stać się kryzysem światowym, dotykającym nawet tych, którzy w życiu nie widzieli zielonego banknotu. Różne diagnozy uwypuklają różne aspekty kryzysu, ale wszystkie można sprowadzić do tego, że na świecie jest za mało bogactwa, a za dużo pieniądza – oczywiście, jak zawsze, nie u wszystkich.
Krótka historia dolara
Imperialna kariera dolara jest krótka, liczy raptem sześćdziesiąt lat i chociaż jeszcze trochę potrwa – na dociągnięcie do pełnych stu lat panowania szansa jest niewielka. To będzie raczej krótka historia. A było to tak:
Globalnym mocarstwem wieku pary była Wielka Brytania, a światową walutą był brytyjski funt. Globalnym mocarstwem wieku ropy są Stany Zjednoczone i światową walutą jest amerykański dolar. Wiek ropy powoli się kończy, choćby dlatego, że kończy się ropa. To jednak nie oznacza od razu ani końca dominacji USA, ani nie unieważnia dolara. Oddanie światowego prymatu przez Wielką Brytanię wymagało w XX wieku dość mocnych argumentów: jednego Wielkiego Kryzysu i dwóch wielkich wojen, a trwało to wszystko trzydzieści lat, nawiasem mówiąc: dość okropnych lat. Należy uznać za bardzo wątpliwe, czy Ameryka da się zdetronizować łatwiej niż jej poprzedniczka, tym bardziej, że na razie nie ma komu.
Drugą Wojnę Światową zakończyły dwa wielostronne porozumienia: militarne w Jałcie i finansowe w Bretton Woods. Jałta dzieliła świat na polityczne strefy wpływów amerykańskich i rosyjskich zaś Bretton Woods ustanawiało światowy ład finansowy z uprzywilejowaną rolą USA. Z grubsza rzecz biorąc, banki centralne całego świata uznały za nadrzędny bank amerykański – FED, który dysponując zgromadzoną w USA większością światowego złota, wystawiał pokwitowania praw do tego złota, zwane właśnie dolarami. Każdy banknot dolarowy był równoważny 1/35 uncji, czyli 0,89 grama kruszcu. Takimi to banknotami banki centralne całego świata wypełniały swoje skarbce, traktując je jako lżejszy odpowiednik metalu. System ten załamał się na początku lat 70-tych, kiedy prezydent Nixon poinformował świat, że papier i złoto to jednak nie to samo.
Dolar pozostał mimo to centralną walutą świata, częściowo w wyniku instytucjonalnej oraz intelektualnej bezwładności, a częściowo dzięki narzuconemu alternatywnemu zabezpieczeniu na ropie, czyli zmonopolizowaniu rozliczeń naftowych przez tzw. petrodolara. FED był nadal centralnym bankiem centralnych banków, a dolar światową walutą rezerwową.
Ład jałtański stracił moc w roku 1989, choć nie jest pewne, czy się całkiem skończył, czy tylko uległ modyfikacji. Mniej więcej w tym samym czasie, rozpoczął się demontaż systemu petrodolara: powstało euro jako alternatywna waluta rezerwowa, a poszczególne kraje naftowe próbowały odchodzić od dolara, na którego wiarę trzeba je było nawracać z coraz większym wysiłkiem. W ciągu siedmiu lat ekspansji euro, dolar oddał jednak tylko kilka procent udziału w rezerwach bankowych, zmniejszając swój udział z 72% do 64%. Jest to na razie niewielka strata. W tym tempie, proces wypierania dolara przez euro musiałby trwać przeszło pół stulecia. To za długo. Tyle już dolar nie wytrzyma, przynajmniej – nie taki dolar.
Wszystkie pieniądze świata
System, który się właśnie zdestabilizował, wygląda co do istoty i w wielkim, ale chyba nie fałszującym uproszczeniu tak: kiedy rządowi USA brakuje pieniędzy, musi zaciągnąć dług. Stwarza wtedy obligacje skarbowe i (wprost lub okrężną drogą) wymienia je w amerykańskim banku centralnym, FED, na stwarzane tam dolary. Potem rząd pokrywa pozyskanymi od FED dolarami różne wydatki, a FED sprzedaje pozyskane od rządu obligacje na rynku, teoretycznie już za inne, ale faktycznie za takie same dolary, jakimi wcześniej płacił rządowi.
W warunkach równowagi FED pozyskuje dla siebie najwyżej tyle pieniędzy, ile ich wcześniej wytworzył dla rządu. Ilość pieniędzy banku centralnego jest więc powiązana z ilością obligacji skarbowych i przez nią limitowana. Gdyby rząd sam odkupił te swoje obligacje od banku centralnego, zniknąłby i dług publiczny, i pieniądz. Ale wtedy cała formuła za szybko redukowałaby się do skądinąd słusznej postaci: 0=0.
Dolary FED trafiają do banków komercyjnych, w których są rozmnażane, jako że banki wydają swoim kredytobiorcom wielokrotność posiadanych pieniędzy. Dolary banków komercyjnych powstają w momencie udzielenia kredytu, a ich zabezpieczeniem są przyszłe spłaty kredytobiorców, którzy tym samym, gdy zaciągają kredyt, stają się gwarantami bankowego pieniądza.
Kreacja pieniądza w bankach komercyjnych jest – z natury – ograniczona przez zadłużenie kredytobiorców, a prawnie – przez rezerwy obowiązkowe FED: banki muszą bowiem pewną część swoich pieniędzy deponować w pieniądzu FED. Część tę określa stopa rezerw FED, która – de facto – mówi, ile bank komercyjny musi mieć pieniędzy, aby pożyczyć 100 dolarów. Teoria finansów nazywa to rezerwą częściową. Zazwyczaj stopa rezerw wynosi mniej niż 10%, dlatego większość dolarów powstaje w amerykańskich bankach komercyjnych.
W podobnej sytuacji (do banków komercyjnych w USA) są banki centralne innych krajów. One także przechowują rezerwy dolarów, mniej więcej proporcjonalnie do wielkości tych rezerw emitując własne waluty, równolegle powiązane z długiem publicznym ich państw. Banki komercyjne tych krajów dalej rozmnażają swoje waluty – z takim mnożnikiem, ile razy stopa rezerw ich banku centralnego mieści się w stu, zazwyczaj jest to od kilku do kilkudziesięciu razy, a więc głównie tam, w bankach komercyjnych, powstają wszelkie waluty.
Patrząc od drugiej strony: nie będąca dolarem waluta powstaje w (nieamerykańskim) banku komercyjnym po prostu w taki sposób, że bank udziela kredytu. Proceder ten jest ograniczony przez stopę rezerw banku centralnego (dla danej waluty) oraz zasób pieniądza banku centralnego. Z kolei pieniądz banku centralnego powstaje, kiedy ten udziela pożyczki swojemu państwu, a pożyczka ta jest limitowana (głównie) przez zgromadzone w banku centralnym rezerwy dolara.
Podobnie kreują pieniądz, tym razem już dolara, banki komercyjne w Ameryce, stwarzając swoje dolary dla kredytobiorców w ilości ograniczonej przez stopę rezerw obowiązkowych oraz zasób dolara FED. A na samym szczycie tej piramidy FED produkuje swoje dolary w miarę, jak rząd USA produkuje obligacje, wyrażające dług publiczny USA. Każdy pieniądz powstaje jako czyjś dług – w ilości powiązanej z kolejnymi długami, ograniczonymi przez jeszcze inne długi, i tak dalej – aż do jądra tego wszystkiego, którym jest dług USA.
Pieniądz i równowaga
Teoretycznie, kreacja pieniądza jest pod wielopiętrowym nadzorem rządów oraz banków. Pieniądz powstaje jako obustronnie dobrowolny dług w tempie kontrolowanym i przez dłużników, i przez wierzycieli. Cały ten mechanizm reguluje kilka rodzajów liczb, dekretowanych przez rządy i banki, a główne parametry kontrolne wyznaczają rząd USA oraz FED, regulujące światowy zasób dolara. Wydawałoby się, że system jest pod tak ścisłą odgórną kontrolą, że bez jakichś kardynalnych błędów w sterowaniu powinien pozostawać w równowadze.
Jak zapewniają finansiści, system ma też wbudowany silny mechanizm kontroli oddolnej, stwarzany przez prawny wymóg, aby ilość udzielonych kredytów była równa ilości posiadanych przez banki depozytów. Miałoby to ograniczać rolę banków, które jakoby tylko pośredniczyły pomiędzy tymi, którzy mają nadwyżki pieniędzy (depozytariusze), a tymi, którym pieniędzy brakuje (kredytobiorcy).
Wydawałoby się to sprzeczne z postawioną wyżej tezą, że banki mogą pożyczać więcej pieniędzy, niż ich mają. Kiedy jednak spojrzeć na to zdroworozsądkowo, to zbilansowanie kredytów i depozytów można interpretować tak, że skoro praktycznie wszyscy trzymają swoje pieniądze na rachunkach bankowych i skoro praktycznie każdy pieniądz wyraża czyjś kredyt, to arytmetyczna równość sum kredytów i depozytów (w całym systemie) jest tylko potwierdzeniem definicji pieniądza. Byłaby to zatem tylko taka niezobowiązująca tautologia ku pocieszeniu mniej wnikliwych.
Pieniądz to nie tylko dług, ale jeszcze: dług oprocentowany. Odsetki od tego długu, też zresztą regulowane przez banki centralne, muszą być corocznie pokrywane z nadwyżek dochodów państwa (i kredytobiorców) nad kosztami, a jeżeli tych nadwyżek nie ma i odsetki nie są płacone, dopisuje się je do długu, który wtedy rośnie. Dalej, wraz z kapitałem, odsetki wchodzą do cen, stopniowo je powiększając i tworząc inflację.
Inflacja z kolei powoduje, że ciągle ta sama gospodarka, nawet przy niezmiennych produkcjach i obrotach, potrzebuje coraz więcej pieniędzy, czyli znowu długu. Stale go więc przybywa, a zapotrzebowanie na pieniądz zaczyna wyznaczać procent składany, który z natury rośnie wykładniczo. Tak też (przy deficytowych budżetach) musi rosnąć dług publiczny i prywatny, poprzez swoje oprocentowanie dalej powiększając ceny – i mamy coś, co w cybernetyce nazywa się dodatnim sprzężeniem zwrotnym: długi nakręcają się same i rosną, przewyższając wszelkie racjonalne wartości. Nazywanie tego wzrostem czy postępem jest trochę mylące.
Rosnące zapotrzebowanie na pieniądz obiegowy można alternatywnie zaspokajać bez zwiększania długu, po prostu przyśpieszając obieg pieniądza. Ten sam pieniądz może być bowiem użyty wielokrotnie. Pieniądz skarbcowy, na przykład złoto, zmienia właściciela rzadko, raz na ileś lat, pieniądz papierowy wchodzi do obiegu raz na ileś dni, ale pieniądz elektroniczny – ograniczany już tylko szybkością elektronów – może być użyty setki razy dziennie.
Ponieważ cyrkulację pieniądza w rzeczywistej gospodarce limituje prawdziwy ruch towarów i usług, a ten podlega ograniczeniom fizycznym, biologicznym i społecznym, szybki pieniądz jest wypychany tam, gdzie równie szybki może być obrót, to znaczy na giełdy oraz rynki finansowe, zasysając na nie większość inflacji i wbudowując ją we wzrosty indeksów, które tym samym mierzą, owszem, rozwój, ale nie gospodarki, lecz hiperinflacji.
Gdyby budżety państw, przedsiębiorstw i konsumentów były zrównoważone, to znaczy gdyby ich dochody przewyższały koszty przynajmniej o kwotę odsetek od koniecznego (dla wytworzenia pieniądza) długu, system pieniądza dłużnego mógłby być stabilny. Inaczej mówiąc, gdyby rządy i banki - albo chociaż gospodarki – stanowiły oazy powściągliwości oraz roztropności, wtedy działałyby systemowe mechanizmy stabilizacji. Jednak w sytuacji niedostatku cnót, system pieniądza dłużnego łatwo popada w nierównowagę, a wtedy wprowadza do finansów wykładniczy wzrost, który – gdy nabiera tempa – objawia się jako kryzys.
Alternatywnie, gdyby gdzieś za pieniądzem stało chociaż ziarno zboża, albo kropla wody przypisana do jednostki monetarnej, system zyskiwałby wewnętrzne mechanizmy stabilności, nie odwołujące się do cnót. Byłoby to może mniej optymistyczne, ale za to bezpieczniejsze i chyba uczciwsze.
Czyj pieniądz?
Pieniądz zawsze się zużywa, jeden szybciej, inny wolniej, ale każdy obiegowy pieniądz traci z czasem na wartości. Pieniądz kruszcowy ma coraz gorszą wagę lub próbę, pieniądz papierowy ma coraz mniejsze pokrycie w złocie, pieniądz rządowy jest co jakiś czas unieważniany, albo denominowany. Niezależnie od teorii, taka jest nieubłagana praktyka finansów: moc pieniądza jest nietrwała.
Dzisiaj świat traci wiarę w moc dolara. Na co jednak miałby swoją wiarę przenieść? Na euro, franka, funta, rubla, juana? A czym się one od dolara różnią? Chyba tylko tym, że gdzie indziej lokalizują ten sam problem. Praktycznie wszystkie światowe waluty mają taki sam mechanizm kreacji, przypisany do długu. Im więcej pieniądza domaga się gospodarka, tym więcej emitent musi wykreować długu. Kiedy waluta staje się światowa, światowej miary staje się zadłużenie – i kraju emitenta, i jego obywateli, a precyzyjniej mówiąc – klientów jego banków. Euro, frank, funt, rubel, juan – to byłyby tylko alternatywne nazwy kredytu, który i tak nie będzie spłacony.
Jeżeli waluta nie jest naturalna jak zboże, paliwo czy złoto, jeśli sama przez się ani nie zaspokaja ludzkich potrzeb, ani nawet nie jest pożądanym dobrem rzadkim, wiarę w moc i unikalność waluty trzeba ludziom narzucić. Służą temu policje i armie, strzegące w kraju i za jego granicami monopolu kreacji pieniądza. Pieniądz jest wtedy oparty po prostu na sile. Teoretycy finansów nazywają to fiat money, co niekoniecznie jest komplementem.
Im silniejszy politycznie jest emitent, tym bardziej śmieciowy może narzucić pieniądz. Dzisiaj może to być nawet jakaś postwaluta, od zawsze zdematerializowana, oparta wyłącznie na ewidencji kont, po prostu jedna z funkcji globalnej Sieci. W czym byłaby nominowana? Cóż, zero to zawsze zero: zero metrów, zero kilogramów, zero dolarów, zero euro. Można by od razu nazwać taką walutę: zero. Czego zero – to nieważne, ale czyje zero – to już zaczyna się liczyć, bo definiuje może nietrwałe, ale gigantyczne centrum zysku.
Global, kredyt, amer, dolar, mili, micro albo soft – jakkolwiek miałby się nazywać, globalny pieniądz będzie na razie amerykański. Póki Stany Zjednoczone mają większość atomowych głowic świata i póki są gotowe ich użyć, wystarczające zabezpieczenie amerykańskiej waluty może stanowić wzbogacony uran. Jak długo? Tu jednoznacznej odpowiedzi nie umiem udzielić, mogę tylko przytoczyć (i podtrzymać) swoją diagnozę z 2005 roku, zamieszczoną w książce „Planeta obiecana, studium globalizacji”, rozdział „Świat bez Lewiatana”:
„Wzór stabilności świata oparty na supremacji USA wydaje się realistyczny i wysoce prawdopodobny, przynajmniej w perspektywie pierwszego półwiecza. Później staje się jednym z możliwych i niespecjalnie wśród nich uprzywilejowanym scenariuszem. Hegemonia USA może jednak ustać znacznie wcześniej, nawet w najbliższym dziesięcioleciu.
Finanse USA są dramatycznie nierównowagowe (...).
Zawieszone renty i emerytury, kontrolowany popyt, reglamentacje, rekwizycje, kontrybucje i inne cechy gospodarki sterowanej, zwłaszcza wprowadzone w warunkach pokoju, mogłyby silnie nadszarpnąć wiarę Amerykanów w Amerykę i amerykański pomysł na urządzenie świata. Wojny daleko od granic nie pobudzą, ani nie wystraszą ludzi wystarczająco, aby uzasadnić wyrzeczenia. Potrzebne będzie zagrożenie bezpośrednie na terenie USA, jakiś silny konflikt wewnętrzny, poważny terroryzm, napaść nuklearna.
To jednak z jednej strony osłabiłoby USA, z drugiej – mogłoby szybko wyczerpać nagromadzone zasoby patriotyzmu.
Wewnętrzna słabość Ameryki, zwłaszcza zaś zwątpienie w sercach Amerykanów, podobne do tego, które niedawno dotknęło Rosjan, to klimat końca hegemonii. Strategiczny sojusz z USA przestanie być dla Rosji tak atrakcyjny jak dzisiaj. Rosja z jej potencjałem strategicznym stanie się chorą, lecz posażną panną na wydaniu, same zaś Stany będą musiały wielokrotnie ograniczyć koszty utrzymania swojego potencjału, a tym samym jego wielkość. Im później to nastąpi, tym mniej powinno być groźne, bo mniej pozostanie pretendentów do statusu globalnego mocarstwa. W połowie stulecia uzasadnione ambicje globalne będą już chyba miały oprócz Ameryki tylko Chiny i być może Indie, jeśli jakoś uwolnią się od klinczu z islamem. I może Europa, jeśli zdąży zyskać głowę.”
Jaki pieniądz?
Kruszec ściera się i traci wagę, zboże zjadają szkodniki, chleb wysycha, sól namaka, a tytoń wietrzeje. Żadne dobra materialne nie są wieczne. Pieniądz także nie. Jednak pieniądz naturalny, nominowany w jakichś dobrach lub wprost nimi będący, w odróżnieniu od pieniądza dłużnego, nie prowokuje nierównowagi. To wszystko. Tylko i aż tyle.
Ekonomiści „od zawsze” poszukiwali stabilnej miary wartości, niezależnej od dekretów, mód, albo koniunktur. Bywała nią ziemia, bywały woły, bywało zboże, bywało złoto, bywała dniówka, bywał mniej lub bardziej wydumany koszyk dóbr. Dzisiaj, samorzutnie i niepostrzeżenie, uniwersalną miarą wartości staje się po prostu energia, łatwa do przetłumaczenia na paliwo, prąd, głowice atomowe, ciepło, światło, ziemię, żywność – same najważniejsze rzeczy.
Całe materialne bogactwo ludzi to Ziemia, a praktycznie cała dostępna nam energia pochodzi od Słońca, które opromienia Ziemię nieprzerwanym strumieniem mocy o wielkości przeszło stu milionów gigawatów. Daje to ponad tysiąc watów na metr kwadratowy, średnio dwanaście kilowatogodzin na dobę. Dzienne potrzeby człowieka – w strefie umiarkowanej i przy przeciętnym poziomie aktywności oraz zamożności – są porównywalne z energią słoneczną dochodzącą do kilku metrów kwadratowych gruntu. Jedzenie to odpowiednik ćwierci metra, zużycie elektryczności – ponad pół metra, ogrzewanie – metra, transport – trochę powyżej metra.
Na żyjącą dziś osobę przypada (bez Antarktydy) przeszło dwa hektary powierzchni lądów. Rolnictwo angażuje z tego mniej niż ćwierć hektara na grunty orne oraz przeszło pół hektara na łąki i pastwiska. Roczna produkcja per capita to 340 kg zbóż, 50 kg ziemniaków, 29 kg manioku, 28 kg soi, 20 kg cukru, 38,7 kg mięsa, 80,5 kg mleka, 8,6 kg jaj, 15,7 kg ryb. I jeszcze pół metra sześciennego drewna, po pół tony węgla oraz ropy i trochę innych surowców. Tak naprawdę, niczym więcej nie możemy rozporządzać.
Ciało dorosłego człowieka zabiera ze strumienia światła słonecznego około metra kwadratowego. Tyle więc każdemu naturalnie przysługuje, dopóki żyje i póki go ktoś nie zamknie w ciemnicy. Gdyby tak nadać średniej dobowej energii słonecznej na metr kwadratowy nazwę sol, jej wielkość nawiązywałaby i do Słońca, i do Ziemi, i do doby życia człowieka, a nazwa zarówno do Słońca, jak do najlepszej waluty w historii, złotego solidusa, wprowadzonego jeszcze przez cesarza Konstantyna i dominującego w Europie przez przeszło tysiąc lat – aż do upadku Konstantynopola.
Sol wynosiłby jakieś dwanaście kilowatogodzin, około dziesięciu tysięcy kalorii, ponad czterdzieści megadżuli. Byłby równoważny (energetycznie) mniej więcej trzem kilogramom zboża, niecałym dwóm kilogramom węgla, przeszło litrowi benzyny i ponad miligramowi czystego uranu. Według dzisiejszych cen, odpowiadałby mniej więcej jednemu dolarowi i trzydziestu paru miligramom złota, ale byłby od obydwu znacznie lepszym pieniądzem.
Energia jako waluta nie podlegałaby inflacji ani fałszerstwom. Poza tym, wymuszałaby zachowania ekologiczne, gdyż nominowany w energii pieniądz niewiele się różni od opłaty za korzystanie ze środowiska. Dodatkowo, pozwalałaby na niesamowitą optymalizację spraw publicznych i finansowanie zadań państwa bez żadnych podatków czy opłat, a tylko w oparciu o konieczny i właściwie naturalny monopol energetyczny, odpowiadający dzisiejszemu przywilejowi druku pieniądza. Obciążenia fiskalne ludności zmalałyby kilkakrotnie... no, w każdym razie mogłyby zmaleć.
A co ze złotem? Czyżby jego blask miał całkiem zgasnąć? Raczej nie. Jest niezastąpione w elektronice, łatwo podzielne i trwałe. Poza tym, przyciąga wzrok, wabi kobiety, podnieca skąpców – nasz gatunek ma jakąś słabość do złota. Złoto jest jednak pieniądzem mało praktycznym. Jest zbyt wartościowe dla codziennych rozliczeń, a zbyt tanie dla przenoszenia dużych wartości. Cena dobrego domu - pół miliona dolarów - to wprawdzie tylko litr złota, lecz waży aż 20 kilo. Dość trudno byłoby to nosić. Przy wielkich transakcjach, lepszym pieniądzem są standaryzowane diamenty, akumulujące tysiące razy większe niż złoto wartości na jednostkę masy. To jednak waluty bogatych.
A co z najbogatszymi? Oni też mają swój metal: uran, z którego wyrabia się insygnia najwyższej władzy. Ma on bowiem tę fascynującą właściwość, że zgromadzony w odpowiedniej ilości, samorzutnie wybucha, wywołując imponujące zjawiska atmosferyczne i geologiczne, a przy tym gwałtownie zwiększając rangę tego osobnika, albo instytucji, która taki fajerwerk potrafi wywołać. Najmniejsza bomba potrzebuje jednak dziesiątek kilogramów uranu, a to odpowiada gigantycznym energiom i kosztom. Uranowe berło jest za drogie, żeby je marnować na fajerwerki. Na szczęście. Na razie.
Co zatem?
Najbardziej naturalnym i najrozsądniejszym pieniądzem byłaby po prostu energia. Na pierwszy rzut oka, może się ona wydawać mało poręczna: chodzenie po chleb z koszykiem węgla czy butelką ropy pewnie by się łatwo nie przyjęło, ale z ogniwami elektrycznymi już prędzej, a z kodami dostępu czy elektronicznymi kluczami do przyłączy energetycznych – to już naprawdę żaden problem.
Energia nie wymaga konwencji, indoktrynacji ani przymusu; przyjmą ją chętnie nie tylko ludzie, ale też w postaci światła – rośliny, w postaci pokarmu – zwierzęta, w postaci paliw – maszyny. I w końcu: jakość energii chroni fizyka, a ta nie uznaje perpetuum mobile, przez co jest z natury niepodatna na kuglarstwo finansistów i na demagogię polityków. To wiele.
Marek Chlebuś
Warszawa, 2008
Źródło: http://chlebus.eco.pl/ECOSOC/pieniadz.htm
- Autor: Krystyna Hanyga
- Odsłon: 3146
W pierwszych miesiącach roku, kiedy zbliżał się termin rozliczeń podatkowych i organizacje zainteresowane pieniędzmi z odpisu 1% rozwinęły wielką kampanię reklamową. Ożywiła się też dyskusja, czy wprowadzenie statusu organizacji pożytku publicznego i mechanizmu alokacji części podatku przyniosły oczekiwane skutki społeczne, czy nie ma w tym zbyt wielu nieprawidłowości.
Na dobrą sprawę, brakuje gruntownych badań tego sektora, oceny są formułowane na podstawie wskaźników ilościowych. W ub. roku przeprowadzone zostało pierwsze w Polsce badanie wpływu statusu OPP na działalność organizacji pozarządowych w Polsce (zlecenie Forum Darczyńców, reprezentatywna próba 400 OPP). Potwierdziło się, że status OPP jest traktowany instrumentalnie, daje korzyści materialne i także wizerunkowe, ale trzeba w to zainwestować. Prawie 2/3 badanych organizacji akceptuje wskazywanie konkretnej osoby, na którą przeznacza się 1%. Ludzie wolą personifikować cel, wpłaty są wtedy większe. Rzeczywiście, dzięki dopływowi pieniędzy, organizacje mogły zwiększyć zakres działania, przy czym dynamika przychodów była znacznie wyższa u tych, które wcześniej uzyskiwały wysokie wpływy. Duże i bogate są bogatsze, mniejsze tracą, co grozi im marginalizacją, mimo iż lokalnie mogą odgrywać istotną rolę. Zdaje się, że niekiedy pożytek publiczny ustępuje pod naciskiem mechanizmów rynkowych. Pora na zmiany?
Z prof. Jerzym Hausnerem, inicjatorem i współtwórcą ustawy o działalności pożytku publicznego i wolontariacie z 2003 roku, rozmawia Krystyna Hanyga.
- Panie Profesorze, czy jest Pan zadowolony z funkcjonowania tej ustawy? Czy praktyka nie odbiega od zamierzeń i celów?
- Argumentem wskazującym, że jest to dobra ustawa, było to, że została znowelizowana dopiero po kilkuletnim okresie funkcjonowania. Jest to rzecz rzadka jak na polskie ustawodawstwo, ponieważ ustawy są na ogół pospiesznie nowelizowane, co świadczy o ich niezbyt solidnym przygotowaniu. Ta była przemyślaną legislacją, dosyć długo i starannie przygotowywaną, a nowelizacja jest zawsze potrzebna, bo autorzy muszą swoje zamierzenia skonfrontować z praktyką.
Jako drugie kryterium oceny można przyjąć to, czy ustawa jako systemowe rozwiązanie prawne poprawiła warunki działania organizacji pozarządowych w Polsce. Jestem głęboko przekonany, że tak. Inna kwestia, że nie sprawdziły się wszystkie zapisy ustawy, dlatego była potrzebna taka uzupełniająca, po części korygująca nowelizacja. Nie było to jakieś zasadnicze odrzucenie jej idei czy nawet konstrukcji.
W ustawie było zawarte pewne rozwiązanie dotyczące współpracy organizacji pozarządowych z samorządem, z władzą publiczną. Ta współpraca nie nabrała oczekiwanego kształtu, ale, moim zdaniem, jest to proces dochodzenia do partnerstwa, proces operacjonalizacji, upraktycznienia konstytucyjnej zasady pomocniczości państwa. Niektóre samorządy rzeczywiście traktują organizacje pozarządowe jako partnera, inne poszły w nienajlepszym kierunku i przyjęły postawę instrumentalnego traktowania organizacji jako swoich klientów, a nie samodzielne podmioty. Niektóre pozorują współpracę, sprowadzając ją do dostarczania minimum informacji. Tak więc sytuacja w kraju jest bardzo różna, ale ten proces jednak dokonuje się.
Sumując, mogę powiedzieć, pomysł tej legislacji obronił się, co nie znaczy, że obroniły się wszystkie przepisy i rozwiązania. Nie wypowiadam się generalnie na temat funkcjonowania organizacji pozarządowych, bo to jest zupełnie inna sprawa.
- Ta ustawa miała przynieść aktywizację społeczną obywateli. Tymczasem mechanizm 1%, choć bardzo ważny dla organizacji pozarządowych, wyzwolił równocześnie inne mechanizmy i postawy, które na pewno nie były jej celem. Pojawiły się patologie, które psują wizerunek trzeciego sektora. To prawda, wzrasta liczba wpłat z odpisu 1% podatku dochodowego, ale nie w wyniku przemyślanych decyzji, a raczej pod wpływem marketingu, reklamy, odwoływania się do litości. Mocno dyskusyjny jest także sposób dysponowania tymi środkami.
- Możliwość odpisu 1% podatku od dochodów osobistych jest częścią większej konstrukcji, to nie jest samoistny mechanizm. Początkowo mało obywateli korzystało z tego rozwiązania, teraz ich liczba zwiększa się z roku na rok. Po drugie, organizacje pozarządowe mają coraz większe finansowanie. Nie jest ono wielkie, jednak dzięki temu mechanizmowi do organizacji pozarządowych dociera kilkaset milionów złotych. Natomiast nie podoba mi się w tym mechanizmie przede wszystkim indywidualizacja, sytuacja, w której to, co miało być działaniem obywatelskim, z przeznaczeniem dla kogoś anonimowego, na pewien cel społeczny, na organizację, stało się w jakiejś części darowizną dla konkretnej osoby.
- Organizacje pożytku publicznego w większości akceptują możliwość indywidualizacji, a nawet ją popierają. To przysparza pieniędzy.
- Powstały organizacje, które są fikcją, służą do transferu pieniędzy, są swego rodzaju kasą transferową. To łamanie idei ustawy i nie powinno być dopuszczone. Ten problem jest coraz poważniejszy, ale również nie podoba mi się, że obywatele często dysponują tym 1% w sposób mechaniczny, ich decyzje są przypadkowe, wynikają z jakichś podsuniętych informacji, są podporządkowane marketingowi. Np. jedna z organizacji rozprowadzała wzory oświadczenia podatkowego z wpisanym swoim numerem konta i zebrała najwięcej pieniędzy. To jest konsekwencja tego, że pewne rozwiązania i mechanizmy tej ustawy nie zostały właściwie zastosowane. Od razu też powiem, że moje wyobrażenia o liczbie organizacji pożytku publicznego całkowicie rozeszły się z tym, co jest. Myślałem, że będzie kilkaset takich organizacji, że będą to duże organizacje, z tradycją i pewnym dorobkiem. Okazało się, że jest ich kilka tysięcy.
- To miała być elita… Zbyt łatwo przyznaje się ten status, zaniżone zostały kryteria.
- Mam wrażenie, że polityka władz sądowych w tej sprawie szła po linii najmniejszego oporu. Każdy, kto przyniósł papiery, otrzymywał rejestrację, system sądowniczy potraktował to całkowicie formalnie, nie wgłębiając się w stronę merytoryczną. Przyznanie statusu organizacji pożytku publicznego okazało się po prostu rejestracją. W związku z tym powstało wiele organizacji, które nie są w stanie wypełnić wynikających ze statusu obowiązków, a powstały po to, żeby sięgnąć po ten 1%. Widać już nawet, że te, które nie odnoszą sukcesów w zdobywaniu pieniędzy, często rezygnują ze statusu OPP, bo daje on prawa, ale właśnie nakłada też obowiązki. Uważam, że ich egzekwowanie i sprawdzanie, czy dana organizacja jest w stanie wywiązać się z nich, nie do końca zostało dopełnione. To też jest punkt do weryfikacji.
- Budzi sprzeciw fakt,, że niektóre organizacje pożytku publicznego niemałe pieniądze, pozyskane z tego 1%, przeznaczają na wielkie kampanie reklamowe, billboardy, plakaty, ulotki, reklamy w mediach. Za niezdrową sytuację można również uznać powstanie całego biznesu do obsługi beneficjentów 1%, żerującego na hojnie obdarzanych.
- To znaczy, że pewna część organizacji istnieje właśnie ze względu na ten mechanizm 1% i że przeznaczają znaczną część swoich dochodów na pozyskiwanie tych pieniędzy. Służy to ich istnieniu a nie realizacji celów statutowych. To jest powód dla ustawodawcy, by wprowadzić ograniczenia limitowe, ile można przeznaczyć na marketing, i jednocześnie zażądać rzeczywistej sprawozdawczości. W ostatnim okresie skreślono z rejestru trochę organizacji pożytku publicznego, które nie dostarczyły w odpowiednim czasie swoich sprawozdań. Te sprawozdania powinny być zresztą rozpatrywane nie tylko w kategoriach czysto formalnych, ale także poddane pewnej weryfikacji, choćby nawet selektywnej, aby nie tworzyć do tego nowej armii urzędników.
Moim zdaniem, sektor organizacji pozarządowych nie wytworzył pewnych zasad wewnętrznych, opartych nie na ustawach, tylko swego rodzaju samorządności i samoregulacji. W ustawie jest zapisana Rada Działalności Pożytku Publicznego, która w 1/3 składa się z przedstawicieli tych organizacji. Można ich uznać za reprezentację środowiska i na tych osobach powinien ciążyć obowiązek rozpoczęcia wewnętrznej uczciwej debaty o negatywnych, patologicznych działaniach, które mogą podważać wiarygodność OPP. Oprócz korygowania legislacji i praktyki wynikającej z ustawy, bardzo potrzebny jest ten obszar krytycznej refleksji, samokontroli, samoregulacji mających charakter bardziej etyczny i społeczny niż formalny i urzędniczy.
Chciałem także zwrócić uwagę, że jedną z takich patologii jest to, że media, także komercyjne mają własne organizacje działalności pożytku publicznego i wykorzystują swoją przewagę marketingową i reklamową do autopromocji. Nie mam nic przeciwko tym fundacjom, ale jest tu nierówność szans, jeśli istnieje Fundacja Polsatu czy TVN, korzystające w istocie rzeczy z quasi reklamy społecznej.
- Trzeba zmienić system finansowania działalności pożytku publicznego?
- Organizacje pozarządowe w zbyt dużym stopniu bazują na środkach publicznych, a w związku z tym uzależniają się od władzy publicznej. Powinny mieć możliwość pozyskiwania środków własnych. Rozwiązaniem, które parę lat temu zaproponowałem, jest ustawa o przedsiębiorczości społecznej. Dawałaby ona także organizacjom pozarządowym dodatkowe możliwości prowadzenia działalności gospodarczej w celach społecznych, w formie przedsiębiorstwa społecznego, usamodzielniała je, upodmiotowiała. Niepokoi mnie również, że te organizacje w swoich działaniach są szalenie zorientowane na środki unijne, a przecież będzie ich z czasem mniej, a za jakiś czas może w ogóle nie będzie. Czy to oznacza, że zaniknie ta forma aktywności obywatelskiej? Organizacje nie profilują się, nie budują swego środowiska, misji, zdolności do działania, one po prostu krążą między różnymi źródłami środków publicznych, a to powoduje, że nie wypełniają swoich statutowych funkcji. Te wszystkie problemy sprawiają, że trzeci sektor nie rozwija się z taką dynamiką, jak chcielibyśmy, i w taki sposób, który służy budowie społeczeństwa obywatelskiego, kapitału społecznego i rozwojowi.
System finansowania publicznego musi być możliwie prosty, przejrzysty, sprawny. Pamiętajmy jednak, że rozwój organizacji pozarządowych nie może wyłącznie opierać się na finansowaniu publicznym, ale również w jakiejś części na odpłatności, indywidualnej dobroczynności, własnej aktywności, działalności gospodarczej. W Polsce właśnie te inne mechanizmy nie rozwijają się, co powoduje, że to skrzywienie i patologie stają się mocniejsze. Skorygujmy to! – to zadanie dla ustawodawcy, ale także dla sektora i jego reprezentacji. Więc sumując, zbiorowe doświadczenie w funkcjonowaniu tego systemu powinno nas skłaniać do dokonania teraz pogłębionej refleksji i istotnych korekt. I uchwalenia ustawy o przedsiębiorczości społecznej.
- W środowisku organizacji pożytku publicznego i ich otoczeniu trwa dyskusja na temat anomalii w funkcjonowaniu sektora, a stanowiska są bardzo różne. Jedni uważają, że należy wzmóc kontrolę, nadzór, inni – przeciwnie, że te nieprawidłowości są skutkiem nadmiernej regulacji, która utrudnia działalność. Są również opinie, że należy zlikwidować status OPP i wtedy problemów nie będzie. Na skuteczną kontrolę społeczną trudno liczyć, obywatele są nie tylko mało aktywni, ale też pojęcie pożytku publicznego czy dobra wspólnego to dla wielu kategorie dość abstrakcyjne.
- Przed ustawą o działalności pożytku publicznego w Polsce istniały przepisy pozwalające na samoorganizację. Istniała ustawa o fundacjach, prawo o stowarzyszeniach i bardzo długo część środowiska uważała, że nie są potrzebne żadne nowe rozwiązania. W moim przekonaniu, problem polegał na tym, że w Polsce świat władzy publicznej i świat społeczeństwa obywatelskiego, organizacji pozarządowych jako organizacji obywatelskich były od siebie całkowicie odwrócone. Działalność była finansowana głównie ze środków zagranicznych i szczególny opór w stosunku do wprowadzenia nowego ustawodawstwa wyrażały silne organizacje, zbudowane za środki zagraniczne, które chciały utrwalić swoją monopolistyczną pozycję. W związku z tym chodziło nie tyle o stworzenie nowego typu organizacji pozarządowych, co pewnego statusu, o który mogą się ubiegać istniejące i nowe organizacje. Statusu, który pozwalał wchodzić w bardziej zaawansowaną współpracę z władzą publiczną, szczególnie samorządami terytorialnymi.
Idea była taka: jeden porządek to jest porządek samoorganizacji, drugi to uregulowane według pewnych zasad współdziałania samorządnych, samodzielnych organizacji pozarządowych z władzą publiczną. Uważam, że elementem tego powinien być status OPP. Tu nie widzę żadnego powodu rewidowania konstrukcji jako takiej, natomiast bardziej istotne elementy do rewizji są związane z praktyką.
Dzisiaj problemem nie jest tylko to, jak zapewnić organizacjom bieżące finansowanie, roczne czy krótsze, ale w jaki sposób mogą one budować swój żelazny kapitał, który wyposażyłby je w zdolność do prowadzenia działalności, aby były uniezależnione od koniunkturalnego finansowania projektowego. Organizacje potrzebują też bazy lokalowej. Myślę, że w małych i średnich miejscowościach gmina będzie zmierzać do tego, żeby istniały swego rodzaju domy inicjatyw obywatelskich, aktywności obywatelskiej, gdzie różne organizacje pozarządowe będą miały miejsce dla siebie, będą razem gospodarzyły, gdzie będzie prowadzona działalność kulturalna, edukacyjna czy inna.
Uważam, że dzisiaj dla rozwijania tego ruchu brakuje wielu narzędzi, np. możliwości pozyskiwania pożyczek i poręczeń. System bankowy nie jest tym zainteresowany, stąd potrzebne jest rozwijanie firm pośrednictwa finansowego, nie będących instytucjami rynkowymi, adresowanych do organizacji pozarządowych, by w przypadku realizacji większych projektów mogły one pożyczać pieniądze na wkład własny.
Widzę masę luk w naszym systemie, które powinny być usuwane przy wykorzystaniu pieniędzy unijnych. Najgorszym użytkiem jest wyznaczanie po prostu puli na organizacje pozarządowe, które startują w konkursach i dostają te pieniądze. To nie rozwiązuje problemu, tworzy natomiast sytuację, w której będą one coraz bardziej podporządkowane logice finansowania unijnego, nie zakorzenią się, nie zbudują zaplecza, ale staną się profesjonalnymi mechanizmami do wyciągania publicznych pieniędzy, nie zawsze dla dobra społecznego.
- Panie profesorze, dlaczego naukowcy nie zajmują się pogłębionymi badaniami jakości działania organizacji pozarządowych? Jeśli są, to raczej badania wyrywkowe, ilościowe, ogólne diagnozy…
- Jest Klon/Jawor, pomyślany jako infrastrukturalna organizacja, jest relatywnie silny ruch osób, które zajmują się tym analitycznie. Badania nie są rozwinięte z wielu powodów. Np. nie ma porządnej statystyki publicznej i badania tego sektora są kosztowne, bo trzeba to robić trochę chałupniczo. Organizacje pozarządowe to jest także i segment aktywności zawodowej - rosnący zresztą na całym świecie – w tej chwili udział zatrudnienia w tym sektorze wynosi w Polsce ponad 1%. Potrzebne jest stworzenie ośrodków, które byłyby w stanie prowadzić kompetentne, profesjonalne badania w tym zakresie. Uczelnie muszą zacząć doceniać, że w ogóle istnieje trzeci sektor, muszą pojawić się naukowcy wyspecjalizowani w tej problematyce. Gdyby porównać, jak wygląda zaplecze badawcze tego sektora w Niemczech czy w innych krajach, to my jesteśmy jeszcze na poziomie szkoły podstawowej, ale odrabiamy zaległości. Tutaj potrzebne byłoby rozsądne ukierunkowanie środków publicznych, mniej na różnego rodzaju rozproszone i drobne projekty, bardziej na systematyzację wiedzy w tym zakresie i tworzenie centrów wiedzy o sektorze pozarządowym.
- Dziękuję za rozmowę.
- Autor: Anna Leszkowska
- Odsłon: 1650
W odniesieniu do pracy zdalnej panuje spory chaos definicyjny. W analizach tej formy pracy niekiedy synonimicznie traktowane są tak pokrewne kategorie, jak home working, home office, telepraca, a nawet praca nakładcza, chałupnictwo, czy gig economy, czyli praca na żądanie, czego najbardziej popularnym przykładem są usługi świadczone przez Uber. Takie synonimiczne podejście nie jest jednak zasadne, albowiem każdą z wymienionych form pracy, mimo podobieństw, sporo jednak różni, w tym przede wszystkim status prawny, szczegółowo określający prawa i obowiązki pracowników oraz pracodawców.
Najbardziej ogólna definicja pracy zdalnej, to praca wykonywana w domu pracownika lub w innym miejscu, które nie jest zwykłym miejscem prowadzenia działalności przez organizację. W Polsce do czasu pandemii pojęcie pracy zdalnej nie istniało w systemie prawnym. Do dziś nie występuje w kodeksie pracy, choć zawiera on regulacje dotyczące np. telepracy, ale to wszak forma pracy nietożsama z ogólnym rozumieniem pracy zdalnej.
Pandemia COVID-19 i konieczność izolowania się ludzi w obronie przed wirusem spowodowała zarazem niemal eksplozję zainteresowania pracą zdalną i jej wdrażaniem w praktyce na różnych szczeblach instytucjonalnych. Dowodzą tego statystyki potwierdzające, że choć praca zdalna relatywnie rzadko występowała w przeszłości, to obecnie w wielu krajach stopniowo przechodzi do głównego nurtu, utrwalając swą pozycję w nowej rzeczywistości. Co prawda, dynamizm obecnych przemian i zmieniająca się siła wirusowych ataków sprawia, że statystyki te cechuje swego rodzaju syndrom ruchomych piasków. Statystyki te wciąż bowiem ewoluują, zmieniają się to w jednym, to w drugim kierunku.
Wzrost znaczenia pracy zdalnej, a zarazem zmienność sytuacji pod tym względem potwierdza m.in. przypadek USA, gdzie przed pandemią COVID-19 zaledwie około 5% Amerykanów pracowało w domu. Do maja zaś liczba ta wzrosła do 62%, a w październiku wynosiła 40%. Podobne trendy zauważalne są także w innych krajach wysoko rozwiniętych, w tym i w Polsce (Praca 2.0., 2021).
Dlatego też problematyka pracy zdalnej oraz związanych z nią następstw ekonomicznych, społecznych, ekologicznych i innych nabiera obecnie fundamentalnego znaczenia, nie tylko w skali krajowej, lecz także globalnej. Wiąże się z tym wysyp rozmaitych badań oraz ekspertyz na ten temat. Choć badania te wciąż nie dostarczają jednoznacznych ocen co do przyszłości tej formy pracy, to jednak umożliwiają identyfikację niektórych charakterystycznych problemów z nią związanych.
Skutki rozwoju technologii
Procesy intensyfikacji zainteresowania pracą zdalną zapoczątkowane zostały na długo przed pandemią, co miało podłoże przede wszystkim w dokonującej się rewolucji cyfrowej. To właśnie rewolucja cyfrowa tworzy warunki efektywnego wdrażania pracy zdalnej w praktyce, i to na szerszą skalę. Jednak zapowiedzi, że świat będzie ewaluował w kierunku takiej formy pracy pojawiały się już znacznie wcześniej, przed wieloma dekadami, zwłaszcza w literaturze futurystycznej, choć nie tylko. Chyba najbardziej wyraziście przedstawiał to już w latach 60. i 70. ubiegłego wieku guru futurologii, amerykański futurolog i rzecznik myśli społecznej, Alvin Toffler w słynnej Trzeciej fali oraz Szoku przyszłości (Toffler 1986; Toffler 1998), gdzie prognozował trendy związane z nieistniejącym jeszcze wówczas Internetem, w tym koncepcję elastycznego i ruchomego biura i możliwości wykonywania pracy poza siedzibą firmy (Toffler 1986; Toffler 1998).
Rozwój pracy zdalnej to jeden z wielu przejawów procesów cyfryzacji gospodarki i życia społecznego. Procesy te intensyfikują się w wyniku tzw. czwartej rewolucji przemysłowej, która obecnie ogarnia świat, burząc, niemal wywracając do góry nogami, wiele funkcjonujących w nim systemów, konstrukcji, zwyczajów, narzędzi kształtujących modele biznesu, relacji zawodowych, rodzinnych i in. Sprostanie wymogom tej rewolucji to obecnie kwestia być albo nie być, istnieć lub zginąć, istnieć lub wegetować w złożonym otoczeniu społeczno-gospodarczym.
Czwarta rewolucja przemysłowa (Przemysł 4.0, Gospodarka 4.0) wyraża się w rozwoju sztucznej inteligencji, stanowiącej połączenie potencjału fizycznego, cyfrowego i biologicznego. Sztuczna inteligencja jest jej symbolem, natomiast symbole trzech poprzednich rewolucji to kolejno: maszyna parowa (XVIII w.), elektryczność i żarówka (XIX/XX w.) oraz komputer (połowa XX w.). O ile pierwsza rewolucja unicestwiła system manufakturowy na rzecz fabrycznego, druga spowodowała przejście od wieku pary do wieku elektryczności, trzecia skomputeryzowała świat, to czwarta zmienia niemal wszystko i niemal wszędzie (Schwab, 2016).
Wskutek czwartej rewolucji przemysłowej i cyfryzacji, dynamika przemian jest tak wielka, że zmiany prognozowane kilka dekad temu przez Tofflera w jego Trzeciej fali to już historia, czy niemal zamierzchła przeszłość, a współczesność to nowe „fale” kształtowane przez postęp robotyzacji i sztuczną inteligencję.
Bardzo obrazowo przedstawia to obecnie inny futurolog amerykański, Kevin Kelly, który w książce pod znamiennym tytułem Nieuniknione. Jak inteligentne technologie zmienią naszą przyszłość prognozuje, że większość technologii, które za 30 lat zdominują funkcjonowanie gospodarki i społeczeństwa, nie została jeszcze wynaleziona, a 70% dzisiejszych zawodów zostanie zastąpionych przez robotyzację. Kelly podkreśla, że w wyniku niebywałego dynamizmu przemian żyjemy w czasach „stawania się" i wszyscy stajemy się nowicjuszami.
Przechodzenie do pracy zdalnej powinno być traktowane jako ważne ćwiczenie w przygotowywaniu się do kolejnych, wielce złożonych wyzwań czwartej rewolucji cyfrowej. To zarazem swego rodzaju sprawdzian stopnia tego przygotowania oraz sprawności zarządzania na różnych szczeblach życia społeczno-gospodarczego.
Zdaniem pracowników i pracodawców
Mimo mnogości rozmaitych badań na temat pracy zdalnej, obraz tej formy pracy wciąż nie jest dostatecznie wyrazisty. Jedne z pierwszych w Polsce badań, przeprowadzone na przełomie kwietnia i maja 2020 r. przez Future Business Institute (FBI), przedstawione zostały w raporcie Praca zdalna - rewolucja, która się przyjęła. Z badań tych wynika, że prawie wszyscy respondenci (83%) zadeklarowali, że w ich firmie istnieje możliwość pracy zdalnej i to na wszystkich stanowiskach (Praca zdalna - rewolucja, 2020).
Wg tych badań, przed wybuchem epidemii 30% ankietowanych w ogóle nie pracowało zdalnie, 46% pracowało sporadycznie i przypadkowo. Wg stanu z przełomu maja i kwietnia 2020 r. 73% badanych pracowało zdalnie w sposób ciągły. Dane te mogłyby świadczyć, że praca zdalna dobrze się przyjęła, choć obraz ten zaburza fakt, że wg tych badań tylko 21% respondentów uznało wprowadzenie stałej pracy zdalnej za korzystne z perspektywy przedsiębiorstwa i swojej własnej.
Zważywszy na nieuchronność przemian, jakie przynosi czwarta rewolucja przemysłowa, można jednak zakładać, że praca zdalna na trwałe zagości w większości organizacji, choć w zależności od specyfiki ich działalności, z różnym natężeniem. Praca zdalna nie jest wszak możliwa ani zawsze, ani wszędzie. Są takie rodzaje pracy, które prawdopodobnie nigdy nie będą mogły być realizowane zdalnie, choć rozwój sztucznej inteligencji wciąż te obszary niemożności zawęża.
Jednym z licznych tego przykładów jest, jeszcze do niedawna wręcz niewyobrażalne, wykorzystywanie sztucznej inteligencji w medycynie w formie zdalnej kontroli przez lekarzy stanu zdrowia pacjentów. Choć obecnie wciąż trudno wyobrażalna jest praca zdalna nauczycieli przedszkolnych, to nie można wykluczyć, że w przyszłości i tu może zagościć ta forma pracy, zwłaszcza zważywszy na dynamiczny rozwój edukacji zdalnej, co zresztą ma swoje dobre i złe strony, w tym nierzadko (choć nie zawsze) gorsze rezultaty takiej formy edukacji.
Z przeprowadzonych jesienią 2020 r. przez McKinsey Global Institute dość szeroko zakrojonych badań obejmujących dziewięć krajów, 800 miejsc pracy i 2000 zadań (What’s next 2020; Ferreira 2020) wynika, że 99% ankietowanych wskazuje na przynajmniej jedną korzyść wynikającą z pracy zdalnej. Pracodawcy wskazują przede wszystkim na możliwości obniżki kosztów, w tym kosztów użytkowania powierzchni biurowych i innych, większe możliwości pozyskiwania w przestrzeni globalnej pracowników o pożądanych kwalifikacjach, co zarazem może wpływać na obniżenie kosztów zatrudnienia i zwiększanie konkurencji na rynku pracy, przy równoczesnym zwiększaniu spektrum wyboru przez pracowników miejsc pracy. Pracodawcy i pracownicy wskazują przy tym na rosnące w wyniku pracy zdalnej możliwości przeciwdziałania niepożądanym odejściom z pracy osób, którym trudno godzić obowiązki zawodowe z obowiązkami domowymi, w tym z opieką nad dziećmi i innymi członkami rodziny.
Ze wszystkich niemal badań wynika, że niemal wszystkie badane osoby w pełni zgodnie wskazują na oszczędności czasu przygotowań i dotarcia do miejsca pracy, większe możliwości dostosowywania czasu wykonywania pracy do własnych preferencji, co może sprzyjać wyższej produktywności pracy. Podkreślane są przy tym też ekologiczne korzyści wynikające z rozwoju pracy zdalnej.
Zarazem jednak dostrzegane są rozmaite wady pracy zdalnej. Powszechnie wskazywane jest tu związane z tą forma pracy marginalizowanie relacji społecznych, poczucie izolacji i osamotnienia, a jednocześnie trudności oddzielenia życia prywatnego od służbowego i poczucie „bycia ciągle w pracy”. Pracodawcy eksponują zaś przede wszystkim problemy związane z ryzykiem niedostatecznego bezpieczeństwa danych służbowych, trudności kontroli sposobu wykonywania pracy i in.
O korzystnych perspektywach rozwoju pracy zdalnej przekonują też wyniki badań przedstawionych m.in. przez specjalizującą się w rozpoznawaniu trendów na rynku pracy, jedną z największych tego typu platform internetowych, Glassdoor. Wyniki te przedstawiane są m.in. przez szefa tej platformy, Andrew Chamberlaina. Badania te wykazują, że choć po pandemii można oczekiwać powrotu pracowników do biur i innych miejsc pracy, ale ta praca już nie będzie taka sama. Wzmacniają się bowiem tendencje do uelastyczniania form pracy, stosownie do oczekiwań pracowników. Wyraźnie rośnie zainteresowanie pracą zdalną. Zarazem zmieniają się oczekiwania płacowe. W sytuacji rosnących możliwości pracy zdalnej zmieniają się też preferencje mieszkaniowe pracowników, którzy dzięki pracy zdalnej będą mogli mieć większe możliwości wyboru miejsca zamieszkania i jego zmiany na tańsze miejscowości. Może to zarazem wpływać na zmniejszanie gęstości zaludnienia w miastach i zatrzymanie w nich trendu rosnących cen mieszkań i czynszów. Technologie cyfrowe, komunikacyjne sprawiają bowiem, że czynnik lokalizacji staje się coraz mniej istotny dla życia zawodowego.
Ze wszystkich badań niemal jednoznacznie wynika, że trwałą zmianą będzie spędzanie przez pracowników więcej czasu w domach i mniej dojazdów do pracy.
Z ostrożnych prognoz wynika, że ze względu na takie oceny pracy zdalnej można oczekiwać, że jej zakres po pandemii wzrośnie około czterokrotnie w porównaniu ze stanem przed pandemią.
Badania pracy zdalnej nie dają jednak jednoznacznego obrazu jej wpływu na produktywność pracowników. Opinie na ten temat w znacznym stopniu są sprzeczne. Podkreślane jest m.in., że gdyby praca zdalna była bardziej produktywna aniżeli stacjonarna, to jej zakres już przed pandemią byłby znacznie większy. Skoro tak nie było, to może oznaczać, że pracodawcy nie są przekonani co do wyższej produktywności pracy zdalnej i wątpią w wyższą produktywność pracowników „ubranych w piżamy”.
Jednak bardziej szczegółowe, pogłębione badania zdają się przemawiać za tezą o wyższej produktywności takiej formy pracy. Wynika to m.in. z badań prowadzonych przez zespół Harvard University (Harrington, 2020). M.in. wykazano w nich, że praca zdalna przeważnie bardziej przyciąga osoby, które były średnio mniej produktywne niż te, które wybierały pracę stacjonarną.
Wynaturzenia pracy zdalnej
Na wynaturzenia pracy zdalnej zwraca uwagę m.in. znany badacz zarządzania pracą i ewolucją jej form, Nicholas Bloom, profesor na Stanford University. Naukowiec ten przestrzega, że praca zdalna, obok wskazywanych wyżej zalet, ma jednak także rozmaite ciemne strony. Na podstawie wieloletnich badań Bloom wykazuje, że ograniczanie bezpośrednich kontaktów zawodowych na rzecz pracy zdalnej nie zawsze wpływa korzystnie na produktywność, a przy tym nieuchronnie prowadzi do spadku innowacyjności i kreatywności, która zdecydowanie wymaga kontaktów face to face.
Najbardziej groźne są przy tym negatywne zdrowotne następstwa pracy zdalnej, w tym zwłaszcza skutki dla zdrowia psychicznego, czego pełne konsekwencje są trudne do przewidzenia i pomiaru. Jest to istotne tym bardziej, że w praktyce pandemia i technologie cyfrowe pogłębiają nierówności społeczne, nie tylko dochodowe, lecz także edukacyjne. Jest to m.in. pochodną nierówności w dostępie do nowoczesnych technologii cyfrowych i wiedzy na ten temat, Bloom mówi tu wręcz o tykającej bombie zegarowej (Stanford professor 2020; Bloom,2015).
Optymalne wykorzystanie technologii cyfrowych, w tym pracy zdalnej, staje się zatem niełatwym wyzwaniem. Niewłaściwe proporcje między pracą zdalną a stacjonarną mogą bowiem zwiększać ryzyko rozmaitych nieprawidłowości, czy wręcz wynaturzeń. Można je zaobserwować już dziś.
Istotne jest zatem takie zorganizowanie proporcji między pracą stacjonarną i zdalną oraz stworzenie takich warunków, aby ani zewnętrzni interesariusze, ani sami pracownicy w kontaktach wewnętrznych i zewnętrznych nie odczuwali wykonawczego dyskomfortu. Spełnienie tego warunku ma miejsce wówczas, gdy ani interesariusze, ani pracownicy nie odczuwają żadnych negatywnych następstw pracy zdalnej. Niestety, w praktyce nierzadko tak nie jest.
O tym, że znalezienie optymalnych proporcji między pracą zdalną i stacjonarną ma fundamentalne znaczenie zarówno dla pracowników, jak i pracodawców przekonują m.in. ich powszechne niemal deklaracje, że nie chcą już pracować tylko stacjonarnie, ale też nie chcą pracować wyłącznie w trybie zdalnym. Dlatego tak ważne jest dopracowanie się w tym względzie złotego środka. W tym złotego środka między cyfrowymi i tradycyjnymi sposobami komunikacji społecznej, zarówno wewnątrz firmy, jak i z jej zewnętrznymi interesariuszami.
Ustalenie efektywnych proporcji między pracą zdalną i stacjonarną wymaga holistycznego, pełnego rachunku ekonomicznego, z uwzględnieniem kosztowi i efektów zewnętrznych (exterbalities). Niewłaściwe proporcje i stacjonarną i nadmierne marginalizowanie komunikacji offline, mogą bowiem prowadzić do kosztownych ekonomicznie i społecznie rozmaitych wynaturzeń, co może niweczyć dobrodziejstwo nowoczesnych technologii i same pracy zdalnej.
Jednym z bardziej niebezpiecznych tego przejawów jest niszcząca człowieczeństwo dehumanizacja pracy. Przestrzegał przed tym już w 1946 r. Albert Einstein w liście do intelektualisty Ottona Juliusburgera: „Jestem przekonany, że przerażający upadek moralności, jakiego jesteśmy świadkami w dzisiejszych czasach jest rezultatem mechanizacji i dehumanizacji naszego życia – zgubnych produktów ubocznych mentalności naukowo-technicznej. Nostra Culpa!” (Calaprice, 2014) . Ta wielka przestroga nabiera dziś swoistej aktualności. Ważne jest bowiem, by owa Nostra Culpa (nasza wina) nie urzeczywistniała się. Jest to istotne tym bardziej, że już obecnie nie brakuje przejawów dehumanizacji. Jednym z bardziej ponurych tego następstw jest narastający - i to w skali globalnej - problem samotności człowieka.
Wirus samotności
Badania pracy zdalnej jednoznacznie wskazują, że osoby pracujące w takim trybie, wśród najbardziej dokuczliwych jego mankamentów wymieniają marginalizację czy brak relacji społecznych. Praca w trybie online i brak bezpośrednich offlinowych kontaktów ze współpracownikami pogłębia gwałtownie rozszerzający się w wielu krajach syndrom samotności.
O tym, że jest to problem, który prowadzić może do rozmaitych negatywnych zjawisk społecznych i ekonomicznych, przekonują szczegółowe analizy przedstawione w książce brytyjskiej ekonomistki Noreeny Hertz pod symptomatycznym tytułem The Lonely Century: Coming Together in a World that's Pulling Apart. Jest to wnikliwa analiza ekonomicznych, społecznych (w tym zdrowotnych, zwłaszcza psychicznych) i politycznych następstw nasilającego się we współczesnym świecie syndromu samotności. Technologie cyfrowe i cyfrowa komunikacja między ludźmi, w tym praca zdalna, to czynniki potęgujące skalę negatywnych skutków zjawiska samotności.
Hertz na podstawie rozległych badań i statystyk dowodzi, że jeszcze zanim globalna pandemia wprowadziła do życia pojęcia takie jak lockdown, czy dostęp przestrzenny/fizyczny (nieprawidłowo w polskiej publicystyce określany jako „społeczny”), samotność była na najlepszej drodze, aby stać się słowem definiującym stan ludzkości w XXI wieku. Związane jest to z dokonującym się we współczesnym świecie procesem rozpadu „tkanki wspólnoty”, co zagraża relacjom społecznym i życiu osobistemu.
Choć nowoczesne technologie wielce ułatwiają życie w izolacji, o czym świat przekonuje się zwłaszcza w warunkach pandemii, to zarazem zmieniają relacje społeczne na niekorzyść bezpośrednich kontaktów między ludźmi. Hertz podkreśla jednak, że technologie cyfrowe nie są tu jedynym winowajcą. Wskazuje na inne, nie mniej ważne czynniki, takie jak demontaż instytucji obywatelskich, radykalna reorganizacja miejsc pracy, w tym rozrost pracy zdalnej, masowe migracje do miast i pustoszenie, marginalizacja małych miejscowości.
Hertz jako winowajcę wskazuje zarazem neoliberalizm, dziesięciolecia dominacji w większości krajów rozwiniętych neoliberalnej doktryny, której cechą jest priorytet dla interesów indywidualnych, ponad dobro wspólne. Ekonomistka ta wiąże to poglądami brytyjskiej premier Margaret Thatcher oraz jej polityką z lat 80. XX w., opartą na założeniu, że „nie ma czegoś takiego jak społeczeństwo, zaś ekonomia i gospodarka to jedynie środki do zmiany serca i duszy ludzi z ‘kolektywizmu’ na to, co osobiste”.
Na podstawie imponującego zestawu interdyscyplinarnych, naukowo-badawczych źródeł, Hertz charakteryzuje rozliczne synergicznie ze sobą sprzężone negatywne ekonomiczne, społeczne, i polityczne następstwa samotności. Charakteryzuje skutki dla zdrowia człowieka, co przekłada się na następstwa ekonomiczne, w tym koszty ponoszone przez poszczególne osoby, ale i przedsiębiorców, a także państwo, którego domeną jest zdrowie publiczne.
Badania potwierdzają, że samotność jest zatrważająco szkodliwa dla zdrowia. Wywołuje kumulujące się reakcje stresowe, osłabiając układ odpornościowy, co zwiększa ryzyko chorób serca, udaru i demencji oraz powodując prawie 30% większe prawdopodobieństwo przedwczesnej śmierci. Obfitość podawanych przez Hertz dowodów nie pozostawia miejsca na wątpliwości. Nieprzypadkowo też była premier Wielkiej Brytanii Teresa May mianowała pierwszego na świecie ministra samotności - ogłaszając „ukrytą epidemię” dotykającą 9 milionów Brytyjczyków jako „jedno z największych wyzwań dla zdrowia publicznego naszych czasów”. W poruszającym wywiadzie dla „Der Spiegel” Hertz stwierdza wręcz, że samotność jest bardziej szkodliwa dla zdrowia niż wypalanie 15 papierosów dziennie.
Hertz wykazuje zarazem, że charakterystyczne dla neoliberalizmu fetyszyzowanie zysku i pogoń za nim - bez względu na koszty społeczne i ekologiczne - prowadzi do wynaturzeń w sferze przestrzennego zagospodarowania. Wyraża się to m.in. w pogarszającym jakość życia ludzi rozroście megamiast, kosztem społecznej i ekonomicznej marginalizacji mniejszych miejscowości i całych regionów. Hertz podkreśla, że im większe miasto, tym szybciej poruszają się ludzie, nie zważając jeden na drugiego, a im gęstsze zaludnienie, tym mniej przyjazne relacje między ludźmi i większa ich samotność.
Charakteryzując rozmaite formy samotności, Hertz analizuje i ich technologiczne podłoże. Można być np. osobą, która zamawia przez Internet prawie wszystko, czego potrzebuje do życia i przez to interakcje międzyludzkie są wysoce ograniczane. Hertz wskazuje na niebywałe metody radzenia sobie ludzi z samotnością, m.in. zamieszkanie z robotem lub popełnianie przestępstw na tyle poważnych, by trafić do więzienia (co stało się fenomenem wśród japońskich seniorów). Przekonująco argumentuje, że charakterystyczne dla współczesnego świata głębokie zatomizowanie sprawia, że brakuje wielu zwykłych ludzkich powiązań, które w przeszłości były codziennością (Ökonomin 2020).
Wiele miejsca w książce Hertz zajmuje kwestia pracy zdalnej i nadmiernego eksploatowania komunikacji cyfrowej, traktowane jako fundamentalne czynniki nasilania się samotności. Osłabia to możliwości i umiejętności bezpośrednich relacji międzyludzkich oraz gotowość na nie. Hertz zauważa. że gdyby mantry „wspólnoty”, narzucane przez firmy z sektora mediów społecznościowych były prawdziwe, świat byłby jedną wielką, szczęśliwą rodziną. Tak jednak nie jest, choć w sytuacji, gdy miliardy ludzi połączonych jest ze światem cyfrowym na niezliczone sposoby, tytułowy „Wiek samotności” brzmi niemal jak oksymoron czy absurd, ale jest rzeczywistością.
Zarazem jednak technologie cyfrowe i praca zdalna ujawniają skalę działań i prac bez sensu.
Wykrywacz pracy bez sensu
Choć badania na temat pracy zdalnej wciąż mają charakter in statu nascendi, to jednak umożliwiają identyfikację wielu specyficznych, związanych z tą formą pracy zjawisk. Jednym z nich jest powszechne wykonywanie w czasie formalnie przeznaczonym na pracę szeregu innych niezwiązanych z nią zajęć. Przyznaje to zdecydowana większość ankietowanych osób pracujących zdalnie.
Jeśli zaś praca zdalna w mniejszym stopniu angażuje czas pracownika aniżeli praca stacjonarna, to może to świadczyć o występowaniu w tej ostatniej zajęć zbędnych, bezużytecznych, mających cechy syndromu pracy bez sensu.
Autor pojęcia „praca bez sensu”, amerykański antropolog David Graeber, w głośnej książce Bullshit Jobs: A Theory identyfikuje ogromne pokłady takiej pracy, wskazując na destrukcyjne tego następstwa społeczne i ekonomiczne. „Czy może być coś bardziej demoralizującego nad konieczność wstawania przez pięć dni w tygodniu przez całe dorosłe życie, żeby wykonywać zadanie, o którym w skrytości ducha sądzi się, że wcale nie musi być wykonywane, że jest tylko marnotrawieniem czasu lub środków, albo wręcz czyni świat gorszym?” Wg Graebera każdy zna ten rodzaj osób, których czas wypełniony jest zasiadaniem w komisjach, obradujących nad rozwiązaniem problemu zbędnych komisji” Sarkazm tego autora ma jednak podstawy i uzasadnienie w tym, że niemal każdy pracujący tego doświadcza i niemal gołym okiem widać, że rozmiary tego typu zajęć wciąż rosną, czego źródeł Graeber upatruje przede wszystkim w systemie społeczno-gospodarczym zdominowanym przez doktrynę neoliberalną.
Graeber definiuje pracę bez sensu jako „formę zatrudnienia, której kompletna bezcelowość, zbędność bądź szkodliwość są tak rażące, że nawet zatrudniony nie jest w stanie uzasadnić jej istnienia”.
Praca zdalna może uzmysławiać skalę pracy zbędnej. Ujawnia bowiem, które grupy pracowników w czasie pracy zdalnej są w tak małym stopniu obciążone zadaniami do wykonania, że w firmie niemal zapomina się, że takie stanowiska istnieją. Wg Graebera, niektóre prace są na tyle bezcelowe, że „nikt nie zauważa, kiedy osoby mające je wykonywać znikają”. „Gdybyśmy obudzili się pewnego ranka i odkryli, że nie tylko pielęgniarki, śmieciarzy i mechaników, a do tego jeszcze kierowców autobusów, sklepikarzy, strażaków, albo kucharzy w barach szybkiej obsługi wymiotło do innego wymiaru, rezultaty byłyby katastrofalne (...). Tego samego nie można powiedzieć o menedżerach funduszy hedgingowych, konsultantach politycznych, guru od marketingu, lobbystach”.
W dodatku Graeber wskazuje na odwrotnie proporcjonalne zależności między wartością społeczną pracy a wysokością wynagrodzeń. Zwraca na to też uwagę Mariana Mazzucato w książce pod prowokującym tytułem The Value of Everything: Making and Taking in the Global Economy. Ta włosko-brytyjska ekonomistka wskazuje, że współczesne gospodarki nagradzają działania, które raczej wysysają, ekstraktują wartość, aniżeli ją tworzą. Różnice między tworzeniem wartości a jej ekstrakcją Mazzucato wyjaśnia na podstawie m.in. analizy dysproporcji wynagrodzeń i dochodów między poszczególnymi grupami zatrudnionych, np. przepaści między wysoko wynagradzanymi bankowcami a nauczycielami, sytuującymi się na przeciwnym biegunie płac.
Elżbieta Mączyńska
Powyższy tekst jest skrótem artykułu prof. Elżbiety Mączyńskiej przygotowanego dla „Polityki Społecznej” - https://polityka-spoleczna.ipiss.com.pl/resources/html/cms/MAINPAGE
Zagadnienie pracy zdalnej będzie tematem przygotowywanej w tym roku przez Autorkę interdyscyplinarnej konferencji naukowej w Polskim Towarzystwie Ekonomicznym, o terminie której poinformujemy w SN.
Wyróżnienia i śródtytuły pochodzą od redakcji SN.
- Autor: ANNA LESZKOWSKA
- Odsłon: 2848
Przemysłowcy radzą rządowi
Spowolnienie gospodarcze, które dało się mocniej odczuć w roku 2012 i 2013 spowodowane jest przez wyczerpanie się krajowych sił rozwojowych, brak stabilności i podstaw popytowych, zacieśnienie polityki fiskalnej, złą politykę monetarną, przedłużający się kryzys w strefie euro i zmniejszenie strumienia środków europejskich.
To najkrócej wyrażona diagnoza Polskiego Lobby Przemysłowego zawarta w drugiej części Raportu o globalnym kryzysie i jego konsekwencjach dla Polski.*
Do tych wszystkich czynników dochodzi również mało nowoczesna struktura gospodarcza, nie produkująca wystarczająco wysokiej wartości dodanej, co miałoby przełożenie na poziom płac Polaków. To strukturalne zapóźnienie, słabość przemysłu, mała liczba wysokich technologii jest rezultatem źle przeprowadzonej transformacji naszej gospodarki i wrogich przejęć prywatyzacyjnych oraz pokłosiem praktykowania neoliberalnego modelu gospodarczego, zrzeczenia się przez państwo instrumentów aktywnej polityki gospodarczej praktykowanych przez np. Niemcy.
Środki europejskie z ostatniej perspektywy finansowej są na wyczerpaniu, zaś nowa zacznie się w 2014 roku. Będzie to (2014-2020) już ostatni tak korzystny budżet dla Polski co nakazuje bić na alarm w kwestii struktury polskiej gospodarki. Jeszcze kilka lat temu wydatki inwestycyjne były głównym motorem polskiego wzrostu. W roku obecnym, nawet po planowanym uruchomieniu programu Inwestycje Polskie, będą one prawdopodobnie znacząco niższe.
Potrzebny państwowy system gwarancji i zachęt inwestycyjnych
Krajowe wydatki inwestycyjne (państwowe i prywatne) są głównym kołem zamachowym gospodarki doganiającej, takiej jak Polska. Ich poziom musi być zatem odpowiednio wysoki i skierowany w obszary o długoletniej użyteczności. Brak tych wydatków bardzo szybko przekłada się na słabnące płace i wydatki gospodarstw domowych, co widzimy szczególnie od drugiej połowy 2012 roku, po ukończeniu inwestycji związanych z Euro 2012. Popyt jest w związku z tym niski, gdyż jego składniki: konsumpcja gospodarstw domowych, inwestycje przedsiębiorstw i wydatkach państwa stagnują. Rośnie liczba upadających przedsiębiorstw małych i średnich. Inwestycje przedsiębiorstw mogłyby wzrosnąć, gdyż potencjał do tego jest duży, biorąc pod uwagę środki przedsiębiorstw w bankach, jednak przede wszystkim zła polityka pieniężna i kredytowa, a także brak pewności na rynku zniechęcają do inwestycji. Ważną rolę w zmianie tego stanu rzeczy powinien odgrywać państwowy system gwarancji i zachęt inwestycyjnych.
Akcjonariat pracowniczy i spółdzielnie
Upadkowi przedsiębiorstw, bankrutujących w okresie kryzysu, w dużym stopniu mogłaby zapobiec szeroka praktyka wprowadzania akcjonariatu pracy pracowników. To zwiększa zakres odpowiedzialności, inicjatywy, elastyczności zatrudnienia i płac oraz nadaje przedsiębiorstwu nową dynamikę przetrwania i rozwoju. Inną formą, stale aktualną i szczególnie ważną w okresie kryzysu jest ruch spółdzielczy, dobrze zakorzeniony i sprawdzony w naszym kraju i w Europie: spółdzielnie produkcyjne i handlowe, spółdzielnie mieszkaniowe, banki spółdzielcze oraz towarzystwa ubezpieczeń i poręczeń wzajemnych. Te formy działalności społeczno-gospodarczej powinny być szczególnie propagowane i wspierane przez państwo, ale niestety stale spotykają się z różnymi utrudnieniami i negatywnymi interwencjami.
Problemy społeczne musi rozwiązywać państwo
Niestety, spowolnienie odbiło się na pogorszeniu rynku pracy. Bezrobocie i rozwarstwienie dochodów narastają, co w dłuższym okresie może zagrażać spokojowi społecznemu. Frustracja wywołana brakiem perspektyw może prowadzić do nasilania się emigracji zarobkowej oraz patologii o silnych społecznych konsekwencjach. W pierwszym kwartale 2013 roku bezrobocie niebezpiecznie zbliża się do granicy 15% (wśród młodzieży dochodzi do 40%), co powoduje, iż staje się ono poważnym problemem społecznym wymagającym interwencji państwa. Jednocześnie struktura gospodarcza powoduje, iż w kraju wiele regionów dotkniętych jest trwale wyższym bezrobociem, co jest po części dziedzictwem ułomnie przeprowadzonej transformacji przemysłu.
Jednym z efektów kryzysu i obecnego systemu gospodarczego jest emigracja i problemy demograficzne. Chociaż średnia płaca pozwala zaspokajać potrzeby statystycznego Polaka, to płace znaczącej większości polskich pracowników znajdują się dużo poniżej średniej, co w połączeniu z niską stabilnością rynku pracy i nietrwałym charakterem umów pracowniczych stawia szczególnie nisko wykwalifikowanych pracowników w niezwykle trudnej sytuacji, a ponadto obniża poziom popytu konsumpcyjnego, stymulującego gospodarkę. Bardzo ciężka sytuacja materialna dotyczy rodzin wielodzietnych; co dziesiąte polskie dziecko chodzi głodne.
Niskie płace są w głównej mierze odzwierciedleniem złej struktury własnościowej i gospodarczej, tj. produktywność roboczogodziny jest znacząco poniżej średniej unijnej. Jest to spowodowane m. in. niskim poziomem użycia w produkcji technologii wysoko zaawansowanych, będących przyszłością gospodarki opartej na wiedzy. Istotny jest tu także wielki strumień zysków i dochodów wyprowadzanych za granicę z zakładów pracy w Polsce przez ich zagranicznych właścicieli. Wysoki jest za to poziom usług w polskiej gospodarce; są to jednak w znacznej mierze usługi lokalne, nieeksportowane, o niskiej wartości dodanej.
Niezbędna zmiana struktury gospodarki
Jak wskazuje wielu ekspertów, kluczem do poprawy dobrobytu jest zmiana struktury gospodarki, na tę, w której większy udział będą mieli pracownicy oraz przemysły o wysokiej wartości dodanej. Innowacyjne, konkurencyjne gałęzie gospodarki są w stanie zagwarantować wysoki poziom płac pracowniczych, odpowiednią bazę podatkową, a w konsekwencji infrastrukturalną i ogólnospołeczną (edukacja, ochrona zdrowia, zabezpieczenie socjalne). Niestety, niski poziom wydatków na naukę, badania i rozwój sprawia, iż infrastruktura potrzebna do konkurowania w produkcji zaawansowanej technologii kuleje
/.../ Polska najwyraźniej potrzebuje aktywniejszej polityki w dziedzinie gospodarki i nowoczesnych technologii. Wskazuje to na potrzebę modernizacji systemu instytutów badawczo-rozwojowych. Niepokojem napawa fakt, iż pomimo przeznaczenia w ciągu ostatnich lat ok. 40 mld euro w politykę innowacyjności, nasz kraj zajmuje pod tym względem jedno z ostatnich miejsc w UE.
Szczególnie niewydolne są procedury wdrożeniowe wynalazków i metody ich finansowania. Warto zauważyć, iż potencjał intelektualny do wzrostu sektora wysokich technologii istnieje. Mimo niespójnej polityki w tym zakresie, polscy naukowcy prowadzą wiele obiecujących projektów w badaniach nad technologiami kosmicznymi, grafenem, czy w neurobiologii.
Pakt klimatyczny – bariera czy rozwój?
Reguły paktu klimatycznego są kolejnym elementem otoczenia instytucjonalnego, które ograniczają swobodę manewru polskiej gospodarki. Konieczność wykupu pozwoleń na emisję CO2 w sytuacji, gdy duża część polskiej energetyki opiera się na węglu, uderza w polskie firmy energetyczne, podrażając w konsekwencji koszty energii gospodarstw domowych, przedsiębiorstw, samorządów, czyniąc ponoszone koszty utrzymania infrastruktury przesyłowej mniej znośne. Pozytywny jest fakt utrzymywania się cen uprawnień EUA (do emisji), utrzymujący się w okolicach 4 euro za jedno.
Polski rząd jest sceptyczny wobec planów narzucania coraz ściślejszych limitów CO2, których naukowe uzasadnienie jest wciąż niejasne. Według unijnej komisji ds. środowiska, ceny powinny być kilkakrotnie wyższe, aby uczynić inwestycje w zieloną energię bardziej opłacalnymi. W tym celu chce ona wycofać część uprawnień z rynku, jednakże pomysł ten na dziś nie wydaje się być bliski zaakceptowania. Polska energetyka nadal w znacznej części bazuje na przemysłach średniooemisyjnych, podczas gdy badania i wdrożenia technologii niskoemisyjnych są na niskim poziomie. Polski rząd nadal pracuje nad projektem rozwijania w kraju energetyki jądrowej. Polskie Lobby Przemysłowe odniosło się sceptycznie wobec tego pomysłu, wskazując, na brak rentowności, krajowej technologii i paliwa oraz środków na wysokie nakłady inwestycyjne, a także na trwałe zagrożenie ekologiczne. W warunkach kryzysu nie powinno się przeznaczać dużej części tak wielkich wydatków na zakup zagranicznych technologii, gdyż wydatki państwa powinny w jak największym stopniu pozostawać w kraju, stając się dochodem przedsiębiorstw i zarobkiem gospodarstw domowych./.../
Polityka strukturalna państwa, decydująca o kluczowych wskaźnikach konkurencyjności polskiej gospodarki jest w wyniku niedofinansowania i braku strategii mało efektywna. Dużą rolę odgrywała w tym stanie rzeczy panująca przez większość okresu transformacji teza o szkodliwości prowadzenia przez państwo aktywnej polityki gospodarczej. Także dziś, mimo oznak odwrotu od dawnych założeń, polityka ta jest prowadzona na skromną skalę i bardziej doraźna niż długofalowa. Wykorzystanie nowych instrumentów inwestycyjnych, w połączeniu z nową perspektywą budżetową UE, nie jest, póki co, częścią szerszego planu strukturalnych przemian gospodarki, mających na celu trwały rozwój produktywności pracy i dobrobytu mieszkańców./.../
* www.plp.info.pl/2013/03/23/druga-czesc-raportu-o-globalnym-kryzysie-finansowo-gospodarczym-i-jego-konsekwencjach-dla-polski/