Nauka i gospodarka (el)
- Autor: Anna Leszkowska
- Odsłon: 639
W 1770 roku niemiecki chemik Carl Wilhelm Scheele przeprowadził eksperyment, w wyniku którego nieoczekiwanie powstał trujący gaz. Badacz uznał go za „utleniony kwas solny”, choć dziś wiemy, że był to chlor. Dwa stulecia później niemiecki chemik Fritz Haber opracował metodę syntezy i masowej produkcji amoniaku, co dało początek nowoczesnemu przemysłowi nawozowemu i zrewolucjonizowało tym samym rolnictwo. Haber otrzymał Nagrodę Nobla w dziedzinie chemii w 1918 roku. Jednakże jego badania, w połączeniu z wcześniejszym odkryciem Scheelego, umożliwiły stworzenie broni chemicznej, którą Niemcy stosowali podczas I wojny światowej.
Jest to doskonały przykład „dylematu podwójnego zastosowania, polegającego na tym, że badania naukowe i techniczne, które mają służyć ogólnemu dobru, mogą też celowo lub przypadkowo zostać wykorzystane do wyrządzenia szkody. Zarówno w chemii, jak i w fizyce dylemat podwójnego zastosowania od dawna stanowi poważny problem i przyczynek do zawierania międzynarodowych traktatów ograniczających najbardziej niepokojące zastosowania kontrowersyjnych badań. Ze względu na konwencję o zakazie prowadzenia badań, produkcji, składowania i użycia broni chemicznej oraz o zniszczeniu jej zapasów (znaną również jako konwencja o zakazie broni chemicznej lub CWC) – traktat podpisany w Paryżu przez 130 państw – wykorzystanie wielu niebezpiecznych chemikaliów w badaniach naukowych lub medycznych musi być monitorowane i ściśle kontrolowane.
Jednym z przykładów jest rycyna, która naturalnie występuje w nasionach rącznika pospolitego i służy do produkcji nieszkodliwego dla ludzi oleju rycynowego, ale sama w sobie jest śmiertelnie toksyczna nawet w najmniejszych dawkach. Już krótka ekspozycja na jej opary lub spożycie żywności skażonej niewielką ilością substancji może doprowadzić do zgonu. Na liście CWC znajduje się również trietanoloamina, która jest stosowana w leczeniu infekcji ucha i w preparatach do usuwania zalegającej woskowiny usznej, a w kosmetyce do zagęszczania kremów do twarzy i równoważenia pH pianek do golenia, ale może być również używana do produkcji gazu musztardowego.
Z podobnymi traktatami, procedurami egzekwowania postanowień i agencjami monitorującymi podwójne zastosowania mamy do czynienia w dziedzinie chemii, fizyki i sztucznej inteligencji. Ale biologia syntetyczna jest tak młodą dziedziną, że nie podlega jeszcze żadnym umowom międzynarodowym, mimo że w społeczności naukowej od dziesięcioleci toczy się dyskusja o tym, jak zapobiegać szkodom.
W latach 2000–2002 zespół naukowców z Uniwersytetu Stony Brook prowadził eksperyment, którego celem było ustalenie, czy można zsyntetyzować żywego wirusa od podstaw, używając wyłącznie publicznych informacji genetycznych, powszechnie dostępnych substancji chemicznych i DNA sprzedawanego drogą wysyłkową. (Projekt kosztował 300 tysięcy dolarów i został sfinansowany przez DARPA w ramach przeciwdziałania wojnie biologicznej).
Naukowcy kupili krótkie odcinki DNA i starannie je poskładali, używając dziewiętnastu dodatkowych markerów, aby odróżnić syntetycznego wirusa od naturalnego szczepu, który próbowali odtworzyć.
Odnieśli sukces. 12 lipca 2002 roku – tuż po tym, jak Amerykanie świętowali pierwszy Dzień Niepodległości po atakach terrorystycznych z 11 września i miliony obywateli odczuły ulgę, że tego dnia nie doszło do kolejnego strasznego wydarzenia – ogłosili, że udało im się odtworzyć wirus polio przy użyciu informacji genetycznych, materiałów i sprzętu, do których każdy, nawet Al-Kaida, miał łatwy dostęp. Ich eksperyment miał być ostrzeżeniem, że terroryści mogą wytwarzać broń biologiczną i nie potrzebują żywego wirusa, aby uczynić śmiertelnie niebezpieczne narzędzie z patogenu, takiego jak wirus ospy czy ebola.
Wirus polio jest prawdopodobnie najintensywniej badanym wirusem w historii, i w czasie, gdy naukowcy ze Stony Brook prowadzili swój eksperyment, próbki patogenu były przechowywane w laboratoriach na całym świecie. Celem eksperymentu nie była reintrodukcja szczepów polio, lecz poznanie metod tworzenia wirusów.
Po raz pierwszy stworzono tego typu wirusa od podstaw, a Departament Obrony uznał to za ogromne osiągnięcie. Umiejętność syntetyzowania wirusowego DNA może pomóc badaczom w Stanach Zjednoczonym lepiej zrozumieć, w jak sposób wirusy mutują, stają się odporne na szczepionki i mogą być przekształcane w śmiercionośną broń.
I chociaż tworzenie wirusa w celu poznania jego potencjalnego użycia jako broni biologicznej może wydawać się dyskusyjne z prawnego punktu widzenia, wspomniany projekt nie naruszył żadnych istniejących traktatów o podwójnym zastosowaniu, nawet traktatu z 1972 roku, wyraźnie zakazującego wytwarzania czynników chorobotwórczych – takich jak bakterie, wirusy i toksyny biologiczne – które mogłyby zostać użyte na niekorzyść ludzi, zwierząt lub roślin.
Niemniej społeczność naukowa była wzburzona. Celowe opracowanie „syntetycznego ludzkiego patogenu” było „nieodpowiedzialne” – powiedział wtedy Craig Venter.
Nie był to jednak odosobniony incydent. W 1979 roku Światowa Organizacja Zdrowia ogłosiła, że wirus ospy prawdziwej, nazywanej również czarną ospą, został całkowicie zwalczony. Było to wielkie osiągnięcie ludzkości, ponieważ ospa prawdziwa jest naprawdę diaboliczną chorobą – niezwykle zakaźną i pozwalającą jedynie na leczenie objawowe. Powoduje wysoką gorączkę, wymioty, silny ból brzucha, czerwoną wysypkę i bolesne, żółtawe, ropne wykwity, które najpierw są umiejscowione na błonie śluzowej gardła, a następnie rozprzestrzeniają się na usta, policzki, oczy i czoło. W miarę jak wirus sieje spustoszenie w organizmie, zmiany pojawiają się na podeszwach stop, wnętrzach dłoni, w okolicy bruzdy międzypośladkowej i na całej powierzchni pośladków chorego. Każdy ruch powoduje ucisk na zmiany chorobowe, aż w końcu pęcherze pękają, wydzielając gęsty płyn złożony z martwej tkanki i wirusa.
Istnieją tylko dwie znane próbki naturalnej ospy prawdziwej: jedna jest przechowywana w CDC, a druga w Państwowym Centrum Wirusologii i Biotechnologii w Rosji. Przez lata eksperci ds. bezpieczeństwa i naukowcy debatowali, czy zniszczyć te próbki. Nikt przecież nie chce kolejnej globalnej pandemii czarnej ospy.
Dyskusja okazała się jednak bezcelowa, kiedy w 2018 roku zespół badawczy z Uniwersytetu Alberty w Kanadzie w zaledwie sześć miesięcy zsyntetyzował wirusa ospy końskiej, wymarłej kuzynki ospy prawdziwej, z DNA, które zamówiono online.
Protokół zastosowany do stworzenia wirusa ospy końskiej z pewnością sprawdziłby się również w przypadku ospy prawdziwej. Zespół opublikował wyczerpujący raport z przebiegu eksperymentu w „PLOS One”, recenzowanym, ogólnodostępnym czasopiśmie naukowym, które każdy może przeczytać online.
Artykuł zawierał opis metod, których użyto do wskrzeszenia ospy końskiej, wzbogacony o najlepsze praktyki dla tych, którzy chcieliby powtórzyć eksperyment we własnych laboratoriach. Na korzyść zespołu przemawia fakt, że przed opublikowaniem wyników główny badacz postępował zgodnie z protokołem, tak jak Yang w przypadku zmodyfikowanych grzybów, i poinformował rząd kanadyjski o planowanej publikacji.
Zespół ujawnił również zaistniały konflikt interesów: jeden z badaczy był również dyrektorem generalnym i prezesem Tonix Pharmaceuticals, firmy biotechnologicznej badającej nowatorskie podejścia do zaburzeń neurologicznych; rok wcześniej Tonix Pharmaceuticals i Uniwersytet Alberty złożyły w amerykańskim urzędzie patentowym wniosek o przyznanie patentu na „syntetyczne chimeryczne pokswirusy”.
Nikt – ani rząd kanadyjski, ani redaktorzy czasopisma – nie wystosował prośby o zaniechanie publikacji wyników. Eksperymenty z wirusem polio i ospy końskiej dotyczyły syntezy wirusów z wykorzystaniem technologii, które powstały w dobrej wierze. Naukowcy i eksperci ds. bezpieczeństwa obawiają się czegoś innego: że terroryści nie tylko zsyntetyzują śmiercionośny patogen, ale też celowo zmutują go, aby stał się silniejszy, odporniejszy i szybszy. Naukowcy prowadzą takie eksperymenty w laboratoriach o najwyższym poziomie bezpieczeństwa biologicznego, próbując przewidzieć najgorsze scenariusze poprzez tworzenie i badanie potencjalnie śmiercionośnych patogenów.
Ron Fouchier, wirusolog z Erasmus Medical Center w Rotterdamie, ogłosił w 2011 roku, że wzmocnił wirusa ptasiej grypy H5N1, aby mógł on przenosić się z ptaków na ludzi, a następnie między ludźmi, jako nowy szczep śmiertelnej grypy. Przed nastaniem COVID-19 H5N1 był najgorszym wirusem, jaki zaatakował naszą planetę od czasu grypy hiszpanki, która siała spustoszenie w latach 1918–1920. W czasie, gdy Fouchier przeprowadzał swój eksperyment, tylko 565 osób było zarażonych H5N1, ale wskaźnik śmiertelności był wysoki: 59% zarażonych zmarło.
Podsumowując, Fouchier sięgnął po jeden z najniebezpieczniejszych naturalnie występujących wirusów grypy, z jakimi kiedykolwiek mieliśmy do czynienia, i uczynił go jeszcze groźniejszym. Powiedział, że dokonał licznych zmian w sekwencji genetycznej H5N1, tak aby wirus unosił się w powietrzu, a zatem był znacznie bardziej zaraźliwy. Nie istniała żadna szczepionka przeciwko H5N1, a dotychczasowy wirus był już odporny na zatwierdzone leki przeciwwirusowe.
Odkrycie Fouchiera, częściowo sfinansowane przez rząd Stanów Zjednoczonych, tak bardzo przeraziło naukowców i ekspertów ds. bezpieczeństwa, że Narodowa Rada Naukowa ds. Bezpieczeństwa Biologicznego (NSABB), działająca w ramach NIH, zwróciła się w bezprecedensowym posunięciu do czasopism „Science” i „Nature” z prośbą o usunięcie fragmentów jego artykułu przed publikacją. Obawiali się, że niektóre szczegóły i dane dotyczące mutacji mogą umożliwić nieuczciwym naukowcom, wrogiemu rządowi lub grupie terrorystów stworzenie własnej, wysoce zaraźliwej wersji H5N1.
Przeżyliśmy globalną pandemię, której nikt nie chce ponownie doświadczyć. Możemy mieć szczepionki przeciw COVID-19, ale nadal współistniejemy z wirusem. W chwili pisania tego tekstu w Stanach Zjednoczonych istnieje kilka niepokojących wariantów, które obejmują szczepy z Wielkiej Brytanii (B.1.1.7), RPA (B.1.351), Brazylii (P.1) i Indii (B.617.2, znany jako wariant Delta).
Zanim wytępimy SARS-CoV-2, tak jak wirusa ospy prawdziwej, pojawi się więcej mutacji i wiele nowych szczepów. Niektóre mogą wpływać na organizm w sposób, jakiego jeszcze nie doświadczyliśmy, albo nawet nie jesteśmy w stanie sobie wyobrazić. Niestety, nie ma najmniejszej pewności co do tego, jak i kiedy wirus może zmutować.
Oczywiście, chciałoby się wierzyć, że badania wirusologiczne są prowadzone w laboratoriach, w których fanatyczne wręcz przestrzeganie standardów bezpieczeństwa i rygorystycznych zasad nadzoru jest bezwzględnie egzekwowane. Tymczasem tuż przed ogłoszeniem przez Światową Organizację Zdrowia, że wirus ospy prawdziwej został eradykowany, u fotografki medycznej Janet Parker, pracującej na wydziale medycznym uniwersytetu w Birmingham w Anglii, nagle pojawiła się gorączka i bóle ciała, a kilka dni później czerwona wysypka. Parker sądziła, że to ospa wietrzna. (Szczepionka wtedy jeszcze nie istniała). Małe, przypominające pryszcze kropki, których się spodziewała, przeszły jednak w znacznie większe zmiany wypełnione mlecznożółtym płynem. Ponieważ stan kobiety się pogarszał, lekarze orzekli, że zaraziła się wirusem ospy prawdziwej, pochodzącym zapewne z niedbale zarządzanego laboratorium badawczego, które znajdowało się piętro niżej od jej miejsca pracy. Tuż po postawieniu tej druzgocącej diagnozy główny badacz laboratorium popełnił samobójstwo. Parker niestety zmarła. Jest ostatnią znaną śmiertelną ofiarą ospy prawdziwej.
Czy korzyści płynące z możliwości precyzyjnego przewidywania mutacji wirusów przewyższają ryzyko publiczne, jakie niosą badania typu gain-of-function (GoF), tj. badania obejmujące umyślne wywoływanie mutacji wirusów w celu uczynienia ich silniejszymi, bardziej zaraźliwymi i groźniejszymi? To zależy, kogo zapytasz. A raczej, do której agencji zwrócisz się z tym pytaniem.
NIH wydało w 2013 roku serię zaleceń dotyczących bezpieczeństwa biologicznego badań nad H5N1 i innymi wirusami grypy, ale zakres tych wytycznych był stosunkowo wąski i nie obejmował innych wirusów. W 2014 roku Biuro Polityki Naukowej i Technicznej Białego Domu ogłosiło nowe procedury oceny ryzyka i korzyści płynących z eksperymentów GoF, obejmujące grypę oraz wirusy MERS i SARS. Te nowe zasady wstrzymały jednak trwające badania nad nowymi szczepionkami przeciw grypie.
Rząd zmienił kurs w 2017 roku, po tym, jak Narodowa Rada Naukowa ds. Bezpieczeństwa Biologicznego ustaliła, że takie badania nie stanowią zagrożenia dla bezpieczeństwa publicznego. W 2019 roku rząd USA ogłosił, że wznawia finansowanie – uwaga – nowej serii eksperymentów GoF, mających na celu ponowne zwiększenie transmisyjności wirusa ptasiej grypy H5N1.
Jednak niezależnie od tego, w którą stronę przechyla się ta huśtawka decyzyjna, osoby o niegodziwych zamiarach wciąż mają dostęp do szczegółowych artykułów naukowych i materiału genetycznego sprzedawanego drogą wysyłkową.
Jeśli chodzi o biologię syntetyczną, eksperci ds. bezpieczeństwa są szczególnie zaniepokojeni zagrożeniami, jakie mogą wyniknąć z problemu podwójnego zastosowania w przyszłości. Tradycyjne strategie obrony ludności nie zadziałają w starciu z wrogiem, który zaadaptował produkty genetyczne lub specjalnie zaprojektowane molekuły do użycia w formie broni biologicznej.
W artykule opublikowanym w sierpniu 2020 roku w czasopiśmie naukowym „CTC Sentinel”, które koncentruje się na współczesnych zagrożeniach terrorystycznych, dr Ken Wickiser, biochemik i prodziekan ds. badań w akademii wojskowej West Point, napisał: „Ponieważ narzędzia inżynierii molekularnej dostępne biologom syntetycznym stają się coraz potężniejsze i bardziej rozpowszechnione, prawdopodobieństwo pojawienia się przynajmniej jednego z tych zagrożeń graniczy z pewnością. (…) Ze skalą zmian, jakie ten rozwój wnosi do krajobrazu zagrożeń, może konkurować jedynie budowa bomby atomowej”.
Amy Webb, Andrew Hessel
Jest to fragment książki Projekt Genesis autorstwa Amy Webb i Andrew Hessela wydanej w Wydawnictwie Prześwity. Jej recenzję zamieszczamy w tym numerze.
Tytuł i wyróżnienia pochodzą od Redakcji SN.
- Autor: Wojciech Cellary
- Odsłon: 6717
„Od zawsze" prowadzi się w Polsce dyskusje w najróżniejszych gremiach, jak poprawić innowacyjność, bo w rankingach Polska plasuje się daleko za światową czołówką. Nie jest to bynajmniej dyskusja o znaczeniu wyłącznie akademickim, tylko wynika z troski o to, w jaki sposób polska gospodarka będzie konkurować na rynkach światowych.
- Autor: Anna Leszkowska
- Odsłon: 1263
Ważnym elementem drogi do społeczeństwa informacyjnego, czy społeczeństwa wiedzy, będzie technika cyfrowa, której jednak nie należy rozumieć w sensie sztucznej inteligencji. Taka nazwa wprowadza w błąd sugerując, że komputer może dorównać inteligencją człowiekowi czy nawet go przewyższać.
Tymczasem to, co popularnie (a błędnie) nazywane jest sztuczną inteligencją, to inteligencja cyfrowa, logiczna, zaś pełna inteligencja człowieka opiera się w decydującym stopniu na inteligencji emocjonalnej, obejmującej m.in. intuicję, empatię, itp.
To inteligencja emocjonalna jest głównym źródłem innowacyjności i wynalazczości i dlatego też inteligencja cyfrowa nie uczyniła dotąd żadnego wynalazku.
Tym niemniej, technika cyfrowa będzie - tak jak ostatnio - decydowała nie tylko o potencjale ekonomicznym, lecz także o stosunkach społecznych w nowym społeczeństwie informacyjnym, czy też społeczeństwie wiedzy. Trzeba przy tym pamiętać, że droga do społeczeństwa wiedzy wynikać będzie z zasadniczego ograniczenia pracy wytwórczej oraz usługowej na skutek powszechnego zastosowania automatyzacji i robotyzacji.
To nie technika jest przy tym odpowiedzialna za te zmiany, tylko podstawowy mechanizm kapitalizmu: zastępowanie pracy przez kapitał, czy raczej maszyny i urządzenia za ten kapitał kupione w dążeniu do większych zysków.
Mechanizm ten działa już od ponad dwustu lat, ale ostatnio znacznie przyspieszył ze względu na podaż technik automatyzacji i robotyzacji, a także na dodatnie sprzężenie zwrotne zawarte w tym mechanizmie (im więcej przedsiębiorca zyska na wdrożeniu nowych technik, tym bardziej jest skłonny ponownie w nie inwestować).
O ile dwieście lat temu wystarczało raz w życiu nauczyć się nowego zawodu, dzisiaj przedstawiciele technik informacyjnych twierdzą, że nowego zawodu trzeba się uczyć siedem razy w życiu.
Wprawdzie trend ten nie wyeliminuje całkowicie pracy człowieka (pozostaną zawody wymagające inteligencji emocjonalnej i pracy twórczej), ale utrata miejsc pracy może wywołać znaczne napięcia społeczne. Dlatego też w najbliższych dekadach konieczna będzie zmiana społecznych wymagań wobec przedsiębiorcy: nie wystarczy, że wytworzy on zysk, ale wymagane będzie, aby kreował on także miejsca pracy, ograniczając mechanizm zastępowania pracy przez kapitał.
Istnieją przy tym proste a niezawodne wskaźniki ekonomiczne (jak stosunek funduszu płac pracowniczych do całkowitego dochodu przedsiębiorstwa, który dla przedsiębiorstw produkcyjnych w Polsce zmalał w latach 1990-2010 od ok. 50% do ok. 10%), od których można uzależnić opodatkowanie przedsiębiorcy tak, by był on fiskalnie umotywowany do kreowania miejsc pracy i ograniczenia trendu zastępowania pracy przez kapitał*.
Andrzej P. Wierzbicki
Instytut Łączności, Państwowy Instytut Badawczy
*p. A.P. Wierzbicki, Przyszłość pracy w społeczeństwie informacyjnym, Komitet Prognoz PAN „Polska 2000 Plus” oraz Instytut Łączności, PIB, Warszawa 2015.
- Autor: Anna Leszkowska
- Odsłon: 7945
W książce Jak powstawały i jak upadały zakłady przemysłowe w Polsce Andrzeja Karpińskiego, Stanisława Paradysza, Pawła Soroki i Wiesława Żółtkowskiego* autorzy, omawiając przyczyny masowej likwidacji w 1989 roku zakładów przemysłowych zbudowanych w PRL, podają siedem tego przyczyn.
Większość z nich jest już znana, niemniej niektóre w świetle dzisiejszej sytuacji w Europie i świecie nabierają nowego znaczenia i wymagałyby ponownego przeanalizowania.
Dotyczy to zwłaszcza błędów w doktrynie i przyczyn wyjątkowo nieprzyjaznego stosunku rządów do własnego przemysłu państwowego.
Dla jasności wywodu, przytaczamy w skrócie wszystkie siedem „grzechów głównych” rządów po 1989 roku, jakie dokładnie, na przykładach, omówili autorzy tej książki.
Po pierwsze – brak strategii przemysłowej.
Dotyczy to wszystkich solidarnościowych rządów, które nie potrafiły stworzyć polityki przemysłowej państwa, określić dziedzin wspieranych i chronionych przez państwo, ani tych, które można było poddać mechanizmom rynkowym. Był to wynik zauroczenia nowych władz neoliberalizmem i wynik braku wiedzy z historii gospodarczej, gdyż właśnie polityka przemysłowa jest szczególnie potrzebna krajom opóźnionym w rozwoju przemysłu i o niekonkurencyjnej pozycji na rynku światowym.
Utrata dużej części potencjału przemysłowego zbudowanego w PRL unicestwiła część efektów powojennej industrializacji kraju. Przyjęcie skrajnie doktrynerskich rozwiązań najmocniej uderzyło w najbardziej nowoczesne przemysły w Polsce – właśnie te, których obrona była niezbędna z uwagi na ich najmniejszy dystans technologiczny wobec Zachodu.
Po drugie – pośpiech w przeprowadzaniu reformy ustrojowej.
To tzw. terapia szokowa, która spowodowała, że państwo dążyło do jak najszybszego zniszczenia struktur gospodarczych PRL. Tempo, w jakim dokonywano zniszczenia przemysłu graniczyło z awanturnictwem gospodarczym. Żaden kraj, oprócz Polski, nie poszedł tą drogą – podają autorzy analizy.
Po trzecie – błędy w doktrynie i wyjątkowo nieprzyjazny stosunek rządów do własnego przemysłu państwowego.
Uznano, że państwo winno być wyeliminowane z gospodarki, choć właśnie ono – i tylko ono – mogło przyspieszać przemiany i gwarantować ich wyższą skuteczność. Żaden jednak z polskich rządów neoliberalnych nie chciał o tym słyszeć, nie chciał widzieć, że wszystkie ówczesne rządy państw w jakimś stopniu kształtują swoją politykę gospodarczą, przemysłową.
Skutkiem przyjęcia doktryny całkowitej eliminacji państwa z gospodarki był wyjątkowo silny, nieprzyjazny stosunek do własnego przemysłu państwowego. To jedna z najbardziej charakterystycznych i specyficznych cech strategii transformacji ustrojowej w Polsce. Własność państwową traktowano jako zło absolutne, które należy wyeliminować bez względu na jej jakość i przydatność gospodarczą oraz społeczną.
W krajowych środkach przekazu starano się ukryć tę chęć świadomego niszczenia własnego przemysłu państwowego (a zatem kapitału całego społeczeństwa), jednak otwarcie się o tym pisało w prasie zagranicznej, m.in. w The Economist (23.01.93): „Pesymiści obawiają się, że te firmy państwowe, które nie znikną, mogą poważnie zagrozić polskiej reformie gospodarczej i jej polityce” (dlatego bardzo niepokoiły ich dobre wyniki osiągane przez niektóre przedsiębiorstw państwowe - komentują autorzy książki).
I dalej, w tym samym artykule: „Tam, gdzie reforma gospodarcza napotyka trudności polityczne, albo restrukturyzacja korporacji (zjednoczeń) napotyka opory, lepszym rozwiązaniem może się okazać po prostu pozwolić na upadek firm państwowych, wypłacić zasiłki dla bezrobotnych i sprzedawać kawałkami rzeczowe zasoby tak, aby nowi właściciele mogli zaczynać na gruzach”. To przesłanie, zdaniem autorów książki, zostało w praktyce i z całą konsekwencją zastosowane i wpłynęło w decydujący sposób na masowy charakter likwidacji istniejących zakładów przemysłowych w Polsce.
Oznaczało to zarazem realizację jeszcze jednego, znacznie bardziej długofalowego przesłania zawartego w pracach Paula Rosensteina-Rodana, który już w czasie II wojny światowej opowiadał się przeciw budowie przemysłu w Europie Wschodniej na rzecz przemieszczenia zasobów pracy z tych terenów do Europy Zachodniej i nie w pełni wykorzystanego tam potencjału przemysłowego. Uważał, że byłoby to zgodne z interesem gospodarki światowej.
Wskazanie to – jak widać - zostało zrealizowane po 50 latach i było dziełem wszystkich rządów po 89 r., które nie kiwnęły palcem, aby pomóc państwowemu przemysłowi (innego przecież nie mieliśmy), a zwłaszcza, aby nie utrudniać mu funkcjonowania.
Nie tylko bowiem zrezygnowano z jakiejkolwiek ochrony przedsiębiorstw państwowych (sejm ich też nie bronił), ale zastosowano do nich inną miarkę niż dla inwestorów zagranicznych.
Przede wszystkim radykalnie zliberalizowano cła (wskutek tego upadł cały przemysł lekki, a z nim prawie milionowe miasto, Łódź);
zrezygnowano z ceł eksportowych, chroniących gospodarkę przed nieracjonalnym społecznie eksportem (np. eksport złomu);
zrezygnowano też z negocjowania specjalnych uregulowań problemów wynikających ze specyfiki gospodarki polskiej w okresie stowarzyszenia z UE;
zrezygnowano z wykorzystania klauzuli przemysłów początkujących, co automatycznie spowodowało upadek zakładów przemysłowych w najbardziej nowoczesnych dziedzinach jak elektronika, przemysł informatyczny, lotniczy.
Nadano specjalne przywileje importerom kosztem producentów krajowych (najboleśniej odczuł to przemysł farmaceutyczny i chemiczny), a na dodatek w stosunku do przedsiębiorstw państwowych zastosowano wyjątkowo restrykcyjną politykę fiskalną i kredytową.
Wprowadzono wysoki podatek od wzrostu płac (tzw. popiwek),
zaostrzono zasady naliczania amortyzacji,
nałożono obowiązek korzystania z wysoko oprocentowanych kredytów bankowych (sic!) i odprowadzania dywidend w skali uniemożliwiającej inwestowanie.
Restrykcje zastosowano też – zgodnie z nową ideologią - wobec spółdzielczości - oczywiście nie obwiązywały one przemysłu prywatnego.
Po czwarte – podczas prywatyzacji przemysłu popełniono zasadnicze błędy,
stawiając pod znakiem zapytania słuszność wielu decyzji o prywatyzacji. Autorzy opracowania uważają, iż zdecydowało o tym skrajne doktrynerstwo i brak pragmatyzmu. W okresie sprawowania przez Janusza Lewandowskiego funkcji ministra przekształceń własnościowych dopuszczono się wszystkich możliwych błędów w procedurach i procesach prywatyzacji tak, że odnosiło się wrażenie, iż było to świadome działanie.
Np. w umowach prywatyzacyjnych nie zapewniono ciągłości produkcji (albo tego nie przestrzegano), co skutkowało działaniami przestępczymi;
dopuszczono do sprzedaży zakładów w częściach, tym samym rozrywając ciągłość procesów produkcyjnych (w podręcznikach ekonomii praktyka ta jest całkowicie potępiana);
godzono się na likwidację sprzedanych przedsiębiorstw wbrew umowom (Elwro, cukrownie, zakłady przemysłu lekkiego, spożywczego, itd.);
prawie skasowano polskie zaplecze badawczo-rozwojowe, o którym „zapomniano” w procesach prywatyzacyjnych (zatrudnienie w tym sektorze spadło trzykrotnie, co skutkuje do dzisiaj niską innowacyjnością gospodarki);
dopuszczono do spekulacji terenami poprzemysłowymi (cennymi, bo uzbrojonymi);
nie utworzono planowanego funduszu modernizacji przemysłu krajowego (ze środków prywatyzacji przedsiębiorstw przemysłowych);
pozwolono niektórym prywatnym bankom łamać zakaz wykupu przedsiębiorstw państwowych z bankowych kredytów (i spekulować gruntami przemysłowymi);
akceptowano skandalicznie niskie wyceny sprzedawanych przedsiębiorstw;
łamano zasady opłacalności przedsięwzięć prywatyzacyjnych;
godzono się na niedopuszczalnie wysokie koszty procesów prywatyzacyjnych (słynne brygady Mariotta).
Te błędy nie wynikały z braku doświadczenia, czy niedopatrzenia, gdyż stworzenie narodowych funduszy inwestycyjnych, (mających na celu poprawę gospodarowania majątkiem państwa), tylko pogłębiło te nieprawidłowości – piszą autorzy książki i powołują się na wspomniany artykuł z The Economist. Dla polskiego rządu metoda prywatyzacji przedsiębiorstw poprzez sprzedaż obligacji okazała się bowiem zbyt wolna, więc już w 1991 r. rozpoczął prace nad programem masowej prywatyzacji poprzez NFI. Programem tym, a także działaniami syndyków, praktycznie zabito pozostałe przedsiębiorstwa państwowe.
Po piąte – brak ochrony gruntów poprzemysłowych przed spekulantami budowlanymi.
W ustawie prywatyzacyjnej z 1990 roku do wyceny wartości prywatyzowanych zakładów przemysłowych nie zaliczono wartości gruntów przez nie zajmowanych (sic!). Tereny, jakie posiadały państwowe zakłady – przekazane im w PRL nieodpłatnie –zostały darowane (zwłaszcza w miastach) nowym właścicielom tych obiektów. Przy wysokich cenach gruntów w miastach dawało to wielkie możliwości spekulacji tymi terenami, zwykle dzielonymi na działki budowlane, z czego oczywiście nowi właściciele masowo korzystali. Brak interwencji rządów w tej sprawie wskazuje, iż był to proceder zaplanowany, choć spowodował znaczne straty państwa.(Ocenia się, że powodem ok. 1/3 nieuzasadnionych likwidacji zakładów przemysłowych była chęć spekulacji działkami budowlanymi).
Po szóste – niepohamowane dążenie do indywidualnego bogacenia się kosztem interesu i majątku publicznego.
Tylko w Polsce (poza ZSRR) tendencja ta wystąpiła tak silnie. Za wyjątkowo dużą skalą likwidacji zakładów przemysłowych zbudowanych w PRL stały interesy osobiste konkretnych ludzi i interesy wielkiego kapitału, co dało podstawę do określenia polskiej prywatyzacji jako złodziejskiej. Niski poziom moralności polskiego społeczeństwa, o czym mówi prof. Witold Kieżun był jednym z istotnych czynników niszczenia dorobku przemysłowego poprzedniego okresu – piszą autorzy.
Po siódme – relacje między centrum i szczeblami lokalnymi.
Uznano, że decyzje niepopularne zamiast na szczeblu centralnym, lepiej podejmować na szczeblu lokalnym, gdzie mechanizmy kontroli społecznej są słabsze (ale ryzyko korupcji większe). To natomiast skutkowało zrywaniem wieloletnich powiązań kooperacyjnych i stało się przyczyną upadku wielu przedsiębiorstw, gdyż władze jednego województwa nie liczyły się w ogóle z interesami innego.
W podsumowaniu tej niezwykle cennej dla zrozumienia obecnej sytuacji w Polsce książki, której wartość dokumentacyjna jest trudna do przecenienia, autorzy konkludują, iż masowa likwidacja kilkuset (657) zakładów po 1989 roku stała się główną przyczyną regresu w poziomie uprzemysłowienia kraju.
Idąc dalej niż autorzy analizy, można stwierdzić, iż jednym ze skutków deindustrializacji jest obecna masowa emigracja z Polski. Teza ta, niestety, dobrze koreluje z przytoczonymi wyżej poglądami Paula Rosensteina-Rodana, wyrażonymi w artykule "Problemy uprzemysłowienia w Europie Południowo-Wschodniej i Wschodniej".
Anna Leszkowska
* Jak powstawały i jak upadały zakłady przemysłowe w Polsce, Andrzej Karpiński, Stanisław Paradysz, Paweł Soroka, Wiesław Żółtkowski, wyd. Muza SA, Warszawa 2013
Problem deindustrializacji Polski po 1989 roku poruszaliśmy niejednokrotnie, m.in. w: SN Nr 2/2013 - Co się stało z polskim przemysłem?, SN 3/2013 - Budujmy przemysł!, SN 12/2014 - Gospodarka nie jest modna, SN 3/2015 - Kontynuować czy zmienić?