Ochrona środowiska
- Autor: Marek Wąsiński
- Odsłon: 1906
Dotychczas zgłoszone krajowe cele redukcyjne nie zapewniają odpowiedniej skali ograniczenia emisji, by zatrzymać globalne ocieplenie poniżej 2°C. Chociaż zadeklarowane wkłady w obecnym kształcie nie są wystarczająco ambitne, mogą stać się solidną podstawą przyszłych działań klimatycznych. Polski rząd powinien wesprzeć ten proces, opowiadając się za zwiększeniem pomocy finansowej i technologicznej dla państw rozwijających się.
Koncepcja planowanych, krajowo określanych kontrybucji (tzw. wkłady krajowe, INDC – Intended Nationally Determined Contributions) powstała podczas Konferencji Stron (COP19) w 2013 r. w Warszawie. Mechanizm ten ma stać się jednym z fundamentów globalnego porozumienia klimatycznego. Pozwolił on wszystkim krajom na włączenie się w negocjacje przy zachowaniu indywidualnego podejścia do kwestii zmian klimatu.
Państwa mają czas do szczytu klimatycznego w Paryżu (COP21), by przedstawić wizję swojego sprawiedliwego udziału w walce z globalnym ociepleniem, przede wszystkim w wysiłkach w celu redukcji emisji gazów cieplarnianych w latach 2020–2030.
Dotychczas złożone INDC pokazują, że planowane przez kraje działania nie wystarczą do osiągnięcia zakładanego celu ograniczenia globalnego ocieplenia na koniec wieku do 2°C względem epoki przedindustrialnej. Deklaracje są nie tylko zbyt zachowawcze, ale również za mało przejrzyste i porównywalne. Z kolei brak prawnego zobowiązania państw do realizacji zadeklarowanych celów stawia pod znakiem zapytania osiągnięcie nawet tych skromnych redukcji. Pomimo to INDC jest jedynym mechanizmem koordynacji działań klimatycznych możliwym do uzgodnienia przez polityków.
Niewystarczająca wysokość redukcji
Do 7 września swoje deklaracje celów redukcyjnych przedstawiło 58 państw odpowiadających za 65% światowej emisji CO2. W specjalnym raporcie nt. energii i zmian klimatu World Energy Outlook 2015 oceniono upublicznione do czerwca 2015 r. plany działań jako prowadzące do wzrostu temperatur na koniec wieku o 2,6°C. By na pewno osiągnąć cel 2°C na koniec wieku, emisje CO2 z sektorów energetycznych do 2030 r. musiałyby być niższe jeszcze o ponad 9 gigaton (równe trzykrotności emisji UE w 2013 r.).
Unia Europejska zadeklarowała najambitniejszy cel – chce obniżyć emisje gazów cieplarnianych (GHG) o co najmniej 40% do 2030 r. względem 1990 r. W porównaniu z poziomem z 2005 r. emisje spadną o 36%. Z kolei USA planują obniżyć emisje o 26–28% do 2025 r. względem poziomu z 2005 r. Porównanie obu deklaracji jest jednak trudne, ponieważ nie tylko przyjęto w nich inne lata bazowe (1990 i 2005 r.), ale przede wszystkim różne daty osiągnięcia celów redukcyjnych (2025 oraz 2030 r.).
Możliwe jest natomiast zestawienie z ogłoszonym w sierpniu przez prezydenta Baracka Obamę Clean Power Plan. USA mają w nim obniżyć emisje z wytwarzania energii elektrycznej do 2030 r. o 32% względem 2005 r.
W ocenie skutków unijnej polityki klimatycznej oszacowano, że do 2030 r. emisje z tego sektora spadną w Unii o 57% względem poziomu z 2005 r., co ilustruje zachowawczość amerykańskich strategii.
Pozostałe rozwinięte gospodarki także nie wykazały się wysokimi ambicjami w dziedzinie ochrony klimatu, np. Japonia chce do 2030 r. obniżyć emisje GHG jedynie o 25,3% względem poziomu z 2005 r.
Brak przejrzystości INDC
Innym problemem jest stosowanie różnych wskaźników do oceny zobowiązań klimatycznych. Chiny, zamiast redukcji emisji GHG, zadeklarowały obniżenie emisyjności swojej gospodarki o 60–65% do 2030 r. względem poziomu z 2005 r. Chiny zamierzają też przyśpieszyć szczyt emisji CO2, tak by miał miejsce najpóźniej w 2030 r., co w praktyce oznacza wzrost emisji CO2 do 2025–2030 r. INDC w takim kształcie jest nieporównywalne z innymi, ale mimo wszystko świadczy o tym, że Chiny chcą przyczynić się do ograniczenia globalnego ocieplenia.
Jednym z największych rozczarowań jest wkład zadeklarowany przez Rosję, która chce zredukować emisję GHG do 2030 r. o 25–30% poniżej poziomu z 1990 r., co w stosunku do 2010 r., przekłada się nawet na wzrost emisji o 4–9%. Rosyjskie zobowiązanie uwzględnia również wykorzystanie sektora LULUCF, czyli użytkowania ziemi, zmian w użytkowaniu ziemi oraz leśnictwa (ang. Land Use, Land Use Change and Forestry). Według szacunków inicjatywy Climate Action Tracker, Rosja, włączając ten sektor, zadeklarowała obniżenie emisji o 6–11% względem 1990 r.
LULUCF kładzie nacisk na rolę lasów w akumulacji dwutlenku węgla – im jest ich więcej, tym więcej go wchłoną. Dlatego zalesianie może być jednym ze sposobów na redukcję emisji. Z kolei wycinanie lasów i złe zarządzanie obszarami leśnymi ma wpływ odwrotny. Uwzględnienie tego sektora zmniejsza przejrzystość INDC, ponieważ nie uzgodniono jeszcze wspólnych zasad wyliczeń redukcji lub wzrostu emisji w związku z działaniami państw w tym sektorze.
UE – podobnie jak większość stron porozumienia – włączając LULUCF do swojego celu redukcyjnego, zmniejszyła przejrzystość deklaracji.
Brak obowiązkowości
W przeciwieństwie do szczytu klimatycznego w Kopenhadze w 2009 r., szczyt w Paryżu ma być oparty na dobrowolnych i oddolnych zobowiązaniach. INDC mają być tego najważniejszym wyrazem. Jednak dużym mankamentem pozostaje fakt, że porozumienie w Paryżu nie zobowiąże międzynarodowo państw do wypełnienia deklaracji. Nie powstanie nawet wspólny system oceniania wysokości zobowiązań – nie zgadzają się na to Chiny i USA. Dlatego dopóki oddolnie zadeklarowane cele nie zostaną w pełni osiągnięte, niemożliwe będzie uznanie tego systemu za sukces.
Z kolei inny czynnik, który wprowadza warunkowość wypełnienia deklaracji, także zwiększa niepewność co do ostatecznego powodzenia zobowiązań, ale jednocześnie jest zaletą procesu INDC.
Meksyk np. zadeklarował bezwarunkowe zmniejszenie emisji o 22% do 2030 r. poniżej poziomu, który zostałby osiągnięty, gdyby nie dokonał żadnych redukcji. Jednak jeśli otrzyma wsparcie innych krajów, będzie się starał zmniejszyć emisje o 36%.
System ten umożliwił państwom rozwijającym się – nawet najmniej rozwiniętym – uczestnictwo w mechanizmie INDC. Etiopia, Kenia, Maroko, Dominikana, Algieria i Demokratyczna Republika Konga złożyły deklaracje pod warunkiem uzyskania międzynarodowego wsparcia finansowego i technologicznego.
W przeciwnym razie te państwa, na których nie ciąży historyczna odpowiedzialność za emisje CO2, skoncentrują się tylko na wzroście gospodarczym i walce z ubóstwem.
Cele na szczyt klimatyczny w Paryżu
Pomimo zastrzeżeń i obaw istnieje szansa, że INDC staną się nie tylko częścią paryskiego porozumienia, ale też solidną podstawą do przyszłych, dostosowanych do potrzeb działań klimatycznych. By tak się stało, w paryskiej umowie należy określić metody mierzenia emisji w LULUCF, by zwiększyć przejrzystość INDC. Wówczas niektóre państwa, po wyłączeniu tego sektora z celów redukcyjnych, mogą poczuć się zmobilizowane do ich podniesienia.
Ważnym pomysłem, który wzmocni INDC, jest też wprowadzenie pięcioletniego cyklu ich rewizji. Gdyby taki mechanizm powstał, przynajmniej te państwa, których obecne zobowiązania wyznaczają cele do 2030 r., musiałyby je uzupełnić o cel pośredni na 2025 r. Niektórzy już wtedy podwyższą zakładane redukcje. Jeśli pierwsze pięć lat przebiegnie sprawnie, państwa będą mogły dokonać rewizji w górę ich celów redukcyjnych na 2030 r.
Pozytywnym sygnałem jest również to, że poza Brazylią i Indiami, które ogłosiły zamiar złożenia INDC przed COP21, wszyscy najwięksi emitenci już ogłosili swoje cele redukcyjne. Włączenie w ten proces państw rozwijających się i najmniej rozwiniętych oznacza, że porozumienie w Paryżu może stać się początkiem wspólnych ogólnoświatowych działań na rzecz ograniczenia zmian klimatycznych.
Nie są one jeszcze wystarczające, ale do innych politycy, podejmujący decyzje w kilkuletnich cyklach wyborczych, nie byliby w stanie długoterminowo się zobowiązać.
Odosobniony lider
Deklaracje państw najmniej rozwiniętych i Meksyku wskazują na bardzo istotny segment, w którym UE powinna podjąć dodatkowe działania. Wsparcie finansowe i przekazywanie technologii dla państw rozwijających się oraz gospodarek wschodzących uzależnionych od paliw kopalnych może stać się uzupełnieniem unijnego INDC i jednocześnie zwiększyć skalę koniecznych globalnych działań.
Deklaracja UE może wydawać się zbyt ambitna w porównaniu z innymi państwami, ale z globalnego punktu widzenia wcale taka nie jest. Można ją bowiem uznać za sprawiedliwy, pod względem możliwości gospodarczych, wkład starego kontynentu w międzynarodowe porozumienie.
Unia jednak zbyt optymistycznie zakłada, że może przewodzić globalnym negocjacjom. Unijne INDC miało zmotywować innych partnerów do równie wysokich redukcji emisji, ale porównanie zadeklarowanych wkładów każe ocenić UE jako lidera pozbawionego naśladowców i nieoddziałującego na innych.
Polscy negocjatorzy powinni uświadamiać unijnych partnerów co do odosobnienia UE w negocjacjach klimatycznych. Dlatego też należy wskazywać na LULUCF jako przestrzeń do ewentualnego obniżenia zakładanego celu UE wobec nieambitnych deklaracji innych państw. Polski rząd powinien propagować także ideę większego zaangażowania Unii we wsparcie innych państw w osiągnięciu zadeklarowanych celów redukcyjnych. By zdobyć w tej kwestii zaufanie europejskich partnerów, rząd musi wypracować najpierw własną politykę finansowania działań klimatycznych dla krajów rozwijających się.
Marek Wąsiński
Powyższy tekst został opublikowany w Biuletynie PISM Nr 77 z 11.09.15 http://www.pism.pl/publikacje/biuletyn/nr-77-1314
- Autor: Andrzej Jeleński
- Odsłon: 20906
W XXI wieku na rozwój społeczeństw w większej mierze niż elektryczność ma wpływ pole elektromagnetyczne.
Żyjemy w polu elektromagnetycznym (PEM), emitowanym przez różnego rodzaju nadajniki, telefony komórkowe, sprzęt AGD, telewizory i systemy wi-fi. Powstające zdalnie sterowane systemy „inteligentnego domu”, monitorowania zdrowia, czy internet rzeczy sprawiają, że liczba źródeł i natężenie tych pól szybko rosną. Rośnie też zapotrzebowanie na energię elektryczną, a to powoduje zwiększenie emisji PEM przez napowietrzne linie przesyłające.
Dynamika tych procesów sprawia, że zagrożenia związane z otaczającym nas polem elektromagnetycznym - obok nanotechnologii, (pozwalającej na wytwarzanie nanoproduktów, zwanych przez niektórych uczonych „azbestem” naszego wieku) - uznano za najważniejsze zagrożenia XXI wieku.
Pierwsze doniesienia o możliwości oddziaływania PEM na organizm człowieka pochodzą z końca XVIII w., kiedy odkryto, że pole o częstotliwości około 1 MHz powoduje skurcze mięśni (oddziaływania nietermiczne).
W połowie XIX w. Guillaume Duchene - twórca elektroterapii - opisał efekt grzania tkanek prądem. Powstały nowe dziedziny diagnostyki i terapii medycznej, m.in. rezonans i terapie magnetyczne.
Badania nad skutkami działania PEM rozpoczęto na dużą skalę po 1960 r. w ZSRR, gdzie zaobserwowano objawy chorobowe pracowników stacji radiolokacyjnych i urządzeń nadawczych.
Od tego czasu rozwijały się - niezależnie od siebie - zarówno badania nad możliwościami wykorzystania PEM w diagnostyce i terapii, jak i badania dotyczące zagrożeń zdrowia, jakie to pole stwarza.
Zanurzeni w PEM
Pole elektromagnetyczne, obok pola grawitacyjnego oraz krótko-zasięgowych oddziaływań silnych i słabych, jest jednym z czterech podstawowych pól we Wszechświecie. Związane jest ono z przemieszczaniem się ładunków elektrycznych powodowanym przez zjawiska naturalne (wyładowania atmosferyczne, promieniowanie słoneczne) lub emitowane przez różne urządzenia (linie energetyczne, radiostacje, urządzenia telefonii komórkowej, telewizji, radiolokacji sprzęt AGD, itd.).
Zagrożenia zdrowia powodowane przez PEM wynikają zwykle z ekspozycji na promieniowanie niejonizujące w zakresie od pól stałych do podczerwieni (pola elektrostatyczne, pola magnetostatyczne oraz zmienne w czasie pole elektromagnetyczne o częstotliwości do 300 GHz).
Najbardziej powszechnym źródłem PEM w zakresie małych częstotliwości są elektryczne linie wysokiego napięcia i stacje transformatorowe, a także mniejsze urządzenia domowe (sprzęt AGD). Z kolei źródłem promieniowania elektromagnetycznego wysokiej częstotliwości są anteny telewizyjne, sieci telefonii komórkowej i innych systemów komunikacyjnych, zdalnego sterowania i monitoringu. Chociaż powinny być montowane wysoko nad dachami, to niekiedy budynki je przewyższają, co zwiększa zagrożenie zdrowia ich mieszkańców - nawet wówczas, jeśli wielkość promieniowania od poszczególnych anten jest w granicach normy. Kumulacja pól pochodzących z różnych źródeł może bowiem sprawić, że wielkość promieniowania w pewnych miejscach znacznie przekracza maksymalną wartość uznaną za bezpieczną.
Ułomna ocena
Nie udało się dotychczas znaleźć mechanizmów oddziaływania PEM na organizm człowieka, stąd opisywane są jedynie jego efekty. Do ich badań stosowane są 3 grupy metod:
Do badania bezpośrednich skutków naświetlania PEM stosuje się:
- metody biologiczne (in vivo u ochotników lub zwierząt oraz in vitro na próbkach), oraz
- metody dozymetryczne (pozwalające na znalezienie związku między natężeniem pól zewnętrznych a polami wewnątrz organizmu).
Natomiast do badania skutków długotrwałego przebywania w PEM stosuje się metody statystyczne, epidemiologiczne, polegające na badaniu populacji poddanej działaniu określonego zagrożenia z podobną populacją, na którą zagrożenie to nie oddziałuje.
Istnieje duża niepewność w określeniu wpływu PEM na zdrowie człowieka na podstawie wyników uzyskiwanych tymi metodami. Trudno bowiem określić, czy dany czynnik powoduje tylko chwilowe zaburzenia w funkcjonowaniu organizmu, czy też zostawia trwałe ślady, powodując tzw. uszczerbek na zdrowiu. Dlatego też w poszczególnych krajach przyjęto różne graniczne wartości SAR (Specific Absorption Rate, czyli szybkość, z jaką energia 1 wata jest pochłaniana przez masę 1 kg ciała. Współczynnik SAR jest powszechnie przyjętą miarą termicznego oddziaływania PEM na fale radiowe poniżej 10GHz).
Wszystkie ograniczenia emisji, lub czasu przebywania człowieka w pobliżu określonych źródeł promieniowania, wiążą się z dużymi kosztami, stąd ustawodawcy, mimo zwiększającej się liczby wyników wskazujących na istnienie określonych zagrożeń, powołując się na brak dostatecznej wiedzy, bardzo niechętnie modyfikują normy określające maksymalne wielkości PEM w obszarach, w których przebywają ludzie.
Zagrożenia termiczne
Pole elektromagnetyczne wnika do wnętrza organizmów żywych i oddziałuje na czynności tkanek i komórek, choć jego bezpośrednie oddziaływanie nie jest na ogół odczuwane zmysłami.
W zakresie częstotliwości niskich (LF), mniejszych od 100 kHz, ciało ludzkie znacznie zakłóca rozkład przestrzenny PEM, co wynika z dużo większej przenikalności elektrycznej ciała niż wolnej przestrzeni. Indukowane w organizmie pole elektryczne jest znacznie słabsze niż w otoczeniu, ale że ciało jest dobrym przewodnikiem prądu, wzbudzane na jego powierzchni ładunki powodują powstanie prądów wewnątrz ciała. Są one najsilniejsze, gdy ciało jest uziemione, a najsłabsze - gdy jest odizolowane od ziemi. Natomiast przenikalność magnetyczna ciała jest taka sama jak jego otoczenia, co powoduje, że nie tylko rozkład, lecz i natężenie pola magnetycznego pozostają w organizmie bez zmian.
Na skutek efektu Faraday’a, pole magnetyczne w organizmie indukuje pole elektryczne i związane z nim prądy, które mogą mieć szkodliwy wpływ na narażonych na promieniowanie ludzi.
W zakresie częstotliwości radiowych (powyżej 100 kHz) tracą na znaczeniu mechanizmy stymulowania komórek przez indukowane prądy i zasadniczy efekt oddziaływania fal elektromagnetycznych to bezpośrednie nagrzewanie tkanek w wyniku pochłaniania energii.
Najpowszechniejszym obecnie źródłem PEM są urządzenia telefonii komórkowej. Oceniając ich wpływ na pogorszenie stanu zdrowia, należy rozpatrywać oddzielnie problem narażenia na promieniowanie wytwarzane przez anteny stacji bazowych, a oddzielnie samych telefonów komórkowych, które choć są znacznie słabszym źródłem promieniowania, to jednak znajdują się zwykle bardzo blisko ciała. Rozmowa przez telefon przyłożony do ucha powoduje znaczną miejscową ekspozycję głowy na PEM.
Co prawda, głębokość wnikania promieniowania mikrofalowego do wnętrza tkanek u dorosłych jest nieduża (kilka centymetrów), ale w pewnych sytuacjach może sięgać niektórych struktur mózgu, szczególnie płata skroniowego.
Absorpcja PEM zwiększa się również wokół częstotliwości rezonansowych ciała. U dorosłych są one rzędu 35 MHz, jeśli ciało jest uziemione, lub 70 MHz, jeśli jest izolowane od ziemi. Gdy człowiek znajduje się w polu o zbliżonych częstotliwościach, wartość pochłanianej energii zwiększa się od 5 do 10 razy w stawach i w nogach.
Części ciała mogą też wykazywać rezonanse. Głowa dorosłego to ok. 400 MHz, podczas gdy głowa małego dziecka to ok. 700 MHz, znacznie bliżej częstotliwości GSM. Dodatkowe rezonanse ok. 1 GHz występują przy powierzchni ciała. Badania wykazały, że najbardziej podatną (a co za tym idzie zagrożoną) grupą na oddziaływanie PEM są dzieci.
Przy częstotliwości pola powyżej 100 kHz efekt termiczny zaczyna dominować. W zależności od głębokości, na jaką PEM wnika do organizmu, różne są tego konsekwencje - od grzania całego organizmu do oparzeń na powierzchni ciała.
Aktualnie uważa się, że napromieniowanie jest dopuszczalne, jeśli pod jego wpływem nie indukują się w organizmach prądy przewyższające maksymalne dopuszczalne ich wartości w tkankach, lub nie następują takie zmiany ich temperatury.
Główne zagrożenia w zakresie wysokich częstotliwości PEM mogą stwarzać nadajniki radiowe i telewizyjne, stacje bazowe telewizji komórkowej, radiotelefony i telefony komórkowe.
SAR telefonów komórkowych dostępnych na rynku wynosi od 0,2 – 2 W/kg, a ich promieniowanie może dochodzić nawet do 50 V/m. Najczęstsze wartości SAR to 0,4 – 0,9 W/kg (Apple - max. 1,59 W/kg, Samsung Galaxy -0,23W/kg- dane producentów).
Podczas łączenia z siecią klasycznej komórki GSM o mocy 1W, gęstość mocy w odległości 1 cm od telefonu może przekroczyć 300mW/cm2, lecz spada do 0,3mW/cm2 w odległości 30 cm.
Z podobną gęstością mocy mogą promieniować anteny w radiotelefonach i na samochodach z nadajnikami, co powoduje, że obok samochodu pole znacznie przekroczy określony przez amerykańską agencję FCC i UE bezpieczny poziom 1mW/cm2. Napromieniowanie przez współczesne telefony w technologii LTE (4G) - bazujących na wielu nadajnikach i spełniających funkcję routera - siłą rzeczy nie zależy tylko od czasu prowadzenia rozmów. Dlatego należy zwracać uwagę, by nie trzymać ich blisko ciała, np. w kieszeni koszuli lub spodni.
Groźne linie przesyłowe
Oprócz zagrożeń bezpośrednich, jakimi są prądy przepływające przez organizm na skutek przebywania w bardzo silnym PEM lub też dotknięcia jakiegoś obiektu będącego pod napięciem, istnieje wiele doniesień o nietermicznych skutkach takiego oddziaływania wskutek długotrwałego przebywania w polach elektromagnetycznych o natężeniach znacznie mniejszych niż normatywne wartości graniczne uznane za bezpieczne.
Źródłem największych pól elektromagnetycznych są linie przesyłowe. Raport INCIRP z roku 2010 mówi, iż przebywanie w polach elektrycznych o częstotliwości ok. 20 Hz i o natężeniu ponad 50 mV/m może spowodować lekkie zaburzenia w przetwarzaniu sygnałów optycznych i koordynacji motorycznej człowieka. Nie stwierdzono jednak, aby skutki tego były trwałe. W raporcie podkreśla się jednak, że czasy ekspozycji były krótkie, a liczba badań niedostateczna.
Z przeprowadzonej przez grupę ekspertów National Radiological Protection Board (NRPB) z Wielkiej Brytanii analizy wyników badań epidemiologicznych oddziaływania PEM małej częstotliwości na komórki nerwowe, uwzględniającej grupy najbardziej wrażliwe (dzieci, ludzie leczący się), wynika, że największym zagrożeniem jest ryzyko białaczki u dzieci żyjących w polach magnetycznych w pobliżu linii energetycznych. Bezpiecznie jest wówczas, kiedy wartość PEM w ich tkankach nie przekroczy 10 mV/m. Jednak wielu autorów wskazuje, że przy długotrwałym napromieniowywaniu, może być groźne pole o niższej wartości.
Draper i in. np. zbadali, że dla dzieci, które mieszkały w odległości mniejszej niż 200 m od linii energetycznych względne ryzyko białaczki jest o 70% większe w porównaniu z dziećmi, które żyły w odległości większej niż 600 m. Nie znaleziono natomiast korelacji z innymi nowotworami.
Także Dayet i in. określili, że w przypadku PEM małej częstotliwości, w domach, w których PEM jest większe od 0,4 μT względne ryzyko raka wynosi 2,00 w porównaniu do grupy kontrolnej, w której PEM były mniejsze niż 0,1 μT.
Natomiast szwedzkie studium epidemiologiczne (Feychting & Ahlbom,) doniosło o zwiększonej zachorowalności dzieci na białaczkę przy PEM równym lub większym od 2,0 mG (0,2 μT).
Z kolei Feuything i in. stwierdzili, że ryzyko śmierci z powodu choroby Altzheimera u ludzi związanych zawodowo z elektrycznością czy elektroniką było o 40% wyższe niż w grupie kontrolnej.
Inne doniesienia mówią skutkach długotrwałego pobudzania nerwów wpływających na funkcje poznawcze lub inne funkcje mózgu, pracę serca lub mięśni.
PEM wysokiej częstotliwości też groźne
Efekty nietermiczne oddziaływania PEM wysokiej częstotliwości są znacznie słabiej zbadane i dlatego regulatorzy (amerykańska FCC i INCIRP) zastrzegają, że nie uwzględniają wyników badań świadczących o możliwościach negatywnego oddziaływania PEM, gdy poziomy ekspozycji są niższe od wartości granicznej efektu termicznego, uważając je za zbyt fragmentaryczne i niedostatecznie udokumentowane.
Jednak coraz więcej naukowców uważa, że efekt grzania tkanek na skutek bezpośredniej absorbcji energii promieniowania przyjęty przez INCIRP za podstawę do wyznaczenia granicznych wartości napromieniowania, nie wystarcza do oceny możliwych skutków promieniowania na zdrowie ludzi, ponieważ:
- nie uwzględnia wpływu modulacji sygnałów (szczególnie impulsowej) emitowanych przez stacje bazowe i telefony komórkowe. Liczne badania in vivo i in vitro prowadzone od 1975 roku w Rosji i w Polsce wskazały, że z reguły modulacja PEM powoduje znaczne zwiększenie efektów biologicznych, a Frey w 1971 stwierdził, że pewne efekty mogą wręcz nie zachodzić dla pól niemodulowanych;
- nie uwzględnia skutków długotrwałego napromieniowania przez pole słabe, mogące powodować rozwój efektów patologicznych.
Oto parę przykładów szerzej opisywanych nietermicznych efektów oddziaływania PEM na organizmy ludzkie:
- mikrofalowy efekt słyszenia PEM o charakterze impulsowym (acoustic neuroma). Gdy wartość szczytowa natężenia promieniowania jest bardzo duża, to pomimo niskiej wartości mocy średniej ten efekt może występować;
- zaburzenie pracy bariery krew mózg BBB (Blood brain barrier). BBB ochrania tkankę mózgową i neurony przed potencjalnie szkodliwymi, obecnymi we krwi molekułami, lecz pozwala przechodzić potrzebnym dla metabolizmu polarnym molekułom, takim jak glukoza czy aminokwasy. W obecności PEM zwiększa się dyfuzja różnych molekuł z krwi do mózgu.
Z badań Salforda i in. przeprowadzonych na szczurach wynika, że 2-godzinne napromieniowanie przez telefon GSM o poziomach poniżej dopuszczalnego SAR (0,2; 2 i 200 mW/kg) powodowało znaczący wzrost uszkodzeń neuronów obserwowane po 50 i 28 dniach, lecz nie po 14 dniach. Jednak doniesienia na temat trwałych szkodliwych skutków w centralnym systemie nerwowym czy mózgu są sprzeczne; - zagrożenia chorobą nowotworową dotyczyło wiele publikacji wyrażających sprzeczne opinie powodowane w części faktem, iż stosunkowo krótki okres ich intensywnego rozpowszechnienia nie sprzyja ocenie skutków długotrwałego napromieniowania. Jednak jedna z nich (L. O Hardell, M. Carlberg i in.) pokazała, że u najczęstszych użytkowników telefonów (ok. 30 minut dziennie przez 10 lat) nastąpił 40% wzrost zachorowań na glejaka mózgu.
Największe ryzyko stanowi jednostronne używanie aparatu komórkowego, powodujące zwiększenie ryzyka nerwiaka nerwu słuchowego o 140%, a glejaka o 100%.
Hocking znalazł zależność pomiędzy zwiększoną zapadalnością dzieci na białaczkę, a odległością od wież z antenami telewizyjnymi. Stwierdził, że może być szkodliwe długotrwałe narażenie na PEM o bardzo małej gęstości promieniowania (w polu od 8 do 0,2 μW/cm2) pochodzące od wież nadajników radio-telewizyjnych w strefie bliskiej (do 4 km od stacji). W artykule z 1996 r. opisał wyniki badań wskazujące na dwukrotny wzrost śmiertelności z powodu białaczki u dzieci w strefie bliskiej w stosunku do strefy dalekiej (4-12 km), przy PEM od 0,2 do 0,02 μW/cm2. W 2000 r. opublikował wyniki wskazujące, że szanse na wyzdrowienie dzieci chorych na białaczkę w strefie dalekiej są dwukrotnie większe niż w bliskiej.
- Zagrożenia dla układu nerwowego badane były przez von Klitzinga, który stwierdził, że impulsowe pole telefonów komórkowych ma wpływ na fale mózgowe.
- Zagrożenia dla układu reprodukcyjnego - badania in vivo na ludziach i zwierzętach pokazały na negatywny wpływ PEM na liczbę i jakość plemników.
Doniesień o tych i innych zagrażających zdrowiu efektach nietermalnych przebywania w polu elektromagnetycznym jest znacznie więcej. Ich spisy oraz płynące z nich wnioski znaleźć można między innymi w „The BioInitiative Report Recommendations” z 2012 r. oraz w innych raportach.
Świadomość zagrożeń wynikających z długotrwałego przebywania w polach „słabych”, a więc dopuszczonych przez normy, jednak wzrasta. Już w 2008 r. organ PE STOA (Scientific Technology Options Assessment) zwrócił się do Komisarza EU o zaostrzenie standardów unijnych w zakresie ochrony ludności przed promieniowaniem w zakresie częstotliwości radiowych (RF-EMF fields), stwierdzając: „W oparciu o wyniki badań wpływu promieniowania na zdrowie ludzi, poziom graniczny dla miejsc przebywania ludzi nie powinien przekraczać wartości 1000 μW/m2 (0,1 μW/cm2), biorąc pod uwagę wszystkie skumulowane źródła promieniowania. Natomiast dopuszczalny poziom uśredniony długookresowy, przy uwzględnieniu współczynnika bezpieczeństwa, powinien wynosić nie więcej niż 100 μW/m2 dla miejsc długotrwałego przebywania ludzi.
Szczególnie zaostrzone kryteria powinny być zastosowane w odniesieniu do: miejsc spania, miejsc długotrwałego przebywania dzieci, noworodków i matek ciężarnych i miejsc długotrwałego przebywania osób starszych, osób z ciężkimi schorzeniami i przewlekle chorych. Dopuszczalny uśredniony poziom długookresowy powinien wynosić w takich przypadkach nie więcej niż 10 μW/m2”.
W 2011 r. Międzynarodowa Agencja Badań nad Rakiem (International Agency for Research on Cancer, IARC) zmieniła klasyfikację fal radiowych na „możliwie rakotwórcze” („possibly carcinogenic”) stwierdzając, że możliwe są ograniczone, negatywne skutki wynikające z ekspozycji na PEM o częstotliwościach radiowych dla użytkowników telefonów bezprzewodowych (np. glejak, czy nerwiak nerwu słuchowego – acoustic neuroma), jednak dotychczasowe badania nie pozwalają na wyciągnięcie wniosków odnośnie zagrożenia innymi rodzajami raka.
W 2012 r. międzynarodowy zjazd lekarzy wystosował dramatyczny apel o rozpoczęcie działalności edukacyjnej dotyczącej uświadomienia społeczeństw o możliwości zagrożeń dla zdrowia wynikających z ekspozycji na PEM i podjęcia przez rządy konkretnych kroków w celu zmniejszenia tych zagrożeń.
W 2014 roku rząd Belgii zabronił na swoim terytorium sprzedaży dziecinnych telefonów komórkowych i ich reklamy wśród dzieci do lat siedmiu. Nakazał też podawać wartości SAR dla wszystkich sprzedawanych aparatów.
A jak w Polsce?
W Polsce oraz krajach tzw. Bloku Wschodniego w latach 60-tych i 70-tych prowadzono bardzo szeroko zakrojone badania oddziaływania PEM na żywe organizmy. Ukierunkowane one były głównie na ekspozycje w słabych polach z ewentualnymi skutkami oddziaływań długoterminowych. Badając nietermiczne efekty oddziaływań słabych pól na zwierzęta, stwierdzono u nich różne zmiany parametrów fizjologicznych: zwiększenie przepuszczalności bariery krew-mózg, czy zwiększony wypływ jonów wapnia, których to efektów w żaden sposób nie można wytłumaczyć termicznym oddziaływaniem PEM.
Biorąc pod uwagę wyniki tych badań, już pierwsza regulacja prawna ochrony ogólnej populacji oraz środowiska przez szkodliwym oddziaływaniem PEM (rozporządzenie Rady Ministrów z 1980) ustanowiła wartości graniczne PEM na bardzo niskim poziomie. Miało to zapewnić wysoki poziom ochrony przed znanymi, a nawet przed jeszcze nie w pełni poznanymi skutkami negatywnego działania PEM na stan zdrowia ludzi i ich zabezpieczenie przed efektami ewentualnego kumulacyjnego działania pól wynikających z długoterminowej ekspozycji.
Ustanowiona w Polskiej Normie i podtrzymana w dalszych zarządzeniach wartość graniczna gęstości mocy pól mikrofalowych (0,1 W/m2 ) jest niższa niż obowiązujące w USA i większości krajów Europy.
Również w zakresie niskich częstotliwości sieci (50 Hz) PN podaje niższe wartości dopuszczalne pól elektromagnetycznych: 1000V/m dla pola elektrycznego, a 60 A/m2 dla pola magnetycznego, podczas gdy wg wytycznych Międzynarodowej Komisji d/s Promieniowania Niejonizującego z 2010 r. te wartości to 5000V/m i 80 A/m2.
Choć w polskich przepisach starano się uwzględnić efekty nietermiczne i na tle innych krajów gwarantują one stosunkowo najlepsze zabezpieczenie przed promieniowaniem, to wątpliwości budzić może kontrola ich przestrzegania. Na rynek polski dopuszczone są telefony komórkowe spełniające normy amerykańskie i INCIRP, w których gęstość mocy promieniowania przekracza stukrotnie wartość dozwoloną przez polską normę, a ta z kolei przekracza wielokrotnie rekomendowaną przez STOA wartość graniczną dla miejsc długotrwałego przebywania ludzi.
Ponadto, gdy budowane są nowe stacje bazowe, lub w ramach modernizacji zwiększana jest liczba nadajników i ich mocy, należałoby konsekwentnie wykonywać pomiary natężenia pola w ich otoczeniu.
Również potrzebna byłaby akcja uświadamiająca użytkowników telefonii komórkowej o zagrożeniu wynikającym z użytkowania telefonów komórkowych, skłaniająca ich do używania słuchawek i w miarę możności wyłączania, lub trzymania telefonów w pewnej odległości od ciała. Byłoby to bezkosztowe zmniejszenie zagrożenia przed PEM.
Działania takie stają się niezbędne choćby i z tego powodu, że dopuszczalne wartości natężenia PEM w USA i Europie Zachodniej zabezpieczają ludzi wyłącznie przed wystąpieniem bezpośrednich skutków efektu termicznego. W świetle coraz liczniejszych wyników badań stają się nieadekwatne i powinny być obniżone.
Jednak należy sobie zdawać sprawę z faktu, iż obniżenie wartości dopuszczalnych promieniowania związane jest z ogromnymi kosztami dla przemysłu, który silnie lobbuje za utrzymaniem aktualnych norm międzynarodowych. Tak długo jak te normy obowiązują, przemysł nie musi inwestować w sprzęt o większej czułości, mniejszej emitowanej mocy czy w zwiększanie liczby stacji bazowych. Jednak mając świadomość wszystkich dobrodziejstw płynących z używania coraz liczniejszych urządzeń wytwarzających PEM, należy pamiętać o możliwych zagrożeniach dla zdrowia wynikających z długotrwałej ekspozycji nawet w „słabym” polu elektromagnetycznym, które jest nowym rodzajem zanieczyszczenia środowiska.
Andrzej Jeleński
Prof. Andrzej Jeleński jest pracownikiem naukowym w Instytucie Technologii Materiałów Elektronicznych.
- Autor: Anna Leszkowska
- Odsłon: 3256
Skąd przychodzimy?
U zarania naszej państwowości lasy liściaste i mieszane zajmowały ok. 2/3 powierzchni. Przez wieki lasy traktowane były jako dobro wolne, z którego korzystano bez ograniczeń. Plądrownicza, a w okresie zaborów – rabunkowa, gospodarka leśna doprowadziła do dramatycznego spadku lesistości. Okres ten trwał do początku wieku XIX. Gatunkiem panującym w lasach już wówczas była sosna. Drzewostany dębowe i bukowe uległy znacznemu wyniszczeniu jeszcze przed rozbiorami jako najcenniejszy materiał eksportowy, a lesistość zmniejszyła się do poziomu ok. 25% na skutek rozwoju rolnictwa, osadnictwa, górnictwa, przemysłu i rozbudowy kolei żelaznej .
W l816 r. powstała Generalna Dyrekcja Lasów w Warszawie dla Królestwa Polskiego, a przy Uniwersytecie Warszawskim rozpoczęła od 1818 r. działalność Szkoła Szczególna Leśnictwa. Od tego momentu możemy mówić o tworzeniu się gospodarki leśnej i nauk leśnych na ziemiach polskich oraz pozytywnej roli leśnictwa w powstrzymaniu plądrowniczej, chaotycznej eksploatacji lasów w Europie. /…/
Powstrzymano plądrowniczą eksploatację istniejących lasów, ale zaczął się jednocześnie proces ich głębokiej przebudowy i intensyfikacji produkcji drewna.
Nowoczesna epoka pary, żelaza i węgla zwielokrotniła zapotrzebowanie na drewno. Wprowadzono model „lasu normalnego”, który w istocie zamieniał naturalne lasy liściaste i mieszane na sekwencję wysokowydajnych drzewostanów iglastych, dzieląc las na klasy wieku, najlepiej o równych powierzchniach, zapewniających regularność dostaw drewna. Tak zorganizowana gospodarka leśna wstrzymała wylesienia, ale zainicjowała syndrom monokultury, z którego konsekwencjami leśnictwo boryka się do dzisiaj.
Schematyzm ówczesnej gospodarki i uproszczenia struktury lasów, ułatwiające wprawdzie gospodarowanie, ale rujnujące naturalną różnorodność i odporność na zagrożenia, odbiły się w II połowie XX w. licznymi gradacjami owadów, chorobami grzybowymi oraz wysoką wrażliwością lasów na przemysłowe zanieczyszczenia powietrza. Sukces ekonomiczny, organizacyjny i techniczny okazał się przyrodniczą klęską.
Sto lat temu niepodległa II Rzeczpospolita przejęła lasy w rozsypce organizacyjnej, technicznej, przyrodniczej. Była to nie tylko spuścizna ponad 100-letniej niewoli, ale również beztroskiej, rozrzutnej i nieroztropnej gospodarki własnością leśną w I Rzeczypospolitej. Intensywne prace legislacyjne zaowocowały wydaniem do roku 1939 kilku ustaw i dekretów oraz rozporządzeń Prezydenta Rzeczypospolitej, dotyczących bezpośrednio ochrony lasów i gospodarki leśnej. Ale dopiero po około 10 latach od odzyskania niepodległości uchylano obowiązujące w tym zakresie przepisy państw zaborczych.
Dla lasów publicznych największe znaczenie miały akty prawne, powołujące przedsiębiorstwo Lasy Państwowe oraz zasady jego funkcjonowania, tj. rozporządzenie o Statucie przedsiębiorstwa „Polskie Lasy Państwowe”, o organizacji administracji i zagospodarowaniu oraz dekret o państwowym gospodarstwie leśnym .
Art. 13. Dekretu mówił: (1) „Gospodarstwo leśne będzie prowadzone planowo i racjonalnie na zasadach ciągłości i trwałości użytkowania oraz najwyższej rentowności z uwzględnieniem gospodarczych interesów Państwa”. Oznaczało to hodowlę drzewostanów w sposób umożliwiający największy przyrost drewna: selekcję drzew i drzewostanów najlepiej przyrastających, zabiegi pielęgnacyjne promujące duże przyrosty i wysoką jakość surowca, zwalczanie wszystkich organizmów zagrażających tej produkcji.
Połączenie zasady samofinansowania z zasadą najwyższej rentowności stworzyło unikatową sytuację ekonomicznej swobody dla zarządcy lasów publicznych. Poziom samofinansowania zależał od poziomu dochodu, a zarządca został wystawiony na pokusę skorzystania z tej sposobności. Zasada „najwyższej rentowności” pozostała w prawie leśnym do 1992 r., tzn. do nowej ustawy o lasach, zasada samofinansowania zaś obowiązuje do tej pory.
Okres okupacji, obok pogłębiającej się dewastacji lasów przez okupanta, urzeczywistnił z całym dobrodziejstwem obronne funkcje lasów. W lasach schronienie znalazły oddziały partyzanckie oraz uciekająca przed terrorem ludność cywilna.
3. W powojennych granicach lesistość Polski spadła do najniższej w historii – 20,8%. Skutkiem nacjonalizacji państwo przejęło bez rekompensaty ok. 3 mln ha lasów i gruntów leśnych prywatnych i samorządowych. Pierwszym powojennym aktem prawnym obowiązującym do 1991 r. była ustawa z 26.12.49 o państwowym gospodarstwie leśnym.
Generalną zasadą prowadzenia gospodarki leśnej było „utrzymanie trwałości i ciągłości użytkowania dla zaspokojenia obecnych i przyszłych potrzeb gospodarki narodowej w zakresie produkcji drzewnej i niedrzewnej”. Na ostatnim miejscu ustawa stawiała: „zabezpieczenie korzystnego wpływu lasu na klimat kraju, gospodarkę wodną oraz zdrowie i kulturę ludności”.
Priorytety te odwróciła ustawa o lasach z 1991 r., lokując na liście celów na pierwszym miejscu „zachowanie lasów i korzystnego ich wpływu na klimat, powietrze, wodę, glebę, warunki życia i zdrowia człowieka oraz na równowagę przyrodniczą”, na końcu zaś mówiący o: „produkcji, na zasadzie racjonalnej gospodarki, drewna oraz surowców i produktów ubocznego użytkowania lasu”.
Zasadę „najwyższej rentowności” zamieniono na zasadę „racjonalnej gospodarki”. O ile „najwyższa rentowność” była jasną kategorią ekonomiczną, o tyle zapis o „racjonalności gospodarki” oddaje władzy możliwość swobodnej interpretacji. Prawo nakazujące ochronę gruntów leśnych, tzn. zabezpieczające udział lasów w ochronie środowiska, ukazało się w 1971 r. Ustawa ta została następnie zastąpiona nową regulacją w 1982 r., a dalej w 1995 r. Sejm uchwalił następną ustawę o ochronie gruntów rolnych i leśnych, która obowiązuje do dzisiaj.
W odniesieniu do lasów chodzi w niej nie tyle o ochronę ich wartości przyrodniczych czy środowiskowych, co „zapobieganie szkodom w drzewostanach i produkcji leśnej”, o „wartość użytkową” czy „zapobieganie obniżania ich produkcyjności” .
Lata PRL-u to czas narzucanych decyzjami politycznymi norm i ilości pozyskiwanego surowca. Przykładem są tzw. „zręby kopalniakowe”, czyli miliony m3 drewna wyciętego z niedojrzałych lasów i przeznaczonego dla kopalń. To czas przemysłowych zanieczyszczeń powietrza i klęsk „zamierania lasów” w Sudetach (1980–1990) i wielkich gradacji brudnicy mniszki (1961, 1982), jak również coraz częstszych szkód abiotycznych. Sukcesem tego okresu był niewątpliwie, pierwszy w historii lasów w Polsce, wzrost lesistości z 20,8% w 1945 r. do 27,8% w 1990 r. Mogło to mieć ogólnie pozytywny wpływ na jakość środowiska, przy całej przyrodniczej ambiwalentności tamtych zalesień, z uwagi na dominujący udział sosny.
Gdzie jesteśmy?
Transformacji ustrojowej w latach 90. towarzyszyła zasadnicza reorientacja celów i zasad gospodarki leśnej. Zmiany następowały jednocześnie na wielu płaszczyznach: politycznej, gospodarczej, prawnej, organizacyjnej, społecznej. Nowy kształt polskiego leśnictwa nakreśliła ustawa o lasach (1992) oraz „Polityka leśna państwa” (PLP) z 1997 r. Lasy Państwowe znalazły się w Ministerstwie Ochrony Środowiska, Zasobów Naturalnych i Leśnictwa i od tamtej pory przestały być branżą gospodarczą, zyskując teoretycznie/prawnie nowy wymiar przyrodniczy i społeczny.
Polityka Leśna Państwa była pierwszym dokumentem o takiej nazwie w historii i miała tworzyć – trwalszą niż regulacje ustawowe – perspektywę rozwoju polskiego leśnictwa. Obydwa dokumenty wyrastały z ducha „Zasad Leśnych” konferencji UNCED (1992) oraz Ministerialnych Konferencji Ochrony Lasów w Europie, (MCPFE; obecnie pod nazwą Forest Europe), przy organizacji których Polska od samego początku (1990) była jednym z liderów. Polska gospodarka leśna znalazła się w Europie na długo przed traktatem akcesyjnym z maja 2004 r.
Wymienione dokumenty dobrze służyły transformacji ustrojowej, nie spełniły jednak wszystkich reformatorskich nadziei, a w wielu obszarach pozostały martwe. Rzeczywistość wyprzedziła stanowione prawo, o czym świadczą 63 (!) do tej pory nowelizacje ustawy. (Pierwsza wersja ustawy oddawała nadzór nad lasami prywatnymi samorządom terytorialnym (wojewodom), co spowodowało gwałtowny i niekontrolowany wzrost wyrębów w tych lasach. Ustawa ta od samego początku jest ustawicznie nowelizowana i doczekała się sześciu tekstów jednolitych/…/).
„Polityka leśna państwa” zaś rodziła się w zamkniętym kręgu zawodowym leśników i od początku wzbudzała społeczny niedosyt i wątpliwości wielu interesariuszy.
Obydwa dokumenty nie uchroniły przed próbami reprywatyzacji lasów publicznych przez kolejne rządy (1998, 2001, 2010), przed zakusami wprowadzenia zmian ustroju zarządcy tych lasów (tzn. Państwowego Gospodarstwa Leśnego Lasy Państwowe), bądź też łączenia leśnictwa z sektorem finansów publicznych (2010) lub nałożenia nadzwyczajnych podatków na rzecz budżetu państwa (2014).
Opór i mobilizacja środowiska zawodowego zaowocowały powstaniem w 2001 r. Stowarzyszenia Ruch Obrony Lasów Polskich, a następnie inicjatywą ustawodawczą o narodowym charakterze zasobów naturalnych (2001).
Obrona własności państwowej, podjęta przez środowisko leśników, postrzegana była jednak jako obrona Lasów Państwowych, tzn. obrona interesów grupowych. Nowy charakter polskiego leśnictwa miały pokazać takie sztandarowe przedsięwzięcia, jak: powołanie leśnych kompleksów promocyjnych (LKP, 1994), które nawiązywały do kanadyjskiej koncepcji Lasów Modelowych, ustanowienie programów „Ochrony przyrody w nadleśnictwie” (1996), Zarządzenie nr 11 (1995) i 11A (1999) o „doskonaleniu gospodarki leśnej na podstawach ekologicznych”, Zarządzenie nr 47A o odnowieniach naturalnych (2005) oraz takie spektakularne działania na rzecz ochrony przyrody, jak na przykład programy małej retencji wodnej w lasach, restytucja jodły w Sudetach, restytucja cisa, reintrodukcja głuszca czy rysia.
Wszystkie wysiłki w kierunku „ekologizacji” gospodarki leśnej, edukacji i uspołecznienia zarządzania lasami państwowymi w istocie przeszły bez echa. Ponad połowa badanych wciąż uważa, że lasów w Polsce ubywa. Lasy Państwowe stały się „łupem wyborczym” kolejnych rządów, sceną drastycznych zwrotów kierunków rozwojowych, dramatycznych zmian kadrowych, zawirowań koncepcji i ciągłości zarządzania.
Politycy od dawna traktują lasy państwowe jako wygodne zaplecze gospodarczo-finansowo-usługowo-rekreacyjne.
Lasy Państwowe nie stały się terenem negocjacji, ale ostrych konfliktów i konfrontacji różnych grup interesu, wyrażających swoje preferencje co do sposobu i rozmiaru użytkowania, co do potrzeb i metod ochrony, jak również co do zakresu i sposobów społecznego nadzoru oraz udziału w zarządzaniu wspólnym dobrem. Upływający czas jedynie wyostrza te różnice i nie chroni przed wybuchającymi okresowo konfliktami.
Po 2015 r. konflikty zarysowały się szczególnie ostro, nabierając jednocześnie charakteru międzynarodowego (Wyrok Trybunału Sprawiedliwości UE w sprawie C-441/17 stwierdza, że Polska uchybiła zobowiązaniom, jakie spoczywają na niej na mocy dyrektyw siedliskowej i ptasiej, a gradacja kornika nie uzasadniała skali wycinki w Puszczy Białowieskiej).
Przemiany ustrojowe wzmocniły istniejące i wzbudziły nowe napięcia w trójkącie: państwowa gospodarka leśna – prywatny przemysł drzewny – społeczna troska o ochronę przyrody. Zapotrzebowanie na drewno prywatnego przemysłu drzewnego przewyższa znacznie limity użytkowania lasów, których wielofunkcyjność, rozumiana jako godzenie w tym samym miejscu i czasie sprzecznych ze sobą funkcji, hamuje rozwój sektora leśno-drzewnego. Ochrona przyrody natomiast, wraz z rosnącą świadomością ekologiczną i postępującą demokratyzacją, zyskuje ciągle rosnące społeczne poparcie, domagając się poszerzania i powoływania nowych obszarów chronionych oraz zwiększania stopnia ochronności. Ok. 40% powierzchni lasów znalazło się pod nadzorem nowych administratorów ochrony przyrody w postaci specjalnej administracji państwowej zarządzającej siecią – Natura 2000.
Trudno wskazać efekty ustawowego zrównania ważności funkcji lasu w konfrontacji „leśnicy – ochroniarze” czy „leśnicy – drzewiarze”. Wielkoobszarowa ochrona przyrody, wyrażona w Polityce Leśnej Państwa, nie zaistniała jako idea wywodząca się z „trwale zrównoważonej i wielofunkcyjnej” gospodarki leśnej i trudno wskazać jej praktyczne implikacje. Uzasadnienie takiej formy ochrony nie znalazło zrozumienia w kręgach przyrodników, a gospodarka leśna nie zaproponowała własnej, skutecznej strategii jej wdrażania. Mimo wspomnianych zmian leśnictwo w Polsce, w swoim głównym nurcie urządzeniowo-hodowlano-ochronnym, zachowało na poziomie operacyjnym swój surowcowy/ drzewostanowy charakter.
Lasy i gospodarka leśna są systematycznie pomijane przez rządzących we wszelkich koncepcjach rozwojowych, niezależnie od opcji politycznej, zarówno na poziomie rządowym, regionalnym, jak również sektorowym. W wielu dokumentach, które obowiązują do dzisiaj, ani razu nie użyto wyrazów „las” czy „drewno”. Las nie jest w nich traktowany jako miejsce pracy, atrakcja turystyczna, rekreacyjna, jako szansa na rozwój lokalnej przedsiębiorczości czy sposób na energetykę rozproszoną i „zieloną gospodarkę”.
Strategia sektorowa „Bezpieczeństwo Energetyczne i Środowisko” (2012), nakreślając perspektywę energetyczną, dostrzegła problem zmian klimatycznych, ale nie widzi lasu jako narzędzia ochrony czy poprawy klimatu ani drewna jako odnawialnego zasobu energetycznego, chociaż ok. 85% energii odnawialnej pochodzi z biomasy stałej, głównie z drewna. Nie widzi też drewna jako substytutu dla wysokoemisyjnych produkcji cementu czy stali.
Podobnie traktowane są lasy i sektor leśno-drzewny w Strategii Odpowiedzialnego Rozwoju (tzw. SOR; Plan Morawieckiego), gdzie są rozpatrywane wspólnie z „łowiectwem i rybactwem”. Nie po raz pierwszy ma miejsce łączenie w różnych konfiguracjach leśnictwa z rolnictwem. Jest to, jak się wydaje, XIX-wieczne, „ziemiańskie”, podejście do użytkowania ziemi.
Jest rzeczą niezrozumiałą, że lasy, ze swoimi wielowartościowymi dobrami materialnymi, przede wszystkim z odnawialnym zasobem surowcowym i energetycznym – drewnem, które uruchamia i warunkuje istnienie wielu przemysłów i branż „zielonej gospodarki”, jak również z wielokierunkowymi usługami środowiskowymi, które są społecznie coraz pilniej pożądane i coraz wyżej cenione, nie zasłużyły na uwagę choćby na tyle, żeby zaistnieć w „rozwoju odpowiedzialnym” w postaci samodzielnego „Projektu strategicznego” czy ukierunkowanego „Działania”.
Lasy, wg SOR, nie istnieją jako samodzielny byt wśród zasobów środowiska. Wymieniane są natomiast jako „istotna część różnorodności biologicznej”. Trudno po raz kolejny uwierzyć w to, że od początku ustrojowej transformacji mamy do czynienia z zaniechaniem włączenia prawie 1/3 powierzchni kraju w procesy rozwojowe i użycia tego naturalnego kapitału jako narzędzia ochrony środowiska i mitygowania zmian klimatycznych.
Istnieje głęboki rozdźwięk między większością celów realizowanej polityki leśnej a priorytetami europejskimi. Analiza tekstów porozumień zawartych w ramach procesu „Forest Europe”, przyjętych po 1997 r., wskazała 15 głównych kierunków tzw. „miękkiej” polityki leśnej w Europie, z których jedynie kilka jest w pełni realizowanych w Polsce.
Najbardziej niepokojące różnice zanotowano w następujących obszarach działań:
(1) przystosowania lasów do zmian klimatu,
(2) zwiększania roli leśnictwa w łagodzeniu zmian klimatycznych,
(3) zwiększania udziału lasów i gospodarki leśnej w „zielonej gospodarce”,
(4) zapewnienia udziału grup interesu w podejmowaniu decyzji dotyczących lasów i poprawy komunikacji społecznej w leśnictwie (uspołecznienie zarządzania lasami publicznymi),
(5) międzysektorowej współpracy i koordynacji dotyczącej gospodarki leśnej,
(6) zachowania wartości kulturowej lasów i leśnictwa.
Polska gospodarka leśna od pewnego czasu rozwija się w istocie „do wewnątrz”, dla samej siebie, bez niezbędnego szerszego otwarcia na społeczne, polityczne i ekonomiczne procesy zachodzące w jej otoczeniu. Monopolistyczna pozycja sprawiła, że nastąpiło swoiste utożsamienie organizacji gospodarczej pod nazwą „Lasy Państwowe” z lasami państwowymi jako dobrem publicznym. Plany i projekty rozwojowe tworzone w tej organizacji mają na uwadze przede wszystkim rozwój i powodzenie instytucji PGL LP, są przygotowywane przez zainteresowanych i dla nich samych, główną zaś troską jest dbałość o wizerunek firmy (patrz: „Strategia Państwowego Gospodarstwa Leśnego Lasy Państwowe na lata 2014–2030”).
Zdecydowanie złą opinię o polskim leśnictwie zbudowały decyzje władz leśnych po 2015 r., dotyczące sposobów ograniczania gradacji kornika drukarza w Puszczy Białowieskiej, oraz związane z tym manipulacje wokół potrzeby wycinania drzew z uwagi na „bezpieczeństwo publiczne”, „lex Szyszko” znoszące kontrolę nad wycinaniem drzew na gruntach prywatnych, co prowadziło do „oddrzewiania” kraju, eksterminacyjne regulacje populacji dzików, próby zniesienia moratorium na odstrzał łosi czy włączenie bobrów do zwierzyny łownej. Leśnicy tracą w opinii publicznej zdobytą rangę zawodu, tracą również Lasy Państwowe jako instytucja („Las Polski” 2018, nr 2, 24).
Dokąd idziemy, czyli co dalej?
Gospodarka leśna to harmonizowanie trzech wielkich, współistniejących, wzajemnie przenikających się, ale wewnętrznie zintegrowanych, systemów: systemu przyrodniczego (to lasy jako zasoby naturalne i przedmiot gospodarowania na dużej przestrzeni i w długich okresach), ekonomicznego (to wartości materialne, rynek, produkowane dobra i usługi) i społecznego (to ludzie, ich praca i bezpieczeństwo socjalne i zdrowotne, wartości przyrodnicze, duchowe, kulturowe, moralne).
Systemy te i ich powiązania w różnych skalach przestrzennych znalazły się wobec największych w historii leśnictwa wyzwań środowiskowych z tytułu zmian klimatu. Czy leśnicy mają dostateczne narzędzia do zarządzania nimi? Czy wiemy, dokąd zmierza polskie leśnictwo, czy w ogóle zmierza w sposób świadomy dokądkolwiek? Czy poza troską o zachowanie status quo /…/ ma jakiś szerszy plan, wizję leśnictwa w świecie globalnych zagrożeń i kryzysu wartości?
Antropocen przywitał nas globalnym ociepleniem, szóstym wielkim wymieraniem gatunków, wylesianiem Ziemi i kryzysem ludnościowym. Zachodzące zmiany wyznaczają lasom i leśnictwu, w różnych skalach przestrzeni i czasu, niedające się niczym zastąpić, historyczne role. Pojawiła się pilna potrzeba opracowania dokumentu nadrzędnego w stosunku do istniejących leśnych regulacji branżowych. Dotyczy to regulacji prawnie obowiązujących zarówno na poziomie międzynarodowym (LBI – Legally Binding Instruments for Forests; chodzi o konwencję o lasach), jak i krajowym. Chodzi o społeczną zgodę co do przyszłości jednego z największych narodowych zasobów naturalnych.
W latach 2012–2015 podjęto po raz drugi (pierwsze prace podjęto w 2001 roku i miały charakter branżowy. Nie wyszły poza kręgi zawodowe leśników i nigdy nie uzyskały statusu dokumentu) w Polsce prace nad Narodowym Programem Leśnym, rekomendowanym począwszy od 1992 r. przez ONZ, UE, jak i „Forest Europe”. Wzięło w nich udział 193 ekspertów, którzy przygotowali 156 autorskich opracowań, na podstawie których sformułowano 298 rekomendacji do dalszych prac.. /…/.
Treścią rekomendacji są główne doktryny leśnictwa, teoretyczne i praktyczne aspekty dotychczasowego dorobku i ich przydatność wobec czekających wyzwań, propozycje programowe i sposoby ich realizacji, a szerzej – poszukiwanie odpowiedzi na pytania o miejsce i rolę lasów i gospodarki leśnej, o rolę drewna i innych surowców i produktów leśnych, o miejsce i znaczenie leśnej przyrody we współczesnym świecie w perspektywie 2030 i 2080 r.
Rekomendacje zawierają, między innymi, postulaty polityczne o strategicznym znaczeniu, jak konstytucyjne gwarancje społecznej własności lasów skarbu państwa. Postulują potrzebę stworzenia aksjologicznej wizji lasu, łączącej interesy wielu grup społecznych. Zalecają wzmocnienie społecznego nadzoru nad lasami publicznymi, jak również nowe formy i treści kształcenia zawodowego i leśnej edukacji społeczeństwa.
Rekomendacje wyrażają konieczność opracowania programu dla leśnictwa prywatnego, gospodarki leśnej w rejonach zurbanizowanych (lasy podmiejskie), nowych regulacji dla zalesień i zadrzewień, znalezienia wspólnej płaszczyzny dla urządzania lasu, planowania i zagospodarowania przestrzennego oraz gospodarki wodnej.
Zalecają zarówno weryfikację programów hodowli selekcyjnej, jak i potrzebę poszerzenia prac selekcyjnych nad możliwością przyspieszenia i zwiększenia produkcji drewna, zwiększenia retencji węgla w ekosystemach leśnych oraz adaptacji lasów i gospodarki leśnej do zmian klimatycznych. Mówią o potrzebie stworzenia spójnego systemu powierzchniowych form ochrony przyrody w lasach i postulują jednolity zarząd nad lasami zarówno gospodarczymi, jak i chronionymi.
Postulują zwiększenie produkcji i rozmiaru pozyskania drewna poza lasami oraz kaskadowe jego użytkowanie. Rekomendacje stwarzają perspektywę dla „zielonej ekonomii” i kreślą dla lasów i gospodarki leśnej kluczową rolę do odegrania w gospodarce bezemisyjnej.
Równoważenie rozwoju potrzebuje odpowiedniej skali przestrzeni i czasu, potrzebuje zróżnicowanego leśnictwa, wobec czego należy rozważyć, oprócz nowej regionalizacji przyrodniczo-leśnej, regionalizację funkcji lasu lub regionalizację społeczno-gospodarczą leśnictwa. Rekomendacje dotyczą także redefinicji oraz ujednolicenia podstawowych pojęć i terminów w leśnictwie, które straciły swoje dotychczasowe znaczenie.
Przebieg prac wykazał zadawnioną potrzebę dyskusji o stanie i przyszłości nauk i badań leśnych, brak systemowych rozwiązań waloryzacji, koordynacji i finansowania badań oraz dotkliwy deficyt środków finansowych. Nie na wszystkie rekomendacje gospodarka leśna jest przygotowana w obecnym stanie organizacyjnym i prawnym. W wielu przypadkach rekomendacje postulują powołanie międzydyscyplinarnych zespołów specjalistów w celu kontynuacji prac.
Władze „dobrej zmiany” przerwały prace nad Narodowym Programem Leśnym. Począwszy od 2015 r., realizują indywidualne „projekty rozwijania systemów funkcjonalnych LP” . Sztandarowy projekt, tzw. „Leśne Gospodarstwa Węglowe”, był mistyfikacją: zakładał pochłanianie CO2 po ścięciu drzewa (sic!), a rutynowe, od dawna zalecane, zabiegi hodowlane uznał za dodatkowe działania.
Szerszy kontekst tej sytuacji kreśli postawa rządu z czerwca 2019 r.; rząd, „nie mając sobie nic do zarzucenia”, zablokował zapis UE o neutralności klimatycznej (Państwa Wspólnoty miały tak przekształcić swoje gospodarki do 2050, by bilans emisji i pochłaniania gazów cieplarnianych – w tym CO2 – wynosił zero. Pozwoliłoby to wyhamować katastrofalne zmiany klimatu).
Mamy do czynienia z silnym oddziaływaniem bieżącej władzy politycznej na gospodarowanie wspólnym dobrem. Oznacza to brak ciągłości wizji rozwojowych oraz perturbacje w zarządzaniu. Lasy Państwowe nie prowadzą dialogu obywatelskiego, ale korporacyjny, krótkookresowy (tzw. konsultacje społeczne planu urządzenia lasu), dialog lobbingowy – nie negocjacyjny, raczej antagonizujący niż partnerski, bardziej polityczny niż społeczny.
Leśnictwo znalazło się pod presją społecznej krytyki za jednostronność i produkcyjny charakter, skostnienie organizacyjne, autokratyczne zarządzanie, dyskryminację innych poglądów, brak wizji i progresywnej polityki leśnej.
Nieuzasadniona wysoka samoocena i polityczne zaangażowanie w spory ideowe wprowadziły polskie leśnictwo w konflikty wewnętrzne i zewnętrzne, do Trybunału Sprawiedliwości UE włącznie. Efektem takiego stanu rzeczy była najbardziej znacząca decyzja rządu „dobrej zmiany” – jednoczesne odsunięcie od władzy ministra odpowiedzialnego za lasy oraz dyrektora generalnego Lasów Państwowych.
Kluczowym dla przyszłości posunięciem, warunkującym skuteczność innych działań formalnoprawnych, i odpowiedzią na pytanie „co dalej?”, jest uniezależnienie zarządcy lasów państwowych, Państwowego Gospodarstwa Leśnego Lasy Państwowe (PGLLP), od bieżącej koniunktury politycznej i władzy oraz zapewnienie apolityczności pod społecznym/obywatelskim nadzorem, przy zachowaniu odpowiedniego, typowo właścicielskiego, nadzoru państwa nad jego działalnością. Powinno to oznaczać neutralność polityczną służby leśnej, co będzie stabilizować politykę kadrową w LP i ciągłość zarządzania. Jednocześnie należy przystąpić, tak szybko, jak to jest możliwe, do zakończenia prac nad Narodowym Programem Leśnym i poddania dokumentu społecznej ocenie.
Kazimierz Rykowski
Prof. dr hab, niezależny, w latach 1966–2016 pracownik Instytutu Badawczego Leśnictwa.
Powyższy tekst jest skrótem artykułu Autora pod tym samym tytułem, jaki ukazał się w publikacji Instytutu na rzecz Ekorozwoju z okazji 100-lecia ochrony środowiska w Polsce.
Wyróżnienia pochodzą od Redakcji SN.
Publikacja dostępna jest pod adresem - https://www.pine.org.pl/wp-content/uploads/2020/11/100lat31102020.pdf
- Autor: Anna Leszkowska
- Odsłon: 5400