Ochrona środowiska
- Autor: Anna Leszkowska
- Odsłon: 544
W grudniu 2023 r. zakończyła się 28. Konferencja stron Konwencji klimatycznej, czyli COP28. Podobnie jak w wielu wcześniejszych przypadkach politycy ogłosili sukces, a nawet przełom w walce ze zmianą klimatu. Deklaracje te wydają się równie przedwczesne jak wcześniej. Minęło już ponad 30 lat od uchwalenia wspomnianej konwencji klimatycznej, a roczna emisja gazów cieplarnianych nie tylko nie maleje, ale cały czas rośnie i to w szybkim tempie.
Zagrożenia związane ze zmianą klimatu
Klimat może się zmieniać z przyczyn naturalnych lub w wyniku oddziaływania człowieka. Większość badań naukowych wskazuje, że za obecną zmianę klimatu odpowiedzialny jest człowiek poprzez emisję gazów cieplarnianych, tj. głównie dwutlenku węgla, podtlenku azotu i metanu. Antropogeniczne emisje należy traktować jako czynnik przeważający szalę i powodujący wybicie ziemskiego klimatu ze stanu względnej równowagi i skierowanie go na ścieżkę gwałtownego ocieplenia.
Według klimatologów zmiany, które obecnie obserwujemy są wielokrotnie szybsze niż te, które towarzyszyły ostatniej epoce lodowcowej. Wtedy doszło do masowego wymierania gatunków. Obecnie również je obserwujemy, ale to nie jest jedyny efekt zmiany klimatu. W literaturze jest wiele pozycji opisujących skutki zachodzących procesów klimatycznych. Prowadzą one do wniosku, że w wyniku zmiany klimatu na większości obszaru Ziemi warunki życia dla człowieka ulegną zdecydowanemu pogorszeniu.
W tym kontekście należy wymienić gorszy dostęp do pożywienia i wody, większe ryzyko występowania gwałtownych zjawisk meteorologicznych, w tym tych o znacznej sile niszczącej, rosnące zagrożenie rozprzestrzenianiem się nowych i istniejących chorób, zwłaszcza na obszarach i wśród gatunków niedostosowanych do ich zwalczania, rosnące koszty życia (transport, budownictwo, ubezpieczenia, itp.) i wiele innych. Procesy te najprawdopodobniej nie będą zachodzić gwałtownie, lecz stopniowo – będziemy powoli gotować się jak żaby w garnku, aż będzie za późno na reakcję. Biorąc pod uwagę, że problem ma charakter globalny, ucieczka w inne bezpieczne obszary i strefy klimatyczne jest ograniczona, a więc nawet nie ma dokąd uciec z przysłowiowego gotującego się garnka.
Najprawdopodobniej bogate kraje w większym stopniu będą w stanie pozwolić sobie na dostosowanie się do nowych warunków, np. poprzez wzrost zużycia energii w procesach klimatyzacji, ale z pewnością staną się one celem powszechnej migracji z regionów ubogich, wywołanej czynnikami ekonomicznymi (brak środków do życia w danym regionie) lub środowiskowymi (brak lub bardzo utrudnione warunki przetrwania w danym regionie). W praktyce doprowadzić to może do destabilizacji istniejących społeczeństw w skali całego globu.
A może jednak da się powstrzymać zmianę klimatu?
Pesymizm w zakresie możliwości powstrzymania zmiany klimatu jest coraz większy. Wynika on z obserwacji zmian, które zachodzą w świecie. W 2018 r. Międzyrządowy Panel ds. Zmiany Klimatu (IPCC) opublikował raport, w którym wskazywał, że wzrost średniej temperatury na Ziemi o 1,5°C ponad temperaturę sprzed epoki industrialnej spowoduje nieodwracalne szkody klimatyczne. Dane za 2023 r. wskazują, że ta granica była już wielokrotnie przekroczona. Były to incydentalne przypadki, a nie trwały trend, ale pokazują one, że czasu na reakcję i ograniczenie zmiany klimatu już nie ma.
Nawet gdybyśmy w 2024 r. gwałtownie ograniczyli emisję gazów cieplarnianych (GHG) i osiągnęli tzw. neutralność klimatyczną (to pojęcie oznacza, że dany obszar emituje ilość GHG liczoną w ekwiwalencie CO2 równą zdolności tego obszaru do pochłaniania GHG liczonych tą samą metodą) to i tak średnia temperatura na Ziemi rosłaby ze względu na bezwładność procesów klimatycznych. To oznacza, że o zatrzymaniu się na poziomie +1,5°C możemy już tylko pomarzyć. Zgodnie z Porozumieniem paryskim z 2015 r. taka neutralność ma być osiągnięta dopiero w połowie wieku. Dotyczy to tylko państw sygnatariuszy porozumienia, ale na szczęście reprezentują oni przeważającą większość ludzkości.
Najbardziej ambitne jednostki, jak np. UE, chcą zrealizować cel neutralności klimatycznej do 2050 r., inne, np. Chiny i Ukraina, do 2060 r. Przez ten czas stężenie GHG w atmosferze będzie nadal rosło, być może coraz wolniej, ale trendu malejącego nie należy się spodziewać przed 2030 rokiem.
Podpisanie Porozumienia paryskiego nie oznacza automatycznej realizacji złożonej obietnicy, ponieważ dokument ten nie zawiera kar związanych z niewywiązaniem się ze zobowiązań. Przykładem swobodnego podejścia do tego jest postawa USA, które podpisały ten dokument w 2016 r., następnie wystąpiły z porozumienia, aby w 2021 r. do niego powrócić. Ponowna elekcja Donalda Trumpa na prezydenta może spowodować kolejną zmianę. Również innym krajom zdarzało się mieć poważne potknięcia na tej drodze. Wystarczy wspomnieć, że UE również zawiesiła część przepisów w związku z wojną na Ukrainie.
W grudniu 2023 na COP28 zapowiedziano całkowite odejście od węgla w energetyce do 2050 r. Jednakże w 2022 r. na świecie budowano około 190 elektrowni węglowych, a kolejne 290 było w planach. Średni cykl życia takiej instalacji to 35 lat, czyli znacznie więcej, niż zostało nam do połowy stulecia. Można założyć, że planowane instalacje nie powstaną, ale wiele z tych, które są budowane zostanie ukończonych. Czy należy się spodziewać, że zostaną wyłączone przed czasem? Raczej jest to wątpliwe. W ich miejsce musiałyby powstać inne instalacje zapewniające dostęp do energii, które mogłyby być szybko zbudowane i przyłączone do sieci, a ponadto musiałyby być odpowiednio tanie, aby państwa było na nie stać.
A co z tymi, które powstały w ostatnich latach? W praktyce, nawet jeśli nowe projekty nie ruszą, to można zakładać, że co najmniej 10% emisji obecnych elektrowni węglowych będzie w użyciu. Ponadto rozwiązania przyjęte podczas COP28 nie uwzględniają emisji pochodzącej z gospodarstw domowych, gdzie węgiel jest wykorzystywany do ogrzewania pomieszczeń. W efekcie to wątpliwe porozumienie to kropla w morzu potrzeb. A najważniejszym z tego wnioskiem jest konieczność poważnego myślenia nie tylko o ograniczaniu emisji, ale również o adaptacji do zmieniającego się klimatu.
Skąd się bierze nieskuteczność polityki klimatycznej?
W obecnych warunkach realizacja celów Porozumienia paryskiego i COP28 wydaje się bardzo trudna. Rzeczywiste wysiłki redukcyjne ponosi niewiele państw, a nawet w przypadku tych najbardziej ambitnych, np. UE, uważa się, że ponoszony wysiłek jest niewystarczający do osiągnięcia długookresowych celów. Z tego powodu politykę klimatyczną należy uznać za nieskuteczną.
Powstaje więc pytanie – co powoduje jej brak skuteczności. W mojej opinii należy wyróżnić trzy grupy czynników, które wzajemnie zazębiają się. Należą do nich uwarunkowania: polityczne, gospodarcze i społeczne. Każdą z tych grup można szeroko opisywać. Poniżej wskazałem tylko najważniejsze czynniki.
W kontekście uwarunkowań politycznych problemy występują zarówno na płaszczyźnie międzynarodowej, jak i wewnętrznej. Polityka międzynarodowa opiera się na konsensusie i dobrej woli państw, które są skłonne do ponoszenia wyrzeczeń. W praktyce świat trzeciej dekady XXI w. jest daleki od współpracy. Doświadczenia pandemii Covid-19, wojna na Ukrainie oraz napięcia na linii USA – Chiny to podstawowe czynniki powodujące narastającą nieufność pomiędzy państwami i regionami. W praktyce globalizacja spowolniła i bardziej przybiera kształt integracji regionalnej. W ten sposób trudniej jest rozwiązać problemy wymagające zgody całego świata. Ponadto uwaga najważniejszych aktorów jest skupiona na innych problemach.
Na płaszczyźnie wewnętrznej przeszkodą są również interesy, czyli oczekiwania wyborców. Przeciwdziałanie zmianie klimatu to aktywność, której efektów nie widać, a więc nie ma czym pochwalić się wyborcom. Jeśli w jakimś państwie ograniczy się emisję gazów cieplarnianych, to i tak w niewielkim stopniu wpłynie to na globalne zjawisko. Politycy nie mają więc bodźca do podejmowania radykalnych działań. Bardziej są skłonni do oczekiwania na ruch innych.
Czynniki gospodarcze opierają się na rachunku kosztów i korzyści. Pomiar emisji GHG i przeciwdziałanie zmianie klimatu generują koszty, które społeczeństwo musi ponosić współcześnie. Potencjalne korzyści być może wystąpią, ale dopiero w dalekiej przyszłości. To powoduje, że są niepewne. Jest to pierwsza z barier gospodarczych. Ponadto nie wiadomo kto ma ponosić koszty. Nawet w UE wprowadzanie opłat za emisję powoduje niezadowolenie coraz szerszych grup, których to dotyka.
Współczesne gospodarki są oparte na mechanizmie ciągłego wzrostu. Dotyczy on produkcji i konsumpcji. Istotną rolę w tym zakresie odgrywa marketing, którego jednym z zadań jest ciągłe kreowanie potrzeb. Wzrost gospodarczy oznacza nie tylko zwiększenie podaży i popytu dóbr, ale również towarzyszących im efektów zewnętrznych, w tym emisji gazów cieplarnianych. Tych dwóch zjawisk nie da się rozerwać.
Społeczeństwa wykazują dwojaką postawę odnośnie polityki klimatycznej. Z jednej strony, duża i rosnąca część społeczeństw uważa ją za słuszną, ale tylko w zakresie, który ich bezpośrednio nie dotyczy. W przypadku, gdy trzeba ponosić wspomniane koszty, albo zmienić swoje przyzwyczajenia, sprawa staje się trudniejsza. Pojawia się negacja i próba skierowania działań na inne kierunki. Do tego dochodzą działania związane z dezinformacją, które dotyczą nie tylko odrzucenia idei zmiany klimatu, ale np. podważają zasadność rozwiązań służących temu celowi. To powoduje dezorientację i zniechęcenie do poszukiwania rzetelnej informacji. Pojawia się postawa wyczekiwania.
Styl życia nastawiony na maksymalizację konsumpcji i wyrażanie swojej pozycji poprzez status majątkowy również nie sprzyja polityce klimatycznej. Jak wskazano w listopadowym raporcie Oxfam, roczna emisja GHG 1% najbogatszych ludzi na świecie jest równa emisji najbiedniejszych 5 mld osób, czyli około 2/3 mieszkańców Ziemi.
Ważnym elementem współczesnej cywilizacji jest wizualizacja. Film wyparł słowo pisane. Obrazy, często wyrwane z kontekstu, mają większą siłę informacyjną, niż komentarze do nich zawarte. Współcześnie w mediach dominuje sielankowa wizja bogatych społeczeństw, oddających się konsumpcji. Nie pokazuje się poświęcenia, jakie wiąże się z pozyskaniem tych dóbr. Wyidealizowany obraz jest przekazywany na cały świat, co powoduje, że społeczeństwa rozwijające się chcą naśladować ten wzorzec, potęgując emisję GHG. Już obecnie emisja państw rozwijających się jest większa niż rozwiniętych.
Powyższe czynniki odnoszą się do problemów globalnych, ale na poziomie UE również obserwuje się pęknięcia w polityce klimatycznej. Po pierwsze, budowa tej polityki przychodzi z trudem ze względu na duży stopień jej złożoności, koszty oraz niechęć społeczną. Najtrudniejszy do uchwycenia jest ostatni element.
Z jednej strony, aktywiści klimatyczni przekonują o rosnącej świadomości klimatycznej Europejczyków i coraz większym zaangażowaniu w działania naprawcze. I jest to zgodne z prawdą.
Z drugiej strony, działania podejmowane przez aktywistów i polityków budzą coraz większy opór społeczny, co również jest prawdą. Inicjatywy w postaci przyklejania się do dzieł sztuki lub blokowania dróg wywołują niesmak i zdenerwowanie. Pojawia się polaryzacja społeczeństw. Coraz bardziej skomplikowane przepisy klimatyczne powodują niechęć kolejnych grup przedsiębiorców. Najbardziej jest to widoczne wśród rolników, którzy głośno protestują przeciwko zbyt dużej, ich zdaniem, ingerencji państw i UE w zasady produkcji żywności.
Spadek akceptowalności polityki Unii Europejskiej wynika z kilku czynników.
Po pierwsze, znaczna część społeczeństw państw członkowskich przyzwyczaiła się do korzyści płynących z członkostwa. Wielkie osiągnięcie, jakim jest wprowadzenie czterech swobód i wolności, stało się czymś naturalnym. Współcześnie trudno jest wyobrazić sobie poruszanie się po Europie z koniecznością ubiegania się o wiele wiz. Podobnie jest ze swobodą handlu, która wydaje się oczywistą.
Po drugie, zmieniła się również polityka UE. Na wczesnych etapach integracji polityka wspólnotowa powodowała łatwo zauważalne korzyści i przyczyniała się do ułatwiania życia, np. poprzez ujednolicanie norm. Standardy ochrony środowiska również powodowały zauważalne korzyści. Natomiast współcześnie łatwe rozwiązania zostały już wyczerpane i konieczne jest podejmowanie bardziej złożonych działań, które wymuszają ponoszenie wyrzeczeń. W efekcie społeczeństwa zaczynają postrzegać UE jako uciążliwość, a nie instytucję przyczyniającą się w długim okresie do poprawy jakości życia. Konieczność ponoszenia dodatkowych kosztów polityki klimatycznej, które są przenoszone na obywateli, jest dodatkowym czynnikiem negatywnej oceny UE.
Czy jest jakieś rozwiązanie?
Skuteczność polityki klimatycznej jest silnie zależna od współpracy państw oraz radykalnej zmiany postawy społecznej. W obu tych obszarach nie widać skłonności do zdecydowanych zmian, co powoduje poczucie, że w najbliższych latach nie będzie gwałtownego przyspieszenia działań ograniczających zmianę klimatu. Być może nowa cywilizacja powstająca na naszych oczach i często nazywana informacyjną, będzie oparta nie tylko na dominującej roli informacji w życiu gospodarczym, ale również na większym uwzględnieniu dobra wspólnego w życiu człowieka i społeczeństw. Jednakże taka zmiana nie jest kwestią lat, ale raczej dziesięcioleci, co dla polityki klimatycznej jest zdecydowanie zbyt długim okresem.
Konrad Prandecki
Dr Konrad Prandecki jest pracownikiem naukowym Instytutu Ekonomiki Rolnictwa i Gospodarki Żywnościowej – PIB i wiceprzewodniczącym Komitetu Prognoz „Polska 2000 Plus” PAN (jej przewodniczącym w kadencji 2019-2022)
- Autor: Marek Wąsiński
- Odsłon: 2079
Dotychczas zgłoszone krajowe cele redukcyjne nie zapewniają odpowiedniej skali ograniczenia emisji, by zatrzymać globalne ocieplenie poniżej 2°C. Chociaż zadeklarowane wkłady w obecnym kształcie nie są wystarczająco ambitne, mogą stać się solidną podstawą przyszłych działań klimatycznych. Polski rząd powinien wesprzeć ten proces, opowiadając się za zwiększeniem pomocy finansowej i technologicznej dla państw rozwijających się.
Koncepcja planowanych, krajowo określanych kontrybucji (tzw. wkłady krajowe, INDC – Intended Nationally Determined Contributions) powstała podczas Konferencji Stron (COP19) w 2013 r. w Warszawie. Mechanizm ten ma stać się jednym z fundamentów globalnego porozumienia klimatycznego. Pozwolił on wszystkim krajom na włączenie się w negocjacje przy zachowaniu indywidualnego podejścia do kwestii zmian klimatu.
Państwa mają czas do szczytu klimatycznego w Paryżu (COP21), by przedstawić wizję swojego sprawiedliwego udziału w walce z globalnym ociepleniem, przede wszystkim w wysiłkach w celu redukcji emisji gazów cieplarnianych w latach 2020–2030.
Dotychczas złożone INDC pokazują, że planowane przez kraje działania nie wystarczą do osiągnięcia zakładanego celu ograniczenia globalnego ocieplenia na koniec wieku do 2°C względem epoki przedindustrialnej. Deklaracje są nie tylko zbyt zachowawcze, ale również za mało przejrzyste i porównywalne. Z kolei brak prawnego zobowiązania państw do realizacji zadeklarowanych celów stawia pod znakiem zapytania osiągnięcie nawet tych skromnych redukcji. Pomimo to INDC jest jedynym mechanizmem koordynacji działań klimatycznych możliwym do uzgodnienia przez polityków.
Niewystarczająca wysokość redukcji
Do 7 września swoje deklaracje celów redukcyjnych przedstawiło 58 państw odpowiadających za 65% światowej emisji CO2. W specjalnym raporcie nt. energii i zmian klimatu World Energy Outlook 2015 oceniono upublicznione do czerwca 2015 r. plany działań jako prowadzące do wzrostu temperatur na koniec wieku o 2,6°C. By na pewno osiągnąć cel 2°C na koniec wieku, emisje CO2 z sektorów energetycznych do 2030 r. musiałyby być niższe jeszcze o ponad 9 gigaton (równe trzykrotności emisji UE w 2013 r.).
Unia Europejska zadeklarowała najambitniejszy cel – chce obniżyć emisje gazów cieplarnianych (GHG) o co najmniej 40% do 2030 r. względem 1990 r. W porównaniu z poziomem z 2005 r. emisje spadną o 36%. Z kolei USA planują obniżyć emisje o 26–28% do 2025 r. względem poziomu z 2005 r. Porównanie obu deklaracji jest jednak trudne, ponieważ nie tylko przyjęto w nich inne lata bazowe (1990 i 2005 r.), ale przede wszystkim różne daty osiągnięcia celów redukcyjnych (2025 oraz 2030 r.).
Możliwe jest natomiast zestawienie z ogłoszonym w sierpniu przez prezydenta Baracka Obamę Clean Power Plan. USA mają w nim obniżyć emisje z wytwarzania energii elektrycznej do 2030 r. o 32% względem 2005 r.
W ocenie skutków unijnej polityki klimatycznej oszacowano, że do 2030 r. emisje z tego sektora spadną w Unii o 57% względem poziomu z 2005 r., co ilustruje zachowawczość amerykańskich strategii.
Pozostałe rozwinięte gospodarki także nie wykazały się wysokimi ambicjami w dziedzinie ochrony klimatu, np. Japonia chce do 2030 r. obniżyć emisje GHG jedynie o 25,3% względem poziomu z 2005 r.
Brak przejrzystości INDC
Innym problemem jest stosowanie różnych wskaźników do oceny zobowiązań klimatycznych. Chiny, zamiast redukcji emisji GHG, zadeklarowały obniżenie emisyjności swojej gospodarki o 60–65% do 2030 r. względem poziomu z 2005 r. Chiny zamierzają też przyśpieszyć szczyt emisji CO2, tak by miał miejsce najpóźniej w 2030 r., co w praktyce oznacza wzrost emisji CO2 do 2025–2030 r. INDC w takim kształcie jest nieporównywalne z innymi, ale mimo wszystko świadczy o tym, że Chiny chcą przyczynić się do ograniczenia globalnego ocieplenia.
Jednym z największych rozczarowań jest wkład zadeklarowany przez Rosję, która chce zredukować emisję GHG do 2030 r. o 25–30% poniżej poziomu z 1990 r., co w stosunku do 2010 r., przekłada się nawet na wzrost emisji o 4–9%. Rosyjskie zobowiązanie uwzględnia również wykorzystanie sektora LULUCF, czyli użytkowania ziemi, zmian w użytkowaniu ziemi oraz leśnictwa (ang. Land Use, Land Use Change and Forestry). Według szacunków inicjatywy Climate Action Tracker, Rosja, włączając ten sektor, zadeklarowała obniżenie emisji o 6–11% względem 1990 r.
LULUCF kładzie nacisk na rolę lasów w akumulacji dwutlenku węgla – im jest ich więcej, tym więcej go wchłoną. Dlatego zalesianie może być jednym ze sposobów na redukcję emisji. Z kolei wycinanie lasów i złe zarządzanie obszarami leśnymi ma wpływ odwrotny. Uwzględnienie tego sektora zmniejsza przejrzystość INDC, ponieważ nie uzgodniono jeszcze wspólnych zasad wyliczeń redukcji lub wzrostu emisji w związku z działaniami państw w tym sektorze.
UE – podobnie jak większość stron porozumienia – włączając LULUCF do swojego celu redukcyjnego, zmniejszyła przejrzystość deklaracji.
Brak obowiązkowości
W przeciwieństwie do szczytu klimatycznego w Kopenhadze w 2009 r., szczyt w Paryżu ma być oparty na dobrowolnych i oddolnych zobowiązaniach. INDC mają być tego najważniejszym wyrazem. Jednak dużym mankamentem pozostaje fakt, że porozumienie w Paryżu nie zobowiąże międzynarodowo państw do wypełnienia deklaracji. Nie powstanie nawet wspólny system oceniania wysokości zobowiązań – nie zgadzają się na to Chiny i USA. Dlatego dopóki oddolnie zadeklarowane cele nie zostaną w pełni osiągnięte, niemożliwe będzie uznanie tego systemu za sukces.
Z kolei inny czynnik, który wprowadza warunkowość wypełnienia deklaracji, także zwiększa niepewność co do ostatecznego powodzenia zobowiązań, ale jednocześnie jest zaletą procesu INDC.
Meksyk np. zadeklarował bezwarunkowe zmniejszenie emisji o 22% do 2030 r. poniżej poziomu, który zostałby osiągnięty, gdyby nie dokonał żadnych redukcji. Jednak jeśli otrzyma wsparcie innych krajów, będzie się starał zmniejszyć emisje o 36%.
System ten umożliwił państwom rozwijającym się – nawet najmniej rozwiniętym – uczestnictwo w mechanizmie INDC. Etiopia, Kenia, Maroko, Dominikana, Algieria i Demokratyczna Republika Konga złożyły deklaracje pod warunkiem uzyskania międzynarodowego wsparcia finansowego i technologicznego.
W przeciwnym razie te państwa, na których nie ciąży historyczna odpowiedzialność za emisje CO2, skoncentrują się tylko na wzroście gospodarczym i walce z ubóstwem.
Cele na szczyt klimatyczny w Paryżu
Pomimo zastrzeżeń i obaw istnieje szansa, że INDC staną się nie tylko częścią paryskiego porozumienia, ale też solidną podstawą do przyszłych, dostosowanych do potrzeb działań klimatycznych. By tak się stało, w paryskiej umowie należy określić metody mierzenia emisji w LULUCF, by zwiększyć przejrzystość INDC. Wówczas niektóre państwa, po wyłączeniu tego sektora z celów redukcyjnych, mogą poczuć się zmobilizowane do ich podniesienia.
Ważnym pomysłem, który wzmocni INDC, jest też wprowadzenie pięcioletniego cyklu ich rewizji. Gdyby taki mechanizm powstał, przynajmniej te państwa, których obecne zobowiązania wyznaczają cele do 2030 r., musiałyby je uzupełnić o cel pośredni na 2025 r. Niektórzy już wtedy podwyższą zakładane redukcje. Jeśli pierwsze pięć lat przebiegnie sprawnie, państwa będą mogły dokonać rewizji w górę ich celów redukcyjnych na 2030 r.
Pozytywnym sygnałem jest również to, że poza Brazylią i Indiami, które ogłosiły zamiar złożenia INDC przed COP21, wszyscy najwięksi emitenci już ogłosili swoje cele redukcyjne. Włączenie w ten proces państw rozwijających się i najmniej rozwiniętych oznacza, że porozumienie w Paryżu może stać się początkiem wspólnych ogólnoświatowych działań na rzecz ograniczenia zmian klimatycznych.
Nie są one jeszcze wystarczające, ale do innych politycy, podejmujący decyzje w kilkuletnich cyklach wyborczych, nie byliby w stanie długoterminowo się zobowiązać.
Odosobniony lider
Deklaracje państw najmniej rozwiniętych i Meksyku wskazują na bardzo istotny segment, w którym UE powinna podjąć dodatkowe działania. Wsparcie finansowe i przekazywanie technologii dla państw rozwijających się oraz gospodarek wschodzących uzależnionych od paliw kopalnych może stać się uzupełnieniem unijnego INDC i jednocześnie zwiększyć skalę koniecznych globalnych działań.
Deklaracja UE może wydawać się zbyt ambitna w porównaniu z innymi państwami, ale z globalnego punktu widzenia wcale taka nie jest. Można ją bowiem uznać za sprawiedliwy, pod względem możliwości gospodarczych, wkład starego kontynentu w międzynarodowe porozumienie.
Unia jednak zbyt optymistycznie zakłada, że może przewodzić globalnym negocjacjom. Unijne INDC miało zmotywować innych partnerów do równie wysokich redukcji emisji, ale porównanie zadeklarowanych wkładów każe ocenić UE jako lidera pozbawionego naśladowców i nieoddziałującego na innych.
Polscy negocjatorzy powinni uświadamiać unijnych partnerów co do odosobnienia UE w negocjacjach klimatycznych. Dlatego też należy wskazywać na LULUCF jako przestrzeń do ewentualnego obniżenia zakładanego celu UE wobec nieambitnych deklaracji innych państw. Polski rząd powinien propagować także ideę większego zaangażowania Unii we wsparcie innych państw w osiągnięciu zadeklarowanych celów redukcyjnych. By zdobyć w tej kwestii zaufanie europejskich partnerów, rząd musi wypracować najpierw własną politykę finansowania działań klimatycznych dla krajów rozwijających się.
Marek Wąsiński
Powyższy tekst został opublikowany w Biuletynie PISM Nr 77 z 11.09.15 http://www.pism.pl/publikacje/biuletyn/nr-77-1314
- Autor: Andrzej Jeleński
- Odsłon: 21939
W XXI wieku na rozwój społeczeństw w większej mierze niż elektryczność ma wpływ pole elektromagnetyczne.
Żyjemy w polu elektromagnetycznym (PEM), emitowanym przez różnego rodzaju nadajniki, telefony komórkowe, sprzęt AGD, telewizory i systemy wi-fi. Powstające zdalnie sterowane systemy „inteligentnego domu”, monitorowania zdrowia, czy internet rzeczy sprawiają, że liczba źródeł i natężenie tych pól szybko rosną. Rośnie też zapotrzebowanie na energię elektryczną, a to powoduje zwiększenie emisji PEM przez napowietrzne linie przesyłające.
Dynamika tych procesów sprawia, że zagrożenia związane z otaczającym nas polem elektromagnetycznym - obok nanotechnologii, (pozwalającej na wytwarzanie nanoproduktów, zwanych przez niektórych uczonych „azbestem” naszego wieku) - uznano za najważniejsze zagrożenia XXI wieku.
Pierwsze doniesienia o możliwości oddziaływania PEM na organizm człowieka pochodzą z końca XVIII w., kiedy odkryto, że pole o częstotliwości około 1 MHz powoduje skurcze mięśni (oddziaływania nietermiczne).
W połowie XIX w. Guillaume Duchene - twórca elektroterapii - opisał efekt grzania tkanek prądem. Powstały nowe dziedziny diagnostyki i terapii medycznej, m.in. rezonans i terapie magnetyczne.
Badania nad skutkami działania PEM rozpoczęto na dużą skalę po 1960 r. w ZSRR, gdzie zaobserwowano objawy chorobowe pracowników stacji radiolokacyjnych i urządzeń nadawczych.
Od tego czasu rozwijały się - niezależnie od siebie - zarówno badania nad możliwościami wykorzystania PEM w diagnostyce i terapii, jak i badania dotyczące zagrożeń zdrowia, jakie to pole stwarza.
Zanurzeni w PEM
Pole elektromagnetyczne, obok pola grawitacyjnego oraz krótko-zasięgowych oddziaływań silnych i słabych, jest jednym z czterech podstawowych pól we Wszechświecie. Związane jest ono z przemieszczaniem się ładunków elektrycznych powodowanym przez zjawiska naturalne (wyładowania atmosferyczne, promieniowanie słoneczne) lub emitowane przez różne urządzenia (linie energetyczne, radiostacje, urządzenia telefonii komórkowej, telewizji, radiolokacji sprzęt AGD, itd.).
Zagrożenia zdrowia powodowane przez PEM wynikają zwykle z ekspozycji na promieniowanie niejonizujące w zakresie od pól stałych do podczerwieni (pola elektrostatyczne, pola magnetostatyczne oraz zmienne w czasie pole elektromagnetyczne o częstotliwości do 300 GHz).
Najbardziej powszechnym źródłem PEM w zakresie małych częstotliwości są elektryczne linie wysokiego napięcia i stacje transformatorowe, a także mniejsze urządzenia domowe (sprzęt AGD). Z kolei źródłem promieniowania elektromagnetycznego wysokiej częstotliwości są anteny telewizyjne, sieci telefonii komórkowej i innych systemów komunikacyjnych, zdalnego sterowania i monitoringu. Chociaż powinny być montowane wysoko nad dachami, to niekiedy budynki je przewyższają, co zwiększa zagrożenie zdrowia ich mieszkańców - nawet wówczas, jeśli wielkość promieniowania od poszczególnych anten jest w granicach normy. Kumulacja pól pochodzących z różnych źródeł może bowiem sprawić, że wielkość promieniowania w pewnych miejscach znacznie przekracza maksymalną wartość uznaną za bezpieczną.
Ułomna ocena
Nie udało się dotychczas znaleźć mechanizmów oddziaływania PEM na organizm człowieka, stąd opisywane są jedynie jego efekty. Do ich badań stosowane są 3 grupy metod:
Do badania bezpośrednich skutków naświetlania PEM stosuje się:
- metody biologiczne (in vivo u ochotników lub zwierząt oraz in vitro na próbkach), oraz
- metody dozymetryczne (pozwalające na znalezienie związku między natężeniem pól zewnętrznych a polami wewnątrz organizmu).
Natomiast do badania skutków długotrwałego przebywania w PEM stosuje się metody statystyczne, epidemiologiczne, polegające na badaniu populacji poddanej działaniu określonego zagrożenia z podobną populacją, na którą zagrożenie to nie oddziałuje.
Istnieje duża niepewność w określeniu wpływu PEM na zdrowie człowieka na podstawie wyników uzyskiwanych tymi metodami. Trudno bowiem określić, czy dany czynnik powoduje tylko chwilowe zaburzenia w funkcjonowaniu organizmu, czy też zostawia trwałe ślady, powodując tzw. uszczerbek na zdrowiu. Dlatego też w poszczególnych krajach przyjęto różne graniczne wartości SAR (Specific Absorption Rate, czyli szybkość, z jaką energia 1 wata jest pochłaniana przez masę 1 kg ciała. Współczynnik SAR jest powszechnie przyjętą miarą termicznego oddziaływania PEM na fale radiowe poniżej 10GHz).
Wszystkie ograniczenia emisji, lub czasu przebywania człowieka w pobliżu określonych źródeł promieniowania, wiążą się z dużymi kosztami, stąd ustawodawcy, mimo zwiększającej się liczby wyników wskazujących na istnienie określonych zagrożeń, powołując się na brak dostatecznej wiedzy, bardzo niechętnie modyfikują normy określające maksymalne wielkości PEM w obszarach, w których przebywają ludzie.
Zagrożenia termiczne
Pole elektromagnetyczne wnika do wnętrza organizmów żywych i oddziałuje na czynności tkanek i komórek, choć jego bezpośrednie oddziaływanie nie jest na ogół odczuwane zmysłami.
W zakresie częstotliwości niskich (LF), mniejszych od 100 kHz, ciało ludzkie znacznie zakłóca rozkład przestrzenny PEM, co wynika z dużo większej przenikalności elektrycznej ciała niż wolnej przestrzeni. Indukowane w organizmie pole elektryczne jest znacznie słabsze niż w otoczeniu, ale że ciało jest dobrym przewodnikiem prądu, wzbudzane na jego powierzchni ładunki powodują powstanie prądów wewnątrz ciała. Są one najsilniejsze, gdy ciało jest uziemione, a najsłabsze - gdy jest odizolowane od ziemi. Natomiast przenikalność magnetyczna ciała jest taka sama jak jego otoczenia, co powoduje, że nie tylko rozkład, lecz i natężenie pola magnetycznego pozostają w organizmie bez zmian.
Na skutek efektu Faraday’a, pole magnetyczne w organizmie indukuje pole elektryczne i związane z nim prądy, które mogą mieć szkodliwy wpływ na narażonych na promieniowanie ludzi.
W zakresie częstotliwości radiowych (powyżej 100 kHz) tracą na znaczeniu mechanizmy stymulowania komórek przez indukowane prądy i zasadniczy efekt oddziaływania fal elektromagnetycznych to bezpośrednie nagrzewanie tkanek w wyniku pochłaniania energii.
Najpowszechniejszym obecnie źródłem PEM są urządzenia telefonii komórkowej. Oceniając ich wpływ na pogorszenie stanu zdrowia, należy rozpatrywać oddzielnie problem narażenia na promieniowanie wytwarzane przez anteny stacji bazowych, a oddzielnie samych telefonów komórkowych, które choć są znacznie słabszym źródłem promieniowania, to jednak znajdują się zwykle bardzo blisko ciała. Rozmowa przez telefon przyłożony do ucha powoduje znaczną miejscową ekspozycję głowy na PEM.
Co prawda, głębokość wnikania promieniowania mikrofalowego do wnętrza tkanek u dorosłych jest nieduża (kilka centymetrów), ale w pewnych sytuacjach może sięgać niektórych struktur mózgu, szczególnie płata skroniowego.
Absorpcja PEM zwiększa się również wokół częstotliwości rezonansowych ciała. U dorosłych są one rzędu 35 MHz, jeśli ciało jest uziemione, lub 70 MHz, jeśli jest izolowane od ziemi. Gdy człowiek znajduje się w polu o zbliżonych częstotliwościach, wartość pochłanianej energii zwiększa się od 5 do 10 razy w stawach i w nogach.
Części ciała mogą też wykazywać rezonanse. Głowa dorosłego to ok. 400 MHz, podczas gdy głowa małego dziecka to ok. 700 MHz, znacznie bliżej częstotliwości GSM. Dodatkowe rezonanse ok. 1 GHz występują przy powierzchni ciała. Badania wykazały, że najbardziej podatną (a co za tym idzie zagrożoną) grupą na oddziaływanie PEM są dzieci.
Przy częstotliwości pola powyżej 100 kHz efekt termiczny zaczyna dominować. W zależności od głębokości, na jaką PEM wnika do organizmu, różne są tego konsekwencje - od grzania całego organizmu do oparzeń na powierzchni ciała.
Aktualnie uważa się, że napromieniowanie jest dopuszczalne, jeśli pod jego wpływem nie indukują się w organizmach prądy przewyższające maksymalne dopuszczalne ich wartości w tkankach, lub nie następują takie zmiany ich temperatury.
Główne zagrożenia w zakresie wysokich częstotliwości PEM mogą stwarzać nadajniki radiowe i telewizyjne, stacje bazowe telewizji komórkowej, radiotelefony i telefony komórkowe.
SAR telefonów komórkowych dostępnych na rynku wynosi od 0,2 – 2 W/kg, a ich promieniowanie może dochodzić nawet do 50 V/m. Najczęstsze wartości SAR to 0,4 – 0,9 W/kg (Apple - max. 1,59 W/kg, Samsung Galaxy -0,23W/kg- dane producentów).
Podczas łączenia z siecią klasycznej komórki GSM o mocy 1W, gęstość mocy w odległości 1 cm od telefonu może przekroczyć 300mW/cm2, lecz spada do 0,3mW/cm2 w odległości 30 cm.
Z podobną gęstością mocy mogą promieniować anteny w radiotelefonach i na samochodach z nadajnikami, co powoduje, że obok samochodu pole znacznie przekroczy określony przez amerykańską agencję FCC i UE bezpieczny poziom 1mW/cm2. Napromieniowanie przez współczesne telefony w technologii LTE (4G) - bazujących na wielu nadajnikach i spełniających funkcję routera - siłą rzeczy nie zależy tylko od czasu prowadzenia rozmów. Dlatego należy zwracać uwagę, by nie trzymać ich blisko ciała, np. w kieszeni koszuli lub spodni.
Groźne linie przesyłowe
Oprócz zagrożeń bezpośrednich, jakimi są prądy przepływające przez organizm na skutek przebywania w bardzo silnym PEM lub też dotknięcia jakiegoś obiektu będącego pod napięciem, istnieje wiele doniesień o nietermicznych skutkach takiego oddziaływania wskutek długotrwałego przebywania w polach elektromagnetycznych o natężeniach znacznie mniejszych niż normatywne wartości graniczne uznane za bezpieczne.
Źródłem największych pól elektromagnetycznych są linie przesyłowe. Raport INCIRP z roku 2010 mówi, iż przebywanie w polach elektrycznych o częstotliwości ok. 20 Hz i o natężeniu ponad 50 mV/m może spowodować lekkie zaburzenia w przetwarzaniu sygnałów optycznych i koordynacji motorycznej człowieka. Nie stwierdzono jednak, aby skutki tego były trwałe. W raporcie podkreśla się jednak, że czasy ekspozycji były krótkie, a liczba badań niedostateczna.
Z przeprowadzonej przez grupę ekspertów National Radiological Protection Board (NRPB) z Wielkiej Brytanii analizy wyników badań epidemiologicznych oddziaływania PEM małej częstotliwości na komórki nerwowe, uwzględniającej grupy najbardziej wrażliwe (dzieci, ludzie leczący się), wynika, że największym zagrożeniem jest ryzyko białaczki u dzieci żyjących w polach magnetycznych w pobliżu linii energetycznych. Bezpiecznie jest wówczas, kiedy wartość PEM w ich tkankach nie przekroczy 10 mV/m. Jednak wielu autorów wskazuje, że przy długotrwałym napromieniowywaniu, może być groźne pole o niższej wartości.
Draper i in. np. zbadali, że dla dzieci, które mieszkały w odległości mniejszej niż 200 m od linii energetycznych względne ryzyko białaczki jest o 70% większe w porównaniu z dziećmi, które żyły w odległości większej niż 600 m. Nie znaleziono natomiast korelacji z innymi nowotworami.
Także Dayet i in. określili, że w przypadku PEM małej częstotliwości, w domach, w których PEM jest większe od 0,4 μT względne ryzyko raka wynosi 2,00 w porównaniu do grupy kontrolnej, w której PEM były mniejsze niż 0,1 μT.
Natomiast szwedzkie studium epidemiologiczne (Feychting & Ahlbom,) doniosło o zwiększonej zachorowalności dzieci na białaczkę przy PEM równym lub większym od 2,0 mG (0,2 μT).
Z kolei Feuything i in. stwierdzili, że ryzyko śmierci z powodu choroby Altzheimera u ludzi związanych zawodowo z elektrycznością czy elektroniką było o 40% wyższe niż w grupie kontrolnej.
Inne doniesienia mówią skutkach długotrwałego pobudzania nerwów wpływających na funkcje poznawcze lub inne funkcje mózgu, pracę serca lub mięśni.
PEM wysokiej częstotliwości też groźne
Efekty nietermiczne oddziaływania PEM wysokiej częstotliwości są znacznie słabiej zbadane i dlatego regulatorzy (amerykańska FCC i INCIRP) zastrzegają, że nie uwzględniają wyników badań świadczących o możliwościach negatywnego oddziaływania PEM, gdy poziomy ekspozycji są niższe od wartości granicznej efektu termicznego, uważając je za zbyt fragmentaryczne i niedostatecznie udokumentowane.
Jednak coraz więcej naukowców uważa, że efekt grzania tkanek na skutek bezpośredniej absorbcji energii promieniowania przyjęty przez INCIRP za podstawę do wyznaczenia granicznych wartości napromieniowania, nie wystarcza do oceny możliwych skutków promieniowania na zdrowie ludzi, ponieważ:
- nie uwzględnia wpływu modulacji sygnałów (szczególnie impulsowej) emitowanych przez stacje bazowe i telefony komórkowe. Liczne badania in vivo i in vitro prowadzone od 1975 roku w Rosji i w Polsce wskazały, że z reguły modulacja PEM powoduje znaczne zwiększenie efektów biologicznych, a Frey w 1971 stwierdził, że pewne efekty mogą wręcz nie zachodzić dla pól niemodulowanych;
- nie uwzględnia skutków długotrwałego napromieniowania przez pole słabe, mogące powodować rozwój efektów patologicznych.
Oto parę przykładów szerzej opisywanych nietermicznych efektów oddziaływania PEM na organizmy ludzkie:
- mikrofalowy efekt słyszenia PEM o charakterze impulsowym (acoustic neuroma). Gdy wartość szczytowa natężenia promieniowania jest bardzo duża, to pomimo niskiej wartości mocy średniej ten efekt może występować;
- zaburzenie pracy bariery krew mózg BBB (Blood brain barrier). BBB ochrania tkankę mózgową i neurony przed potencjalnie szkodliwymi, obecnymi we krwi molekułami, lecz pozwala przechodzić potrzebnym dla metabolizmu polarnym molekułom, takim jak glukoza czy aminokwasy. W obecności PEM zwiększa się dyfuzja różnych molekuł z krwi do mózgu.
Z badań Salforda i in. przeprowadzonych na szczurach wynika, że 2-godzinne napromieniowanie przez telefon GSM o poziomach poniżej dopuszczalnego SAR (0,2; 2 i 200 mW/kg) powodowało znaczący wzrost uszkodzeń neuronów obserwowane po 50 i 28 dniach, lecz nie po 14 dniach. Jednak doniesienia na temat trwałych szkodliwych skutków w centralnym systemie nerwowym czy mózgu są sprzeczne; - zagrożenia chorobą nowotworową dotyczyło wiele publikacji wyrażających sprzeczne opinie powodowane w części faktem, iż stosunkowo krótki okres ich intensywnego rozpowszechnienia nie sprzyja ocenie skutków długotrwałego napromieniowania. Jednak jedna z nich (L. O Hardell, M. Carlberg i in.) pokazała, że u najczęstszych użytkowników telefonów (ok. 30 minut dziennie przez 10 lat) nastąpił 40% wzrost zachorowań na glejaka mózgu.
Największe ryzyko stanowi jednostronne używanie aparatu komórkowego, powodujące zwiększenie ryzyka nerwiaka nerwu słuchowego o 140%, a glejaka o 100%.
Hocking znalazł zależność pomiędzy zwiększoną zapadalnością dzieci na białaczkę, a odległością od wież z antenami telewizyjnymi. Stwierdził, że może być szkodliwe długotrwałe narażenie na PEM o bardzo małej gęstości promieniowania (w polu od 8 do 0,2 μW/cm2) pochodzące od wież nadajników radio-telewizyjnych w strefie bliskiej (do 4 km od stacji). W artykule z 1996 r. opisał wyniki badań wskazujące na dwukrotny wzrost śmiertelności z powodu białaczki u dzieci w strefie bliskiej w stosunku do strefy dalekiej (4-12 km), przy PEM od 0,2 do 0,02 μW/cm2. W 2000 r. opublikował wyniki wskazujące, że szanse na wyzdrowienie dzieci chorych na białaczkę w strefie dalekiej są dwukrotnie większe niż w bliskiej.
- Zagrożenia dla układu nerwowego badane były przez von Klitzinga, który stwierdził, że impulsowe pole telefonów komórkowych ma wpływ na fale mózgowe.
- Zagrożenia dla układu reprodukcyjnego - badania in vivo na ludziach i zwierzętach pokazały na negatywny wpływ PEM na liczbę i jakość plemników.
Doniesień o tych i innych zagrażających zdrowiu efektach nietermalnych przebywania w polu elektromagnetycznym jest znacznie więcej. Ich spisy oraz płynące z nich wnioski znaleźć można między innymi w „The BioInitiative Report Recommendations” z 2012 r. oraz w innych raportach.
Świadomość zagrożeń wynikających z długotrwałego przebywania w polach „słabych”, a więc dopuszczonych przez normy, jednak wzrasta. Już w 2008 r. organ PE STOA (Scientific Technology Options Assessment) zwrócił się do Komisarza EU o zaostrzenie standardów unijnych w zakresie ochrony ludności przed promieniowaniem w zakresie częstotliwości radiowych (RF-EMF fields), stwierdzając: „W oparciu o wyniki badań wpływu promieniowania na zdrowie ludzi, poziom graniczny dla miejsc przebywania ludzi nie powinien przekraczać wartości 1000 μW/m2 (0,1 μW/cm2), biorąc pod uwagę wszystkie skumulowane źródła promieniowania. Natomiast dopuszczalny poziom uśredniony długookresowy, przy uwzględnieniu współczynnika bezpieczeństwa, powinien wynosić nie więcej niż 100 μW/m2 dla miejsc długotrwałego przebywania ludzi.
Szczególnie zaostrzone kryteria powinny być zastosowane w odniesieniu do: miejsc spania, miejsc długotrwałego przebywania dzieci, noworodków i matek ciężarnych i miejsc długotrwałego przebywania osób starszych, osób z ciężkimi schorzeniami i przewlekle chorych. Dopuszczalny uśredniony poziom długookresowy powinien wynosić w takich przypadkach nie więcej niż 10 μW/m2”.
W 2011 r. Międzynarodowa Agencja Badań nad Rakiem (International Agency for Research on Cancer, IARC) zmieniła klasyfikację fal radiowych na „możliwie rakotwórcze” („possibly carcinogenic”) stwierdzając, że możliwe są ograniczone, negatywne skutki wynikające z ekspozycji na PEM o częstotliwościach radiowych dla użytkowników telefonów bezprzewodowych (np. glejak, czy nerwiak nerwu słuchowego – acoustic neuroma), jednak dotychczasowe badania nie pozwalają na wyciągnięcie wniosków odnośnie zagrożenia innymi rodzajami raka.
W 2012 r. międzynarodowy zjazd lekarzy wystosował dramatyczny apel o rozpoczęcie działalności edukacyjnej dotyczącej uświadomienia społeczeństw o możliwości zagrożeń dla zdrowia wynikających z ekspozycji na PEM i podjęcia przez rządy konkretnych kroków w celu zmniejszenia tych zagrożeń.
W 2014 roku rząd Belgii zabronił na swoim terytorium sprzedaży dziecinnych telefonów komórkowych i ich reklamy wśród dzieci do lat siedmiu. Nakazał też podawać wartości SAR dla wszystkich sprzedawanych aparatów.
A jak w Polsce?
W Polsce oraz krajach tzw. Bloku Wschodniego w latach 60-tych i 70-tych prowadzono bardzo szeroko zakrojone badania oddziaływania PEM na żywe organizmy. Ukierunkowane one były głównie na ekspozycje w słabych polach z ewentualnymi skutkami oddziaływań długoterminowych. Badając nietermiczne efekty oddziaływań słabych pól na zwierzęta, stwierdzono u nich różne zmiany parametrów fizjologicznych: zwiększenie przepuszczalności bariery krew-mózg, czy zwiększony wypływ jonów wapnia, których to efektów w żaden sposób nie można wytłumaczyć termicznym oddziaływaniem PEM.
Biorąc pod uwagę wyniki tych badań, już pierwsza regulacja prawna ochrony ogólnej populacji oraz środowiska przez szkodliwym oddziaływaniem PEM (rozporządzenie Rady Ministrów z 1980) ustanowiła wartości graniczne PEM na bardzo niskim poziomie. Miało to zapewnić wysoki poziom ochrony przed znanymi, a nawet przed jeszcze nie w pełni poznanymi skutkami negatywnego działania PEM na stan zdrowia ludzi i ich zabezpieczenie przed efektami ewentualnego kumulacyjnego działania pól wynikających z długoterminowej ekspozycji.
Ustanowiona w Polskiej Normie i podtrzymana w dalszych zarządzeniach wartość graniczna gęstości mocy pól mikrofalowych (0,1 W/m2 ) jest niższa niż obowiązujące w USA i większości krajów Europy.
Również w zakresie niskich częstotliwości sieci (50 Hz) PN podaje niższe wartości dopuszczalne pól elektromagnetycznych: 1000V/m dla pola elektrycznego, a 60 A/m2 dla pola magnetycznego, podczas gdy wg wytycznych Międzynarodowej Komisji d/s Promieniowania Niejonizującego z 2010 r. te wartości to 5000V/m i 80 A/m2.
Choć w polskich przepisach starano się uwzględnić efekty nietermiczne i na tle innych krajów gwarantują one stosunkowo najlepsze zabezpieczenie przed promieniowaniem, to wątpliwości budzić może kontrola ich przestrzegania. Na rynek polski dopuszczone są telefony komórkowe spełniające normy amerykańskie i INCIRP, w których gęstość mocy promieniowania przekracza stukrotnie wartość dozwoloną przez polską normę, a ta z kolei przekracza wielokrotnie rekomendowaną przez STOA wartość graniczną dla miejsc długotrwałego przebywania ludzi.
Ponadto, gdy budowane są nowe stacje bazowe, lub w ramach modernizacji zwiększana jest liczba nadajników i ich mocy, należałoby konsekwentnie wykonywać pomiary natężenia pola w ich otoczeniu.
Również potrzebna byłaby akcja uświadamiająca użytkowników telefonii komórkowej o zagrożeniu wynikającym z użytkowania telefonów komórkowych, skłaniająca ich do używania słuchawek i w miarę możności wyłączania, lub trzymania telefonów w pewnej odległości od ciała. Byłoby to bezkosztowe zmniejszenie zagrożenia przed PEM.
Działania takie stają się niezbędne choćby i z tego powodu, że dopuszczalne wartości natężenia PEM w USA i Europie Zachodniej zabezpieczają ludzi wyłącznie przed wystąpieniem bezpośrednich skutków efektu termicznego. W świetle coraz liczniejszych wyników badań stają się nieadekwatne i powinny być obniżone.
Jednak należy sobie zdawać sprawę z faktu, iż obniżenie wartości dopuszczalnych promieniowania związane jest z ogromnymi kosztami dla przemysłu, który silnie lobbuje za utrzymaniem aktualnych norm międzynarodowych. Tak długo jak te normy obowiązują, przemysł nie musi inwestować w sprzęt o większej czułości, mniejszej emitowanej mocy czy w zwiększanie liczby stacji bazowych. Jednak mając świadomość wszystkich dobrodziejstw płynących z używania coraz liczniejszych urządzeń wytwarzających PEM, należy pamiętać o możliwych zagrożeniach dla zdrowia wynikających z długotrwałej ekspozycji nawet w „słabym” polu elektromagnetycznym, które jest nowym rodzajem zanieczyszczenia środowiska.
Andrzej Jeleński
Prof. Andrzej Jeleński jest pracownikiem naukowym w Instytucie Technologii Materiałów Elektronicznych.
- Autor: Anna Leszkowska
- Odsłon: 1
NIK negatywnie ocenia działania administracji publicznej w zakresie rozpoznania i zwalczania inwazyjnych gatunków obcych roślin i zwierząt (IGO).
Do najpoważniejszych nieprawidłowości należało opracowanie przez Generalnego Dyrektora Ochrony Środowiska listy gatunków inwazyjnych stwarzających zagrożenie dla Polski w oparciu o nierzetelnie ustalone kryteria ich wyboru, brak rozpoznania występowania IGO w rezerwatach przyrody i na obszarach Natura 2000 oraz nieuchwalenie programów ochrony środowiska w gminach.
Należy także podkreślić, że wszystkie skontrolowane przez NIK gminy nie prowadziły kompleksowego rozpoznania gatunków inwazyjnych na swoim terenie. Wynikało to przede wszystkim z braku wskazania w ustawie o gatunkach obcych podmiotów odpowiedzialnych za rozpoznanie miejsc występowania tych gatunków.
Inwazyjne gatunki obce stanowią poważne zagrożenie dla środowiska przyrodniczego. Międzyrządowa Platforma ds. Różnorodności Biologicznej i Funkcjonowania Ekosystemów ostrzega w opublikowanym we wrześniu 2023 r. raporcie, że inwazyjne gatunki obce (IGO) stanowią globalne zagrożenie dla różnorodności biologicznej. W 60% odnotowanych przypadków były one główną przyczyną globalnego wymierania roślin i zwierząt, a w 16% – jedyną przyczyną.
Autorzy raportu podkreślają, że wczesne wykrywanie i szybkie reagowanie na pojawienie się IGO w środowisku skutecznie spowalnia tempo rozprzestrzeniania się takich gatunków. Niestety raport odnotowuje również niewystarczające wysiłki na rzecz zapobiegania ich rozprzestrzenianiu.
Szacuje się, że w Europie występuje ponad 12 tys. gatunków obcych. Około 10%–15% z nich rozmnożyło się i rozprzestrzeniło, powodując istotne szkody środowiskowe, gospodarcze i społeczne, które w Unii Europejskiej wynoszą co najmniej 12 miliardów euro rocznie i stale rosną. Dlatego zwalczanie IGO stało się jednym z priorytetów Unii Europejskiej. Obecność inwazyjnych gatunków obcych powoduje nie tylko niekorzystne zmiany w środowisku i szkody gospodarcze, ale w niektórych przypadkach stwarza także zagrożenie dla zdrowia i życia człowieka (np. w przypadku gatunków barszczy kaukaskich, których soki mogą powodować poważne i bardzo bolesne poparzenia skóry).
Ustawa o gatunkach obcych, która weszła w życie 18 grudnia 2021 r. miała za zadanie dostosować krajowy system zwalczania IGO do wymogów rozporządzenia nr 1143/2014 Parlamentu Europejskiego. Zaproponowane rozwiązania miały przyczynić się do eliminacji lub zminimalizowania negatywnego wpływu gatunków obcych na rodzimą przyrodę, usługi ekosystemowe, gospodarkę oraz ludzkie zdrowie.
W ustawie określono nowe zadania i kompetencje organów administracji publicznej. Wprowadzono do polskiego porządku prawnego nowe definicje (m.in. inwazyjny gatunek obcy, działania zaradcze, eliminacja), wskazano także organy zajmujące się wydawaniem zezwoleń, monitorowaniem i zarządzaniem IGO. Określono podmioty właściwe do podejmowania działań zaradczych wobec gatunków, które stanowią zagrożenie dla Unii i Polski oraz sposób przekazywania informacji o nowych stanowiskach tych gatunków. Nowe przepisy miały także zapewnić należyte informowanie społeczeństwa o występowaniu IGO i działaniach zaradczych, poprzez stworzenie Rejestru IGO.
Istotną rolę w utworzonym ustawą systemie eliminacji inwazyjnych gatunków obcych roślin i zwierząt powierzono wójtom, burmistrzom oraz prezydentom miast. Są oni odpowiedzialni m.in. za przyjmowanie zgłoszeń o stwierdzeniu obecności IGO w środowisku, dokonują weryfikacji formalnej zgłoszenia oraz zawiadamiają właściwe organy ochrony środowiska. Wójt, burmistrz albo prezydent miasta jest również odpowiedzialny za przeprowadzenie działań zaradczych w stosunku do IGO stwarzających zagrożenie dla Unii oraz Polski, rozprzestrzenionych na szeroką skalę.
Powyższe zadania zostały powierzone wójtom, burmistrzom oraz prezydentom miast jako zadania własne gminy. Skutkuje to koniecznością zabezpieczenia środków finansowych na ich realizację. Wprawdzie dostępne są możliwości finansowania zadań związanych z eliminacją roślin i zwierząt IGO (np. programy wojewódzkich funduszy ochrony środowiska i gospodarki wodnej), to jednak dotyczą one głównie zwalczania gatunków barszczy (Sosnowskiego i Mantegazziego).
Podkreślić należy, że skuteczne przeciwdziałanie IGO wymaga rozwiązań systemowych, w tym stabilnego i przewidywalnego finansowania, uwzględniających całokształt zagrożeń i działań niezbędnych do ograniczania szkód w środowisku, gospodarce lub ludzkim zdrowiu.
Kontrola miała na celu ustalić, czy wybrane jednostki administracji publicznej prawidłowo i rzetelnie realizowały zadania związane z rozpoznaniem i zwalczaniem inwazyjnych gatunków obcych. Kontrolę przeprowadzono w Generalnej Dyrekcji Ochrony Środowiska, czterech regionalnych dyrekcjach ochrony środowiska oraz w 16 urzędach jednostek samorządu terytorialnego w latach 2020-2024 (do 11 września).
Plan niemożliwy do oceny
Generalny Dyrektor Ochrony Środowiska, zgodnie z przepisami ustawy o gatunkach obcych, opracował plan działań dotyczący priorytetowych dróg przenoszenia IGO stwarzających zagrożenie dla Unii lub Polski. W dokumencie zidentyfikowano 36 dróg niezamierzonego wprowadzania lub rozprzestrzeniania się gatunków inwazyjnych. Spośród tych dróg, za priorytetowe uznano te, którymi przedostaje się lub może się przedostawać największa liczba inwazyjnych gatunków obcych stanowiących największe zagrożenie i dla których znane są skuteczne sposoby zarządzania. Tymi drogami były: rozprzestrzenianie się gatunków roślin ozdobnych z niekomercyjnych upraw ogrodniczych, ucieczka gatunków zwierząt domowych, gatunków akwarystycznych i terrarystycznych.
W związku z określeniem priorytetowych dróg przenoszenia IGO stwarzających zagrożenie dla Unii lub Polski, określono również zadania do wykonania wraz ze wskazaniem podmiotów odpowiedzialnych za ich realizację. Ponadto dla każdego ze wskazanych do wykonania zadań określono wskaźniki ich realizacji. Jednak nie określono ich wartości docelowej, co uniemożliwia ocenę osiągnięcia celów strategicznych i celu nadrzędnego planu działań.
Ponadto, w GDOŚ do końca 2020 r. nie wdrożono kompleksowego programu zwalczania IGO, pomimo że programy takie zostały opracowane dla łącznie 15 gatunków, a obowiązek taki wynikał z Programu ochrony i zrównoważonego użytkowania różnorodności biologicznej wraz z planem działań na lata 2015–2020.
Kosztowny projekt GDOŚ bez wpływu na ustalenie listy IGO zagrażających Polsce
29 grudnia 2016 r. między Narodowym Funduszem Ochrony Środowiska i Gospodarki Wodnej a GDOŚ zawarta została umowa o dofinansowanie projektu pn. Opracowanie zasad kontroli i zwalczania inwazyjnych gatunków obcych wraz z przeprowadzeniem pilotażowych działań i edukacją społeczną. Projekt miał określić stopnień inwazyjności gatunków obcych w Polsce, wskazać gatunki najbardziej zagrażające rodzimej przyrodzie oraz opracować metody ich zwalczania lub kontroli.
W ramach projektu zrealizowane zostały zadania polegające m.in. na:
a. stworzeniu i utrzymaniu systemu informacyjnego dotyczącego IGO;
b. ocenie i określeniu stopnia inwazyjności i rozprzestrzenienia dla wybranych 118 gatunków obcych w Polsce (w tym 60 gatunków roślin i 58 gatunków zwierząt);
c. opracowaniu kompendiów zwalczania IGO;
d. opracowaniu listy priorytetowych gatunków inwazyjnych, czyli takich, które powinny być zwalczane w pierwszej kolejności;
e. sklasyfikowaniu gatunków obcych na czterech listach (białej, ostrzegawczej, alarmowej i czarnej) w celu ułatwienia zarządzania i podejmowania odpowiednich decyzji odnośnie sposobów postępowania z tymi gatunkami obcymi;
f. przeprowadzeniu szkoleń dla pracowników wybranych jednostek administracji publicznej (m.in. służb ochrony przyrody).
Choć koszt projektu wyniósł 19,5 mln zł, to ostatecznie jego ustalenia nie zostały w pełni wykorzystane do stworzenia listy gatunków obcych zagrażających Polsce. Rada Ministrów przyjęła 9 grudnia 2022 r. rozporządzenie w sprawie listy inwazyjnych gatunków obcych stwarzających zagrożenie dla Unii i Polski, działań zaradczych oraz środków mających na celu przywrócenie naturalnego stanu ekosystemów. Projekt rozporządzenia został przygotowany w GDOŚ, lecz nie zawierał wszystkich gatunków obcych, które wg analizy stopnia inwazyjności i rozprzestrzenienia przeprowadzonej w ramach projektu sfinansowanego przez NFOŚiGW spełniały kryteria uznania za IGO stwarzające zagrożenie dla Polski, gdyż zostały uznane za gatunki bardzo i średnio inwazyjne.
Kryteria umieszczenia na liście gatunków stwarzających zagrożenie dla Polski zostały wskazane w Ocenie Skutków Regulacji sporządzonej dla tego dokumentu. Określono w niej, że na liście tej umieszczono gatunki wymienione w analogicznym rozporządzeniu Ministra Środowiska z dnia 9 września 2011 r., a które zostały ocenione w ramach projektu GDOŚ jako średnio lub bardzo inwazyjne. NIK podkreśla, że zgodnie z rozporządzeniem 1143/2014 Parlamentu Europejskiego, uznanie niepożądanego działania IGO za istotne oraz wymagające podjęcia działań zaradczych, powinno być dokonane na podstawie dowodów naukowych, a nie obecności we wcześniejszym katalogu.
Ograniczenie przez GDOŚ listy IGO stwarzających zagrożenie dla Polski do gatunków wymienionych w poprzednim rozporządzeniu doprowadziło do sytuacji, w której na liście tej nie znalazły się inwazyjne gatunki obce, które zgodnie z aktualnym stanem wiedzy naukowej oceniane są jako średnio lub bardzo inwazyjne. Nie zostały na niej również uwzględnione wszystkie spośród 23 gatunków priorytetowych, czyli takich, które w ocenie GDOŚ, powinny być zwalczane w pierwszej kolejności. W efekcie, jeden bardzo inwazyjny i 20 średnio inwazyjnych gatunków obcych, które spełniały kryteria uznania za IGO stwarzające zagrożenie dla Polski, nie znalazły się na liście z rozporządzenia.
Nieprawidłowości w gminach
Większość skontrolowanych gmin nie zdefiniowała prawidłowo zadań związanych ze zwalczaniem gatunków inwazyjnych w gminnych programach ochrony środowiska. Pięć gmin nie uchwaliło takiego programu, w trzech dokumenty te nie obowiązywały w całym okresie objętym kontrolą. Z kolei w sześciu z 12 urzędów, w których obowiązywały takie programy, nie uwzględniono w nich zadań związanych z problematyką rozpoznania i zwalczania IGO, mimo że na obszarze każdej z tych gmin takie gatunki występowały.
W ocenie NIK sporządzenie i uchwalenie planów ochrony środowiska jest niezbędne do prawidłowego funkcjonowania systemu zarządzania środowiskiem, gdyż ustalenia w nich zawarte spajają wszystkie działania i dokumenty dotyczące ochrony środowiska na szczeblu gminy. Ponadto 10 z 17 skontrolowanych urzędów nie współpracowało z innymi organami i instytucjami przy przeciwdziałaniu rozprzestrzeniania się IGO.
W żadnym ze skontrolowanych urzędów nie przeprowadzono kompleksowego rozpoznania dotyczącego liczby i skali obecności IGO w środowisku przyrodniczym gmin. O takiej potrzebie mogą świadczyć wyniki przeprowadzonego na zlecenie NIK rozpoznania występowania stanowisk roślin inwazyjnych.
W skontrolowanych gminach biegli rozpoznali łącznie 246 niezidentyfikowanych wcześniej stanowisk roślin IGO. Ponadto biegli stwierdzili na obszarze sześciu gmin stanowiska barszczu Sosnowskiego stwarzające zagrożenie dla życia i zdrowia ludzi (zlokalizowane były w pobliżu szkoły, zabudowy mieszkalnej, dróg i chodników).
W pięciu urzędach wystąpiły przypadki braku realizacji działań zaradczych na stanowiskach IGO zlokalizowanych na nieruchomościach gminnych, o których urzędy miały wiedzę. W sześciu urzędach wystąpiły przypadki przeprowadzenia działań zaradczych na nieruchomościach nie będących własnością gminy, pomimo że podmioty władające nie zostały poinformowane o konieczności przeprowadzenia przez nie tych działań.
Powyższe skutkowało nieuzasadnionym obciążeniem budżetów gmin na łączną kwotę 65 tys. zł. W toku kontroli ustalono również, że 10 urzędów nie informowało podmiotów władających posesjami o spoczywających na nich obowiązkach dotyczących eliminacji IGO. Sytuacje te dotyczyły łącznie 326 nieruchomości.
Kontrola NIK wykazała liczne problemy i bariery w zarządzaniu ochroną przyrody w gminach. Wśród najczęściej wymienianych problemów wskazywano na:
• niską świadomość i wiedzę na temat roślin i zwierząt IGO oraz stwarzanych przez nie zagrożeń, skomplikowany sposób zgłaszania (konieczność odnalezienia, wypełnienia i złożenia odpowiedniego formularza) zniechęcający do dokonywania zgłoszeń;
• niewielką liczbę zgłoszeń o obecności IGO w środowisku;
• czasochłonność procedowania spraw dotyczących IGO;
• brak akceptacji u części społeczeństwa dla eliminacji zwierząt IGO;
• brak ośrodków przyjmujących zwierzęta IGO;
• brak uregulowań w ustawie o IGO, dających możliwość zobowiązania państwowych jednostek organizacyjnych lub państwowych osób prawnych do realizacji działań zaradczych wobec IGO;
• kosztowność działań zaradczych oraz brak możliwości uzyskania finansowania wykonania działań zaradczych np. transportu i eliminacji zwierząt IGO.[…]
Nieprawidłowości w Dyrekcji Ochrony Środowiska
Generalna Dyrekcja Ochrony Środowiska prowadziła na podstawie przepisów ustawy o IGO rejestr, który stanowił system nadzoru gatunków inwazyjnych w rozumieniu rozporządzenia 1143/2014 PE. Nie był on jednak prowadzony prawidłowo. Nie przedstawiał bowiem faktycznych danych o skali i rozmieszczeniu roślin i zwierząt gatunków inwazyjnych. Kontrola NIK wykryła przypadki braku zgłaszania lub nieterminowego wprowadzania informacji o stwierdzonych stanowiskach obcych gatunków inwazyjnych. Ponadto w 15 z 17 skontrolowanych gmin nie wywiązywano się z ustawowego obowiązku przedkładania raportów o przeprowadzonych działaniach zaradczych.
Spośród łącznie 468 rezerwatów przyrody położonych na obszarze działania pięciu RDOŚ objętych kontrolą NIK, aż dla 298 (64%) z nich nie zostały opracowane plany ich ochrony, a co za tym idzie obszary te nie zostały kompleksowo rozpoznane pod kątem występowania i rozprzestrzenia IGO. W każdym z pięciu skontrolowanych RDOŚ wystąpiły przypadki braku realizacji działań zaradczych wobec gatunków inwazyjnych w rezerwatach przyrody. W dwóch spośród czterech RDOŚ, do których wpływały informacje o stwierdzeniu IGO podlegającego szybkiej eliminacji, działania zaradcze podejmowano z opóźnieniem lub w ogóle ich nie przeprowadzono. Zidentyfikowane w toku kontroli NIK przypadki dotyczyły m.in. braku podjęcia działań zaradczych wobec stwierdzenia obecności w środowisku 220 nutrii.
Więcej - https://www.nik.gov.pl/aktualnosci/zwalczanie-gatunkow-inwazyjnych-w-polsce.html