Biologia
- Autor: Anna Leszkowska
- Odsłon: 2984
Czy potrafimy sobie wyobrazić świat, w którym znów żyją dinozaury, a na wakacje jeździlibyśmy na Syberię oglądać wolnożyjące stada mamutów? Co jakiś czas media rozgrzewają dyskusję dotyczącą możliwości odtworzenia wymarłych gatunków i tym samym naprawienia niektórych skutków działalności człowieka, ale takie wskrzeszenia jeszcze długo pozostaną w sferze powieści science fiction. Możliwości genetyki nie należy jednak bagatelizować. DNA wyizolowany ze szczątków zwierząt żyjących w odległej przeszłości stanowi cenne źródło informacji, a niektóre z takich historii są niczym kryminalne opowieści.
Czym jest aDNA?
DNA, czyli kwas deoksyrybonukleinowy, jest wspaniałym związkiem. Nie zobaczymy go gołym okiem, ale to on decyduje o naszym życiu. Determinuje, jaki będziemy mieli kolor oczu, czy na śniadanie będziemy mogli zjeść płatki kukurydziane z mlekiem, czy zachorujemy na hemofilię, lub inną chorobę genetyczną. DNA to przepis, którego nie możemy zmienić.
Modyfikacje DNA u roślin (zazwyczaj uprawnych) czy zwierząt (zazwyczaj hodowlanych) wprawdzie nie należą do rzadkości, jednak potencjalne modyfikacje w genomie człowieka pozostają w sferze tabu. Pomijając kwestię nieetyczności, należy pamiętać, że mimo olbrzymiej wiedzy, którą posiadamy, w genetyce wciąż więcej jest niewiadomych. W inżynierii genetycznej szerokie zastosowanie znajduje metoda CRISPR/Cas (ang. Clustered Regularly-Interspaced Short Palindromic Repeats), pozwalająca na bardzo precyzyjne edytowanie genomów różnych organizmów. Nadal jednak nie znamy jej potencjalnych, długofalowych skutków.
DNA składa się z wielu małych puzzli, tzw. nukleotydów. Każdy nukleotyd posiada cukier deoksyrybozę (składający się z pięciu cząsteczek węgla), resztę kwasu fosforanowego i jedną z czterech zasad azotowych: purynę – adeninę (A) lub guaninę (G), lub pirymidynę – tyminę (T) lub cytozynę (C). Nukleotydy są połączone liniowo wiązaniami fosfodiestrowymi, tworząc nić DNA, prezentującą się jako ciąg liter A, T, G, C.
Cząsteczka DNA składa się z dwóch takich nici, połączonych dzięki zasadzie komplementarności: znajdujące się wewnątrz zasady azotowe łączą się w ściśle określone pary. Adenina zawsze łączy się z tyminą, a guanina z cytozyną. Dzięki temu, posiadając tylko jedną nić DNA z łatwością odtworzymy drugą.
Dwuniciowa cząsteczka DNA przyjmuje kształt prawoskrętnej, podwójnej helisy. Model ten został opisany i zaprezentowany w 1953 roku przez Jamesa Watsona i Francisa Cricka. Badacze za swoje odkrycie otrzymali Nagrodę Nobla, nie byłoby to jednak możliwe, gdyby nie badania Rosalind Franklin, której nazwisko nie zostało uwzględnione w werdykcie Komitetu Noblowskiego.
Gdybyśmy połączyli wszystkie ludzkie cząsteczki DNA z jednej komórki somatycznej w jedną nić, mierzyłaby ona ponad 2 metry! DNA jest zatem mistrzem kompresji danych. Jednocześnie jest bardzo podatny na niekorzystne warunki środowiskowe, które go niszczą (degradują). Podobno w odpowiednich warunkach (niskie temperatury, niska wilgotność i wysokie zasolenie) DNA potrafiłby przetrwać w dobrym stanie nawet milion lat.
DNA wyizolowany z materiału biologicznego (kości, wytwory skóry) pobranego z organizmów żyjących wieki temu nazwano antycznym DNA (aDNA). Cząsteczki aDNA wykazują znaczne zdegradowanie, jednak z każdą dekadą genetyka robi znaczne postępy metodologiczne i obecnie w większości przypadków antyczny DNA można (przynajmniej w części) wyizolować, namnożyć i odczytać sekwencję jego nukleotydów (zsekwencjonować).
Ciężki kawałek DNA
Zanim jednak dokona się przełomowego odkrycia, aDNA należy uzyskać i skutecznie (czyli również bezbłędnie) namnożyć. Antyczne cząsteczki kwasu deoksyrybonukleinowego są znacznie pofragmentowane. Setki, a nawet tysiące lat niekorzystnego działania warunków środowiskowych doprowadzają do tego, że DNA może być pocięty na fragmenty o długości do kilkudziesięciu par zasad. Wyobraźmy sobie jak żmudną pracą jest uzyskanie wtedy sekwencji całego genomu mitochondrialnego, który liczy ponad 16 tysięcy par zasad! Co więcej, antyczny DNA izolowany z osadów lub pokładów lodowcowych jest zanieczyszczony inhibitorami, które hamują lub wręcz uniemożliwiają przeprowadzenie jego amplifikacji.
Amplifikacja DNA nie byłaby możliwa, gdyby nie opracowanie przez Kary’ego Mullisa w 1983 roku reakcji łańcuchowej polimerazy (PCR, ang. polymerase chain reaction), polegającej na kopiowaniu cząsteczek DNA w warunkach laboratoryjnych. Ilość DNA uzyskanego w PCR zależy od liczby cykli reakcji (n) i wynosi 2n (zatem po 30 cyklach liczba cząsteczek DNA wynosi 230, czyli 1 073 741 824!).
Obecnie aDNA jest powielany i odczytywany z zastosowaniem sekwencjonowania nowej generacji (NGS, ang. next generation sequencing). Metoda ta tworzy sekwencję konsensusową, czyli najczęściej powtarzaną sekwencję uzyskaną po przyrównaniu wszystkich odczytów sekwenatora i obliczeniu częstości występowania nukleotydów w każdej pozycji tych odczytów. NGS eliminuje również problem ewentualnej kontaminacji innym DNA (np. bakteryjnym), jeżeli tych zanieczyszczeń jest bardzo mało w stosunku do DNA będącego obiektem badań (tzw. DNA matrycowego). Szczególnie poważnym problemem jest kontaminacja współczesnym DNA, dlatego izolacja aDNA jest prowadzona w specjalnie przygotowanym laboratorium, z osobnym wejściem, wyposażonym w śluzy, w którym nie pracuje się z DNA pozyskanym z prób współczesnych, ani z produktami uzyskanymi w PCR. Pomieszczenia są codziennie naświetlane promieniowaniem UV, a osoby pracujące w takim laboratorium noszą specjalne maski i kombinezony ochronne.
Ile Neandertalczyka w Homo sapiens?
Pierwszym sukcesem w analizach muzealnych prób było zsekwencjonowanie w 1984 roku przez zespół dr. Russella Higuchi z Uniwersytetu Kalifornijskiego mitochondrialnego genomu z zasuszonych mięśni zebry kwagga, martwej od 140 lat. Możliwość analizy antycznego DNA otworzyła przez naukowcami nowe możliwości, w tym analizę historii człowieka, obejmującą migracje populacji ludzkich i porównanie współczesnych ludzi z Neandertalczykami.
Odczytanie całego genomu mitochondrialnego Neandertalczyka przez zespół profesora Svante Pääbo z Instytutu Maxa Plancka w Lipsku ujawniło, że około 50-60 tysięcy lat temu wczesny Homo sapiens sporadycznie krzyżował się ze swoim wymarłym 24,5 tysiąca lat temu krewnym.
Geny Neandertalczyków znaleźć można u ludzi z różnych stron świata z wyjątkiem Afryki, której obszarów Homo neanderthalensis nigdy nie zamieszkiwał. Udział genów Neandertalczyka w genomie współczesnych ludzi wynosi około 1-4%.
Badania Srirama Sankararamana z Harvardu wykazały, że najwięcej znajduje się ich w regionach związanych z produkcją białka keratyny, zatem kodujących kolor skóry, oczu czy włosów oraz odpowiadających za elastyczność i wytrzymałość mechaniczną skóry. Sugeruje to, że nasi wymarli kuzyni przekazali nam zdolność w dostosowaniu się do chłodniejszego niż afrykański klimatu oraz… niebieskie oczy.
Niestety, badania Sankararamana wykazały również, że zwiększone ryzyko zachorowania na choroby takie jak toczeń rumieniowaty czy cukrzyca typu 2 również może być związane z obecnością neandertalskich wariantów genów. Na podstawie analizy genetycznej całej współczesnej populacji zamieszkującej Europę i Azję Wschodnią, Benjamin Vernot i Joshua Akey z uniwersytetu w Seattle oszacowali, że w sumie Neandertalczycy przekazali Homo sapiens aż 20% swojego genomu. Kto by pomyślał, że nasze geny skrywają takie sensacje!
Wędrówki z mamutami
Tysiące lat temu Polska wyglądała zupełnie inaczej. W 2016 roku, budowniczy drogi S3 ku swojemu zdumieniu w okolicach Gorzowa Wielkopolskiego odkryli niemal kompletny szkielet ciepłolubnego nosorożca Stephanorhinus kirchbergensis sprzed 100 tysięcy lat. Zwierzę najprawdopodobniej utonęło w jeziorze, które kiedyś zajmowało tereny gdzie teraz poprowadzono drogę ekspresową. Ale to nie koniec rewelacji. Szczątki mamutów rozsypane są dosłownie po całym kraju potwierdzając, że te włochate zwierzęta żyły w Polsce w licznych stadach. Wiek najmłodszych kości szacuje się na 13 tysięcy lat. W licznie odnajdywanych w Polsce szczątkach różnych zwierząt tkwi olbrzymi potencjał, jednak wciąż niewiele z nich analizowanych jest pod kątem zmienności antycznego DNA.
Sukces w amplifikacji aDNA zebry kwagga, wspomniany we wcześniejszym rozdziale tego artykułu, stworzył nowe możliwości w odtwarzaniu historii ewolucyjnej gatunków w oparciu nie tylko o rozmieszczenie ich szczątków kopalnych w różnych okresach, ale także o analizę ich zmienności genetycznej. Szczególnie interesujące są scenariusze poglacjalnej kolonizacji obszarów, z których wycofał się lodowiec.
Analiza danych genetycznych pozyskanych z prób współczesnych pozwala na identyfikację gwałtownych wydarzeń z przeszłości, takich jak wycofywanie i ekspansja populacji w trakcie cyklicznie występujących okresów zlodowacenia (glacjałów) i odwilży (interglacjałów). Z kolei antyczny DNA pozwala zajrzeć jeszcze głębiej, umożliwiając poznanie struktury genetycznej badanych populacji w konkretnym momencie. Często okazuje się, że przeszłość była znacznie bardziej skomplikowana niż wskazywałyby współczesne populacje.
Doskonałym przykładem jest historia ewolucyjna niedźwiedzia brunatnego. W holocenie tereny współczesnej Francji zamieszkiwane były przez populację niedźwiedzia, po której obecnie nie ma już śladu – została wytępiona przez ludzi. W tym przypadku doszło jedynie do zubożenia puli genetycznej gatunku, natomiast mamuty nie miały takiego szczęścia, dosłownie znikając z powierzchni Ziemi.
Antyczny DNA pozwala również skorelować czas wymierania różnych gatunków z pojawieniem się człowieka. Badania populacji bizonów z obszarów Azji i Ameryki Północnej ujawniły, że wprawdzie populacja tych zwierząt zaczęła zmniejszać się już około 37 tysięcy lat temu, ale dopiero 15-12 tysięcy lat temu, gdy doszło do spotkania z myśliwymi, spadek ten znacznie przyspieszył.
W przypadku gatunków wrażliwych na stan środowiska zmiany klimatyczne doprowadzają do drastycznych zmian demograficznych. Gwałtowne ocieplenie około 15-13 tysięcy lat temu spowodowało znaczne zmniejszenie zasięgu i liczebności leminga obrożego, gryzonia przystosowanego do chłodnego klimatu. Modelowanie uwzględniające prognozowane zmiany klimatyczne sugeruje, że w ciągu kolejnych 50-60 lat zniknie aż połowa obszarów odpowiednich dla leminga, doprowadzając niechybnie do jeszcze większej redukcji jego populacji.
Spośród licznych badań wykorzystujących antyczny DNA wyróżnić należy projekt, którego bohaterem był zamieszkujący Polskę żubr. Okazało się bowiem, że gatunek ten jest hybrydą! Wyniki analiz sugerują, że żubr jest wynikiem krzyżowania się około 120 tysięcy lat temu dwóch wymarłych gatunków: żubra stepowego (pierwotnego) i tura (przodek bydła domowego). I to jest dopiero historia! Antyczny DNA na pewno skrywa ich jeszcze bardzo wiele.
Joanna Stojak
Dr Joanna Stojak jest pracownikiem naukowym Instytutu Biologii Ssaków PAN
- Autor: Anna Leszkowska
- Odsłon: 2902
Medycyna i inżynieria genetyczna rozwijają się coraz szybciej, zapewniając nowe, coraz bardziej czułe i swoiste metody diagnostyczne oraz skuteczniejsze terapie w leczeniu nękających społeczeństwo chorób. Niestety, żyjemy w coraz bardziej niebezpiecznych czasach, a każdy medal ma dwie strony. Osiągnięcia tych dziedzin mogą dostać się w niepowołane ręce i zostać użyte przeciw ludzkości.
Czym jest bioterroryzm?
Bioterroryzm może się wydawać łagodniejszą formą terroryzmu. Zazwyczaj nie ma tam huku wybuchów, kłębów dymu czy ognia. Bioterroryzm atakuje podstępnie, w ciszy, zabijając masowo. Definiuje się go jako nielegalne użycie czynnika biologicznego, w celu zastraszenia społeczeństwa, osiągnięcia korzyści osobistych, politycznych lub religijnych.
Czynnikiem biologicznym mogą być bakterie, wirusy lub toksyny o bardzo dużej sile rażenia, często modyfikowane genetycznie. Trudno je wykryć, ale dość łatwo można je rozprowadzić w środowisku, na przykład rozpylając w kinie czy centrum handlowym. Zjadliwe działanie zazwyczaj zostaje zauważone po jakimś czasie (nawet po kilku dniach), dając sprawcy czas na spokojną ucieczkę. Niektórym bioterrorystom wystarczyły zwykłe koperty z wąglikiem, rozsyłane do wyznaczonych adresatów pocztą. Obecnie każdy z nas zareagowałby bardzo nerwowo, gdyby w jego przesyłce, zamiast listu znalazł się tajemniczy proszek.
Bioterroryzm działa kaskadowo – czynnik biologiczny wprowadzony do środowiska zachowuje się jak tocząca się z góry kula śniegu. Szkodliwe substancje rozprzestrzeniają się ekspresowo „z pomocą” osób zarażonych, a także pcheł, pluskiew, much, komarów czy kleszczy, będących naturalnymi nosicielami określonych patogenów. Osoby, u których zarażenie przebiega bezobjawowo, mogą przemieszczać się na bardzo duże odległości.
Bioterroryzm nie zawsze uderza bezpośrednio w ludzi. Inne z celów to np. zakażenie produktów spożywczych i wody pitnej (zarówno skażenie biologiczne, jak i chemiczne) czy wprowadzenie do środowiska patogenów niszczących plony lub wywołujących choroby zwierząt hodowlanych. Działania te wywołują panikę i utratę zaufania do rządu i producentów żywności.
Broń biologiczna stawia (na szczęście!) duże wymagania – do jej produkcji potrzebna jest spora wiedza i możliwości techniczne. Stanowi również zagrożenie dla samego potencjalnego producenta. I najważniejsze: broni biologicznej nie można kontrolować – uwolniona do środowiska staje się nieprzewidywalna. Także dla atakujących.
Czego należy się bać?
Czynniki biologiczne wykorzystywane przez bioterrorystów nie są wybierane przypadkowo. Są to substancje niezwykle zjadliwe, powodujące bardzo wysoką śmiertelność (powyżej 75-80% zarażonych). Wykorzystuje się patogeny, na które nie ma ani szczepionek, ani skutecznych metod leczenia. Jednocześnie ich masowa produkcja jest łatwa i tania (o ile ma się ku temu odpowiednią wiedzę i warunki), a mała masa cząsteczek zapewnia skuteczne rozproszenie (zazwyczaj w formie aerozolu) i zarażenie poprzez bezpośredni kontakt.
Niebezpieczne czynniki biologiczne, które były lub potencjalnie mogą być zastosowane w działaniach bioterrorystycznych, podzielono na trzy kategorie: A, B i C.
Najbardziej niebezpieczne są patogeny zakwalifikowane do kategorii A. Bardzo łatwo się rozprzestrzeniają, wywołując niezwykle wysoką śmiertelność. W tej grupie znalazły się między innymi patogeny wywołujące wąglik (Bacillus anthracis), dżumę (Yersinia pestis), gorączki krwotoczne (np. Ebola, Marburg), botulizm (toksyna Clostridium botulinum) czy ospę prawdziwą (Variola virus) (Tabela 1).
Mniej zjadliwe drobnoustroje wywołujące m.in. brucelozę, salmonellozę, cholerę (Vibrio cholerae), tyfus plamisty (Rickettsia prowazekii) czy biegunki krwotoczne (Escherichia coli) oraz toksynę rycynową zaliczono do kategorii B, charakteryzującej się umiarkowanym stopniem rozprzestrzenienia, zachorowalności i śmiertelności (Tabela 1). Patogeny będące wynikiem manipulacji genetycznych (np. hantawirusy) zaliczają się do kategorii C.
Historia używania czynników biologicznych jako broni sięga zamierzchłych czasów. Aleksander Macedoński zostawiał na opuszczonych terenach zwłoki żołnierzy chorych na choroby zakaźne. Tatarzy, podczas oblężenia twierdzy Kaffa w XIV wieku wrzucali na jej teren ciała zmarłych na dżumę. Trujące gazy masowo rozpylano w okopach podczas I wojny światowej, a podczas II wojny światowej Amerykanie i Japończycy testowali laseczki wąglika, pałeczki dżumy czy toksynę botulinową. W metrze w Tokio rozpylono sarin, a w Stanach Zjednoczonych pojawiły się liczne przesyłki z laseczkami wąglika.
Każdy przypadek użycia broni biologicznej wiąże się z dużymi nakładami finansowymi i społecznymi, które mają za zadanie oczyścić środowisko i naprawić szkody. Jednak najlepszą ochroną przed bioterroryzmem jest zapobieganie produkcji i magazynowaniu potencjalnie szkodliwych czynników biologicznych, co regulują m.in. Protokół Genewski z 1925 roku i Konwencja z 1972 roku. To międzynarodowe porozumienie, obowiązujące zarówno w czasach wojny jak i pokoju, wiąże obecnie 155 państw.
Czy to atak?
Niełatwo rozpoznać, że doszło do ataku bronią biologiczną. Sugerować to może nagromadzenie nietypowych wydarzeń: pojawienie się w społeczeństwie chorób niezwykle rzadkich lub eradykowanych (jak ospa prawdziwa), lub chorób o nietypowym przebiegu (np. w populacji szczepionej lub zachorowania o nietypowych cechach), mogących sugerować modyfikacje genetyczne.
Podejrzenia powinny także wzbudzić przypadki zachorowania na choroby egzotyczne u osób, które nie podróżowały, a także niewyjaśniony wzrost zachorowania na choroby endemiczne, nadzwyczaj ciężki przebieg znanych chorób czy masowe zachorowania i zgony w podobnym czasie i objawach klinicznych, ale nieznanego pochodzenia.
Zwrócić uwagę należy również na niewyjaśniony pomór zwierząt hodowlanych, wykrycie szczepów bakterii lub chorób nie występujących na danym terenie, czy zachorowania spowodowane inną niż standardowa droga zarażenia się.
Wczesne wykrycie działań bioterrorystycznych umożliwia identyfikację zagrożenia, wyznaczenie stref skażonych i zapobieganie dalszemu rozprzestrzenianiu się szkodliwych czynników. Analizie podlegają zarówno próbki pobrane od chorych, jak i zgromadzone w miejscu potencjalnego ataku. Szybkie i skuteczne działanie jest o tyle ważne, że ataki bioterrorystyczne stanowią poważne zagrożenie dla ludności cywilnej, a wykrycie czynnika rażenia nie zabezpiecza przed jego transferem w inne, nawet bardzo oddalone miejsca na Ziemi.
Panika wybucha łatwo, tym bardziej, że wiedza społeczeństwa dotycząca broni biologicznej jest niewielka. W przypadku ataków najważniejsze okazuje się zatem posiadanie zintegrowanych systemów nadzoru epidemiologicznego oraz wyspecjalizowanych w diagnostyce epidemiologicznej laboratoriów mikrobiologicznych (w Polsce znajduje się takie m.in. w Puławach).
Na dzień dzisiejszy nie ma skutecznej obrony przed bioterroryzmem, istnieje jedynie możliwość efektywnego i szybkiego usuwania skutków takich działań. Ważne, aby nadal opracowywać coraz to skuteczniejsze procedury zwalczające i zapobiegające atakom wykorzystującym broń biologiczną oraz wprowadzać procedury opisujące jak postępować, gdy już do takiego ataku dojdzie.
Joanna Stojak
Dr Joanna Stojak jest pracownikiem naukowym w Instytucie Biologii Ssaków PAN w Białowieży
Tabela 1. Wybrane jednostki chorobowe, stanowiące zagrożenie bioterrorystyczne
Choroba |
Czynnik biologiczny wywołujący chorobę |
Objawy chorobowe |
---|---|---|
Wąglik |
Bakteria Bacillus anthracis |
Umiejscowiony odczyn zapalny – czarne pęcherzyki wypełnione ciemnym płynem, które pękają pozostawiając czarny strup. |
Dżuma |
Bakteria Yersinia pestis |
Gorączka, powiększenie węzłów chłonnych, dreszcze, sepsa. |
Ebola |
Wirus Ebola |
Gorączka, bóle głowy i mięśni, wymioty, biegunka, wysypka, zaburzenia czynności nerek i wątroby, krwawienia wewnętrzne i zewnętrzne. |
Botulizm |
toksyna botulinowa |
Podwójne widzenie, światłowstręt, utrudnione połykanie, zaburzenia w oddawaniu moczu, porażenie ośrodka oddechowego. |
Ospa prawdziwa |
Wirus Variola minor lub Variola maior |
Charakterystyczna plamkowo-grudkowa wysypka, przede wszystkim na twarzy i kończynach. |
Bruceloza |
Bakterie Brucella |
Gorączka, bóle mięśni i stawów, drgawki. |
Salmonelloza |
Bakterie Salmonella |
Ostra biegunka. |
Cholera |
Bakteria Vibrio cholerae |
Biegunka (bez bólu brzucha) prowadząca do odwodnienia. |
Tyfus plamisty |
Bakterie Rickettsia prowazekii |
Dreszcze, wysoka gorączka, bóle stawów i mięśni, światłowstręt, niskie ciśnienie krwi, wysypka. |
Zatrucie toksyną rycynową |
Rycyna z rącznika pospolitego (Ricinus communis) |
Wymioty, biegunka, aglutynacja krwinek i wytrącanie fibryny do krwi. |
- Autor: Anna Leszkowska
- Odsłon: 3192
Można śmiało powiedzieć, że epidemie to nic nadzwyczajnego w historii ludzkości i świata. Znane są od najdawniejszych czasów, zmieniały się tylko okoliczności i choroby, które je wywoływały. Epidemie doprowadzały do upadku imperiów, zmieniały kultury, wywoływały kryzysy gospodarcze, ale i doprowadziły do rozwoju medycyny.
Dawniej sądzono, że są karą za grzechy, zapowiedzianą przez kometę. Winą obarczyć należy jednak czynniki zakaźne, wirusy i bakterie, które mutując, wciąż stanowią nie lada wyzwanie. Mimo iż wiele z epidemii należy już do przeszłości, możemy się wiele nauczyć na ich przykładach.
Jak daleko sięga epidemia?
Wystąpienie choroby zakaźnej nie jest niczym nadzwyczajnym i początkowo nie wzbudza podejrzeń. Dopiero, gdy liczba zachorowań okazuje się być większa niż odnotowywano wcześniej, można mówić o epidemii. Epidemia obejmuje masowe zachorowania na ograniczonym obszarze, jeśli jednak choroba zakaźna znacznie rozprzestrzeni się, pojawiając się w różnych krajach, a nawet kontynentach, staje się pandemią.
Rozróżnienie tych dwóch terminów opiera się zatem o obszar występowania choroby zakaźnej, nie jej intensywność czy śmiertelność.
Niska śmiertelność zarażonych osób ułatwia rozprzestrzenianie się czynnika wywołującego chorobę (tzw. czynnika etiologicznego). Pandemii sprzyjają również długi okres utajenia choroby i niewielki dyskomfort osoby zarażonej (przebieg bezobjawowy), wysoka zaraźliwość oraz brak naturalnej odporności w populacji (choroba nie występowała w populacji nigdy wcześniej lub występowała tak dawno, że organizm nie miał z nią kontaktu).
Śledząc przebieg przeszłych epidemii zauważyć można, że większość z nich swój początek miało w Azji lub Afryce. Oba kontynenty cechują duże zagęszczenia ludności oraz niezwykle wysoki poziom migracji z obszarów wiejskich do miast. Urbanizacja i rozwijająca się gospodarka prowadzą do wylesiania coraz większych obszarów, bezpośrednio stykających się z siedliskami dzikich zwierząt. Badania epidemiologów jednoznacznie pokazują, że wirusy czy bakterie przenoszą się do populacji ludzkiej właśnie od zwierząt dziko żyjących, takich jak nietoperze czy szczury. Pojawianie się coraz to nowych czynników etiologicznych w populacji ludzkiej jest zatem tylko kwestią czasu.
Czarna śmierć
Najbardziej znaną epidemią w historii pozostaje niewątpliwie epidemia dżumy, terroryzującej Europę przez kilka wieków. Choroba zaatakowała już w VI wieku, w Cesarstwie Bizantyjskim, jednak dopiero w XIV wieku zebrała najkrwawsze żniwo. Naukowcy szacują, że w latach 1346-1352 dżuma zabiła 1/3 ludności Europy. Dotarła także do Polski, ale jej przebieg w Europie Wschodniej był znacznie łagodniejszy. Na pewno wielu czytelników odetchnie z ulgą, że te czasy mamy już za sobą. Okazuje się jednak, że w 2019 roku w Chinach i Mongolii odnotowano kilka przypadków zachorowań na dżumę.
Dżuma, nazywana czarną śmiercią, morem czy zarazą morową, jest chorobą zakaźną wywoływaną przez bakterie Yersinia pestis. Ta beztlenowa pałeczka jest wrażliwa na środki dezynfekcyjne i wysoką temperaturę, jest jednak odporna na niskie temperatury. W środowisku może przeżyć nawet pół roku. Bakterie Y. pestis infekują małe ssaki (takie jak szczury czy wiewiórki), a następnie przedostają się do organizmów pcheł, żerujących na tych zwierzętach. W wyniku pokąsania bakteria zostaje przeniesiona przez pchły do organizmu człowieka, gdzie wraz z krwią i limfą przedostaje się do węzłów chłonnych. Po kilku dniach węzły chłonne (głównie pachwinowe, rzadziej pachowe i szyjne) ulegają bardzo bolesnemu powiększeniu (postać dymieniczna dżumy). Z czasem może dojść do zajmowania kolejnych węzłów chłonnych oraz zmian ropnych, co doprowadza do licznych powikłań, a w konsekwencji do sepsy. Postać septyczna charakteryzuje się bardzo silnym odczynem zapalnym, prowadzącym do powstania zatorów bakteryjnych w naczyniach krwionośnych palców kończyn, skutkując ich czarnym zabarwieniem (tzw. zgorzel).
Dżumą zarazić się można również drogą kropelkową, bezpośrednio od osoby chorej. Postać płucna dżumy charakteryzuje się ciężkim, wysiękowym zapaleniem płuc i włóknieniem opłucnej.
Szacuje się, że śmiertelność nieleczonej postaci dymienicznej może sięgać nawet 80%, podczas gdy postać septyczna i płucna są zawsze śmiertelne, nawet w ciągu 48 godzin.
Dżumę leczy się antybiotykami, między innymi streptomycyną czy gentamycyną. Szybko zastosowana antybiotykoterapia (w ciągu pierwszej doby od wystąpienia objawów) pozwala obniżyć śmiertelność do 5% w przypadku postaci dymienicznej i 20% w przypadku formy płucnej.
Pożegnanie z ospą prawdziwą
Czarna ospa, nazywana również ospą prawdziwą, jest pierwszą chorobą zakaźną, której zupełna eradykacja na świecie zakończyła się sukcesem (w 1980 roku). Było to możliwe dzięki wynalezieniu przez Edwarda Jennera pierwszej szczepionki zawierającej żywe wirusy ospy krowianki, która u ludzi powoduje niewielkie objawy, uodparniając organizm na atak ospy prawdziwej.
Czarną ospę wywołuje jedna z odmian pokswirusa Variola minor (postać klasyczna, łagodna, 75% przypadków) lub V. maior (postać bardzo zaraźliwa i zjadliwa), zawierającego liniowy dwuniciowy DNA (dsDNA). Rezerwuarem wirusa są ludzie. Do zarażenia najczęściej dochodzi drogą kropelkową, jednak kontakt ze zmianami na skórze chorego czy jego pościelą również stanowi poważne zagrożenie. Stosunkowo krótki czas trwania choroby i brak charakterystycznego przebiegu znacznie utrudniają walkę z wirusem. Należy pamiętać, że ospa prawdziwa jest jedną z najgroźniejszych chorób zakaźnych na świecie. Śmiertelność sięga nawet 100%! U osób szczepionych wynosi około 3%.
Ospa prawdziwa siała postrach od najdawniejszych czasów, dotarła do Europy z Azji w VI wieku. W XVI wieku hiszpańscy konkwistadorzy zawlekli chorobę do Ameryki, w wyniku czego zmarło nawet 3,5 miliona Indian.
Ostatnia w Polsce epidemia ospy prawdziwej wybuchła stosunkowo niedawno, latem 1963 roku we Wrocławiu. Pacjentem zero był oficer Służby Bezpieczeństwa, który powrócił z Indii. Stan epidemii trwał 2 miesiące, w trakcie których zachorowało prawie 100 osób (siedem zmarło, głównie pracownicy służby zdrowia). Mimo iż miasto zostało odcięte od reszty kraju kordonem sanitarnym, a osoby podejrzane o kontakt z chorymi trzymano w izolatoriach, ospa wydostała się do pięciu innych województw. Przewidywano, że epidemia potrwa 2 lata, doprowadzając do wielu zachorowań i zgonów. Jednak natychmiastowe zaszczepienie przeciw ospie prawdziwej 98% mieszkańców Wrocławia doprowadziło do szybkiego opanowania sytuacji epidemiologicznej i wygaszenia epidemii.
Problem z polio
Z polio zmagano się już w starożytności, jednak to prace Jakoba Heinego i Karla Medina pozwoliły na dokładne opisanie tej wirusowej choroby zakaźnej. Pojawiająca się sporadycznie, w XIX wieku wywołała pandemię.
Wirus polio do organizmu dostaje się drogą fekalno-oralną, trafiając do nabłonka jelit, w którym się replikuje, by po około dwóch tygodniach zaatakować układ krwionośny i limfatyczny. Jeśli na tym etapie układ odpornościowy nie pokona zakażenia, wirus rozprzestrzenia się po całym organizmie, trafiając również do centralnego układu nerwowego (m.in. do rdzenia kręgowego i przedłużonego). Skutkiem choroby Heinego-Medina są między innymi bezwład i zniekształcenie kończyn oraz paraliż. W rzadkich przypadkach dochodzi do porażenia układu oddechowego i śmierci.
Dzięki zastosowaniu skutecznych szczepionek doustnych (wynalezionych przez profesora Hilarego Koprowskiego) i wdrożeniu stopniowego planu eradykacji choroby, polio zostało wyeliminowane niemalże na całym świecie. Obecnie występuje endemicznie w kilku krajach Afryki i na Bliskim Wschodzie.
Wirus na talerzu
Niektóre choroby wracają jak bumerang, jak np. cholera, która wywołała na świecie aż siedem pandemii, uśmiercając kilkadziesiąt milionów ludzi. W Europie najgroźniejsza była epidemia z lat 1831-1838. Podejrzewa się, że to właśnie na cholerę zmarł Adam Mickiewicz.
Cholera jest zakaźną chorobą układu pokarmowego wywoływaną przez enterotoksynę wydzielaną przez Gram-ujemne bakterie, przecinkowce cholery (Vibrio cholerae). Bakterie zostały opisane w XIX wieku przez Roberta Kocha. Charakteryzuje je wysoka wrażliwość na wysoką temperaturę, wysychanie i kwaśne pH. Do zakażenia dochodzi przez spożycie skażonej ludzkimi odchodami (chorych lub nosicieli) wody, dlatego zapobieganie polega głównie na oczyszczaniu wody pitnej, myciu rąk i owoców.
W większości infekcji choroba ma łagodny przebieg. W ostrej postaci objawia się intensywnymi wymiotami i wodnistą biegunką, bez bólu brzucha i parcia na stolec. Bardzo szybko dochodzi do odwodnienia organizmu, zaburzeń elektrolitowych, a w konsekwencji do zgonu. Przy braku leczenia śmiertelność sięga 50%. W niektórych częściach świata cholera nadal stanowi poważny problem.
Koronawirusy w natarciu
W ciągu ostatnich 20 lat koronawirusy wywołały aż trzy pandemie. Ich nosicielami są głównie ssaki i ptaki. U ludzi powodują infekcje układu oddechowego, rzadko skutkujące śmiercią. Sugeruje się, że wirusy te mogą być odpowiedzialne za 10-20% wszystkich przeziębień. Koronawirusy są trudne w hodowli in vitro, dlatego wciąż nie ma szczepionek, które mogłyby zapobiegać lub leczyć wywoływane przez nie choroby. Ich nazwa wywodzi się od specyficznej budowy kapsydu, opatrzonego pierścieniem kulistych wypustek. Pod osłonką znajduje się pojedyncza helikalna i spolaryzowana dodatnio nić RNA (ssRNA+).
W 2002 roku w Chinach pojawiły się pierwsze zachorowania na ciężki ostry zespół oddechowy (SARS), po czym choroba stopniowo rozprzestrzeniła się na inne rejony Azji, a potem świata. Podejrzewa się, że wirus przeniósł się do populacji ludzkiej od zwierząt trzymanych w klatkach na targu, by następnie przenosić się z człowieka na człowieka drogą kropelkową. Początkowe objawy przypominały grypę, szybko jednak zaostrzały się, prowadząc do ostrej niewydolności oddechowej. Śmiertelność SARS oszacowano na 7%.
W 2012 roku koronawirusy uderzyły ponownie, tym razem pod postacią bliskowschodniego zespołu oddechowego (MERS). Rezerwuarem tego wirusa miały być wielbłądy i nietoperze. Śmiertelność MERS sięgała nawet 35%, w zależności od szybkości w rozpoznaniu choroby oraz wieku pacjenta (najwyższą śmiertelność zaobserwowano u chorych powyżej 70. roku życia).
Obecnie świat zmaga się z kolejnym przedstawicielem koronawirusów, COVID-19, który w ekspresowym tempie rozprzestrzenił się z Chin do Europy i resztę świata. Prawdopodobnym rezerwuarem wirusa jest łuskowiec: zwierzę sprzedawane na azjatyckich targach jako kulinarny przysmak oraz dla pozyskania łusek stosowanych w medycynie tradycyjnej. Szacuje się, że śmiertelność wywołana przez tego wirusa to 3-4%. Najbardziej narażone na zgon są osoby starsze, z obniżoną odpornością oraz zmagające się z innymi chorobami, w szczególności przewlekłymi (m.in. cukrzyca).
Koronawirusy są twardymi zawodnikami – potrafią przeżyć poza organizmem nosiciela ponad tydzień, są jednak wrażliwe na temperaturę powyżej 40°C oraz działanie środków dezynfekujących. Wirus przenosi się drogą kropelkową, dlatego ważne jest, aby pamiętać o częstym myciu rąk: wodą z mydłem (15-30 sekund, nie zapominając o przestrzeniach między palcami) lub przy użyciu płynów na bazie alkoholu (minimum 60%). Zasłaniając usta i nos podczas kichania i kaszlania (najlepiej czystą chusteczką higieniczną) ograniczamy rozprzestrzenianie i osadzanie się wirusa na szklanych czy plastikowych powierzchniach oraz na naszych dłoniach, którymi dotykamy przecież wszystkiego w naszym otoczeniu. Na koronawirusy, podobnie jak na grypę, nie ma na razie bardziej skutecznego lekarstwa niż profilaktyka.
Nie bagatelizujmy grypy
Grypa jest kolejną ostrą chorobą zakaźną, wywoływaną przez wirusy, które atakują komórki nabłonka dróg oddechowych i niszczą je. Prowadzi to do infekcji, która trwa około tygodnia. Ciężki przebieg grypy skutkuje poważnymi powikłaniami, takimi jak zapalenie płuc, oskrzeli, ucha środkowego, a nawet mięśnia sercowego i osierdzia. Sezon grypowy trwa zazwyczaj od stycznia do marca, co w Polsce oznacza od kilkuset tysięcy do nawet kilku milionów chorych (śmiertelność grypy sezonowej wynosi około 0.1%).
Na rynku dostępna jest szczepionka, która ma za zadanie uodpornić na grypę lub złagodzić przebieg choroby. W wyniku mutacji, co roku pojawiają się nowe warianty wirusa, dlatego jeśli podejmiemy decyzję o szczepieniu, należy wykonywać je sezonowo, powtarzając co roku.
Wielu z nas bagatelizuje grypę, mimo iż choroba ta wywołała na świecie niejedną pandemię. Szczepy wirusa typu A (atakującego ludzi i zwierzęta) opisuje się podając podtypy dwóch glikoprotein, czyli białek powierzchniowych z przyłączonym łańcuchem cukrowym – hemaglutyniny (H) oraz neuraminidazy (N). Struktury te rozpoznają specyficzne glikoproteiny lub glikolipidy zakończone kwasem sialowym, znajdujące się na powierzchni atakowanych komórek nosiciela. Hemaglutynina wirusa dokuje do wybranej komórki, po czym neuraminidaza odcina cząsteczkę kwasu sialowego, umożliwiając wirusowi bezproblemowe infekowanie kolejnych komórek nosiciela. Do tej pory opisano 16 typów hemaglutyniny i 9 typów neuraminidazy. I tak oto „ptasią grypę” wywołał szczep H5N1, a za „świńską grypę” odpowiedzialny był szczep H1N1.
W 1957 roku w Chinach wybuchła epidemia grypy azjatyckiej (typ H2N2), która bardzo szybko rozprzestrzeniła się do innych krajów, zabijając ponad milion ludzi. Kolejne mutacje doprowadziły do przekształcenia w szczep H3N2, który w 1968 roku wywołał równie tragiczną w skutkach grypę Hong-Kong.
W 2009 roku w wyniku reasortacji genowej, czyli wymiany fragmentów jednoniciowego RNA kilku odmian wirusa H1N1, wybuchła następna pandemia, wywołana zmutowaną wersją świńskiej grypy. Na świecie zmarło wtedy prawie 600 tysięcy osób (w tym 182 osoby w Polsce).
Najstraszliwszą pandemią ostatnich dwóch stuleci była jednak pandemia grypy hiszpanki (1918-1920, podtyp H1N1), pierwszej pandemii od czasów dżumy, która pochłonęła tak wiele istnień. Hiszpanka doprowadziła do śmierci od 50 do nawet 100 milionów osób na całym świecie, zachorowało na nią blisko 500 milionów ludzi (1/3 ówczesnej populacji)! Wirus został przeniesiony do Europy przez żołnierzy amerykańskich przybywających na front I wojny światowej. Najbardziej uderzający jest fakt, że w wyniku zarażenia umierali ludzie silni i młodzi (20-40 lat), a nie schorowani i słabi. Pandemia hiszpanki rozwinęła się prawie na całym świecie, docierając aż do Australii. Z tym, że wprowadzenie szczelnej blokady morskiej opóźniło transfer wirusa na ten odległy kontynent i hiszpanka nie była tam tak zabójcza jak w Europie.
Należy podkreślić, że mylna nazwa choroby, sugerująca, że pandemia rozwinęła się w Hiszpanii, była wynikiem cenzury i działań propagandowych. Kraje biorące udział w walkach I wojny światowej ukrywały informacje o skali zachorowań i śmiertelności, aby nie osłabiać morale żołnierzy i ludności cywilnej. Liczba zgonów z powodu grypy znacznie przewyższała liczbę strat poniesionych w walkach. Hiszpania, jako kraj neutralny i nie biorący udziału w wojnie, skrupulatnie publikowała dane epidemiologiczne, które w porównaniu z resztą Europy zdawały się nadzwyczaj wysokie.
W związku z utajeniem powyższych informacji niełatwo jest oszacować śmiertelność z powodu hiszpanki. Sugeruje się, że mogła sięgać 5-10%. Spowodowana była krwotocznym zapaleniem płuc lub dalszymi powikłaniami (na przykład zakażeniami bakteryjnymi układu oddechowego). Zaobserwowano trzy fale epidemii, z których tylko druga miała bardzo ostry przebieg i wysoką śmiertelność.
Badania naukowe dowiodły jednak, że to nie sam wirus hiszpanki był bezpośrednią przyczyną tak licznych zgonów młodych ludzi. Zakażenie dróg oddechowych uwalniało lawinę immunologiczną, zwaną hipercytokinemią, czyli nadmiernego pobudzenia układu odpornościowego, który prowadził do autodestrukcji organizmu.
Czego nie robić w trakcie epidemii?
Głównym czynnikiem występowania epidemii i pandemii jest niewątpliwie mobilność i zagęszczenie ludności. W średniowieczu pakowano na wozy cały dobytek i uciekano przed zarazą, pozostając nieświadomym obecności pasażera na gapę, czynnika etiologicznego. Dopóki warunki sprzyjały, wirus lub bakteria zajmowały coraz większe terytoria.
Bardzo długo nie wiedziano co powoduje tak straszliwe wydarzenia i jak można im zapobiegać. Przerażeni ludzie tłumaczyli je sobie karą boską, zatrutym powietrzem lub wodą. Nietrudno było znaleźć kozła ofiarnego, obwiniając o epidemie czarownice, obcych, Żydów. Z czasem jednak nauka ujawniła prawdziwych winowajców, obalając wszystkie teorie spiskowe.
Mimo dowodów, musiało minąć bardzo dużo czasu, aby ludzie uwierzyli w istnienie niewidzialnych gołym okiem wirusów i bakterii. Nawet dziś, mimo całej naszej wiedzy, zdajemy się ignorować drogi rozprzestrzeniania się chorób. Zapominamy, że pomimo braku objawów możemy stanowić rezerwuar śmierci. Wsiadamy w samolot i w ciągu kilku godzin dajemy wirusowi lub bakterii nowe, bezbronne terytorium.
W średniowieczu ucieczki z miast i izolacja na odludziu stanowiły skuteczną metodę zapobiegania nawracającym epidemiom. Wtedy jednak zaludnienie i urbanizacja były dużo mniejsze, a podróże stanowiły nie lada wyzwanie.
Niezależnie od czasów, epidemie i pandemie niosą ze sobą śmierć, paraliżują działania instytucji państwowych i jednostek. I zarówno dziś, jak i w średniowieczu jednostki zawsze wierzyły, że ich choroba nie dosięgnie. W przypadku wiary w karę boską można przymknąć na tę niewiedzę oko, ale nie w XXI wieku. W walce z epidemią nie powinno być wyjątków, każdy z nas musi przyłożyć się tak samo.
Joanna Stojak
IBS PAN w Białowieży
- Autor: Anna Leszkowska
- Odsłon: 5173
Drewno jest niezwykłym surowcem. Należy do najstarszych materiałów używanych przez człowieka. Stanowi podstawowy składnik papieru, wykorzystywane jest jako paliwo i materiał budowlany.
Już Leonardo da Vinci zaobserwował, że słoje drzewa różnią się w zależności od panujących warunków środowiska. W latach 20. XX w. Andrew E. Douglass bardzo wnikliwie poszukiwał związku między aktywnością Słońca i jego wpływem na warunki klimatyczne a sekwencją przyrostów rocznych. Korelacji nie udało mu się wykazać, jednak zauważył, że drzewa rosnące w podobnych warunkach klimatycznych wykazują duże podobieństwo przyrostów rocznych. Jego badania stanowiły podwaliny dendrochronologii, której użyteczność udowodniono już w 1929 roku, kiedy to na podstawie analizy pochodzącego z indiańskich osad drewna budowlanego precyzyjnie określono ich powstanie na 1285 rok.
Od lat 60. XX w. konstruowane są liczne chronologie wzorcowe, będące podstawą poprawnych datowań prób drewna o zróżnicowanym pochodzeniu.
W dendrochronologii największe znaczenie mają drzewa długowieczne, takie jak sekwoja czy dąb, a opracowane dla nich skale wzorcowe umożliwiają nie tylko ustalenie roku, ale nawet sezonu ich ścięcia (jeśli nastąpiło w okresie wegetacyjnym). Obecnie jest to najdokładniejsza metoda szacowania wieku bezwzględnego, znajdująca zastosowanie w archeologii, klimatologii, leśnictwie, ekologii czy historii sztuki. Uzyskane informacje rzucają nowe światło na historię wielu budowli, a tym samym dzieje Polski.
Sekrety drzew
Dendrochronologia (gr. dendron – drzewo, chronos – czas, logos – nauka) polega na przyporządkowaniu poszczególnym przyrostom rocznym drzewa (tzw. słojom) czasu ich powstania, w odniesieniu do konkretnych lat kalendarzowych. Badania Douglasa wykazały, że drzewa tego samego gatunku, rosnące w tym samym regionie klimatycznym, reagują podobnie na zmiany warunków środowiskowych, co przekłada się na niemal identyczny przyrost kolejnych słojów (tzw. zasada współzależności dendrochronologicznej). Szerokość przyrostów uzależniona jest od zmian temperatury, wilgotności, obecności pasożytów, działalności człowieka - jeśli warunki są sprzyjające, wytworzone pierścienie są grube, natomiast zimne, suche okresy skutkują powstaniem wąskich słojów.
Niepowtarzalna sekwencja przyrostów rocznych (tzw. krzywa dendrochronologiczna) stanowi swoisty kod kreskowy, zawierający w sobie informacje o panujących w trakcie całego życia drzewa warunków środowiskowych. Krzywe te umożliwiają dokonanie porównań pomiędzy jednym i drugim drzewem. Umożliwia to datowanie prób drewna o nieznanym wieku, z dokładnością do jednego roku oraz rekonstrukcję zmian zachodzących w danym okresie.
Co roku drzewo produkuje jeden słój, u większości gatunków klimatu umiarkowanego złożony z dwóch warstw - wyprodukowanego wiosną drewna wczesnego i powstającego w lecie drewna późnego. Proces odkładania drewna zamiera na okres zimowej przerwy wegetacyjnej, by po roku cykl powtórzył się. W drewnie drzew iglastych przyrosty są zazwyczaj czytelne i dobrze widoczne. Składają się z jasnej strefy drewna wczesnego, charakteryzującego się cienkimi ścianami komórkowymi oraz ciemną strefą drewna późnego, posiadającego grubą ścianę komórkową, nadającą drewnu dużą wytrzymałość mechaniczną.
W przypadku drzew liściastych wyróżnić można dwie grupy gatunków, różniących się rozmieszczeniem i rozmiarami elementów przewodzących wodę (tzw. naczyń). Gatunki takie jak dąb, jesion czy wiąz wiosną tworzą duże naczynia, składające się na duży i wyraźny pierścień (tzw. drewno pierścieniowo-naczyniowe). Drzewa takie jak olcha czy buk produkują drewno rozpierzchło-naczyniowe, w którym naczynia są porozrzucane równomiernie wewnątrz przyrostu rocznego. Skutkuje to tworzeniem słojów trudnych do obserwowania.
Istnieją jednak sytuacje, w których proces tworzenia nowych pierścieni zostaje zakłócony, prowadząc do powstania anomalii przyrostowych. W ekstremalnie złych warunkach (np. w przypadku długotrwałego deficytu wodnego) drzewo nawet przez kilka lat może nie wytwarzać przyrostu lub wytwarzać go jedynie na części obwodu. Zdarza się również, że w rezultacie zmian gęstości drewna wewnątrz słoja wytworzy się podwójny przyrost. Identyfikacja tych anomalii stanowi bardzo ważną kwestię w poprawnej analizie dendrochronologicznej.
Analiza dendrochronologiczna
Rozszyfrowywanie historii zapisanej w słojach zaczyna się od poprawnego pobrania próby. Może mieć ona formę tzw. „plastra”, czyli wyciętego fragmentu o grubości kilku centymetrów, reprezentującego poprzeczny przekrój drzewa lub odwiertów o średnicy 5-20 mm. Czasami wykorzystuje się wysokiej jakości fotografie.
Wykonanie odwiertu nie narusza struktury czy wytrzymałości drzewa i pozostaje prawie niewidoczne, dlatego sprawdza się zarówno u drzew rosnących, jak i w zabytkach ruchomych, na przykład meblach o wartości muzealnej czy ram obrazów. Próbki drewna pobiera się specjalnym wiertłem rurowym (nazywanym też świdrem przyrostowym Presslera), od kory w kierunku rdzenia drzewa, tak aby uchwycić całą zmienność obserwowaną na przekroju poprzecznym. Po wzmocnieniu, odwiert jest szlifowany w celu uczytelnienia sekwencji przyrostów. Aby jak najskuteczniej dotrzeć do rdzenia drzewa, należy uwzględnić jego gatunek, pozycję (na przykład stopień pochylenia) oraz ogólny stan. Ważny jest również rytm powstawania przyrostów, sposób ich odkładania (u drzew iglastych i liściastych proces przebiega inaczej) oraz obecność sęków. Powodzenie analizy uzależnione jest również od stopnia zachowania przyrostu zewnętrznego i liczby wszystkich przyrostów (powinno ich być minimum 50). W przypadku prób z zachowaną kompletną zewnętrzną warstwą drewna wraz z korą (lub przynajmniej miazgą) oszacowanie jej wieku zazwyczaj nie stanowi problemu. Ostatni przyrost (pierścień podkorowy) wyznacza rok ścinki drzewa.
Uwidocznione podczas szlifowania pierścienie są kilkakrotnie zliczane (z dokładnością 0,01 mm), a powstały wykres jest porównywany z wykresami uzyskanymi z zestawu próbek z tej samej lokalizacji. W wyniku powyższych dopasowań powstaje chronologia względna, ustalająca jedynie następstwo czasowe pomiędzy próbami (próby starsze i młodsze), bez podawania konkretnych dat.
Aby umiejscowić próby w jednostkach czasowych (tzw. chronologia bezwzględna), niezbędne jest porównanie odczytanych sekwencji przyrostów z wykresami wzorcowymi specyficznymi gatunkowo. Zazwyczaj porównania dokonuje komputer, który wybiera kilka alternatywnych, najbardziej prawdopodobnych przedziałów z wykresu wzorcowego. Jednak to naukowiec musi zdecydować, który z tych przedziałów jest właściwym. Uznaje się, że dla poprawnego oznaczenia czasu pokrycie próby z chronologią wzorcową musi wynosić minimum 50 lat.
Wykresy wzorcowe są wynikiem synchronizacji zachodzących na siebie wiekowo wykresów drzew współczesnych z drzewami coraz starszymi, pochodzącymi m.in. z budowli i odkrywek archeologicznych (zgodnie z wyżej wspomnianą już zasadą współzależności dendrochronologicznej).
Dopasowanie wielu takich wykresów skutkuje uzyskaniem dla konkretnego gatunku ostatecznego, ciągłego kalendarium zmian w sekwencji przyrostów od chwili obecnej do czasów prehistorycznych (tzw. chronologia wzorcowa, ciągła).
Chronologie ciągłe mają jednak ograniczony geograficzny zasięg stosowania i pozwalają na szacowanie wieku drzewa jedynie z obszaru spójnego klimatycznie. Dlatego właśnie w dendrochronologii wiek próby jest albo określony bezwzględnie, albo nie jest określany wcale. Próba bez możliwości oszacowania wieku zostaje odłożona do archiwum w oczekiwaniu na kolejne chronologie wzorcowe, które kiedyś pozwolą na jej rozszyfrowanie.
Chronologie wzorcowe
W całej Europie przez wieki drzewem najczęściej używanym w budownictwie był dąb. Gatunek ten charakteryzuje się dużymi i wyraźnymi przyrostami rocznymi, a w wodzie lub wilgotnym środowisku nabiera czarnej barwy (takie formy określane są mianem „czarnych dębów”). Na obszarze Niżu Europejskiego (czyli również Polski) stwierdzono u tych drzew występowanie silnego sygnału klimatycznego(współzależności dendrochronologicznej) w kierunku równoleżnikowym, zgodnie z ukształtowaniem terenu. Umożliwia to porównanie krzywych dendrochronologicznych uzyskanych z analizy polskich dębów z krzywymi wzorcowymi dębów niemieckich, jak to miało miejsce w przypadku datowania próbek drewna z osady w Biskupinie.
Jak wspomniano, warunkiem bezwzględnego określenia wieku drewna jest posiadanie dla niego chronologii ciągłej. Opracowane chronologie są dostępne między innymi na stronie Amerykańskiej Narodowej Służby Oceanicznej i Meteorologicznej (NOAA). Wyniki wieloletnich badań są imponujące. Szwajcarskie i niemieckie skale skonstruowane dla dębu obejmują okres prawie 6 tysięcy lat!
W Polsce pierwszą ciągłą chronologię dla dębu wykonał Tomasz Ważny. Dotyczy ona Pomorza Gdańskiego i obejmuje okres od 996 do 1985 roku. Następnie skonstruowano chronologie dla dębu z Pomorza Szczecińskiego (obejmującą lata 578-1393 oraz 1554-1994), Mazowsza (obejmującą lata 593-965) i Biskupina (obejmującą lata 887-772 p.n.e.).
Włączenie do analiz subfosylnych pni czarnych dębów pochodzących z osadów rzecznych Nysy Kłodzkiej, Odry, Skawy, Wisły, Wisłoki i Sanu rozszerzyło rekonstrukcję chronologii aż do 474 roku p.n.e. (chronologia obejmuje lata 474 p.n.e.-1529). Datowanie było możliwe dzięki korelacji z chronologią z Pomorza Wschodniego oraz skalą południowo-niemiecką.
Wśród drzew iglastych na uwagę zasługuje jodła pospolita, która charakteryzuje się wyjątkowo silnym sygnałem dendrochronologicznym i szerokim zasięgiem geograficznym. Chronologia ciągła tego gatunku w Polsce obejmuje południowe obszary kraju i lata 1106 – 1998. Z kolei inny gatunek drzewa iglastego, sosna zwyczajna, wykazuje dużą zmienność osobniczą, a zdolność do występowania w różnych środowiskach doprowadziła do powstania na obszarach Niżu Europejskiego licznych form i odmian. Pomimo tych trudności, skonstruowano dla tego gatunku chronologię ciągłą z obszarów Małopolski (obejmującą lata 1091-2006) oraz Kujaw i Pomorza Gdańskiego (obejmującą lata 1106-1991).
Co można wyczytać z drewna?
Dendrochronologia jest niezastąpioną metodą szacowania wieku zabytków. W przypadku budowli datowane są jej elementy konstrukcyjne, z możliwością określenia poszczególnych faz jej powstawania. Zakłada się, że podczas prac budowlanych wykorzystywano drewno w roku jego pozyskania, bez uprzedniego suszenia. Aby określić wiek zabytków ruchomych, do analiz wykorzystuje się próby drewna pobrane na przykład z ram, mebli, elementów ołtarzy czy ikon.
Informacja niesiona przez ciąg przyrostów rocznych jest jednak znacznie szersza niż wiek drzewa i pozwala na rekonstrukcję panujących w przeszłości warunków klimatycznych i zasięgów lodowca, występowania na analizowanych obszarach leśnych powodzi, pożarów, gradacji chrząszczy, przebieg dawnych koryt rzecznych czy ruch lawin/ wydm. Co więcej, dzięki wysokiej precyzji datowań wykonanych metodami dendrochronologicznymi, mogą być one wykorzystywane jako narzędzie do kalibracji i ulepszania datowania wykonanego metodą radiowęglową (opartą na pomiarze proporcji między izotopem promieniotwórczym węgla 14C a izotopami trwałymi 12C i 13C). Pojawia się zatem pytanie: świadkami jakich zdarzeń były polskie drzewa?
Odkrycie osady w Biskupinie niewątpliwie stanowiło sensację. Bardzo długo sądzono, że powstawała ona na przestrzeni wielu pokoleń, ale dopiero analizy dendrochronologiczne rozwiały wszelkie wątpliwości. Pobrane z różnych elementów konstrukcyjnych próbki drewna wysłano do Szwecji, gdzie wykazano, że różnica między najmłodszym a najstarszym drewnem użytym podczas budowy (czyli de facto czas wznoszenia osady) wynosiła 25 lat. Wykorzystywano głównie drewno ze ścinek zimowych.
Do oszacowania precyzyjnego wieku Biskupina zastosowano informacje o warunkach klimatycznych panujących w analizowanym okresie na obszarze sąsiednich Niemiec. Czas powstania obiektu określono na 722-747 p.n.e., czyli o 200-250 lat wcześniej niż sądzono.
Analizie dendrochronologicznej poddano również zespół grodowy w Gnieźnie. Ujawniła ona, że część grodu uznawana za jego główny człon w rzeczywistości była młodsza i rekonstrukcja wczesnośredniowiecznej fortyfikacji pierwszej stolicy państwa polskiego wymagała korekty. Podobne wyniki uzyskano w przypadku analizy prób drewna z pomostu oraz konstrukcji wałów grodu w Płońsku. Ich datowanie udowodniło, że w Płońsku już w połowie IX w. istniała stabilna i dobrze rozwinięta osada, co przeczyło teorii, że Mazowsze było zapóźnione w porównaniu z ziemią gnieźnieńską.
Naukowcy wnikliwie przebadali także drewno pochodzące z grodu na Ostrowie Lednickim, największej z pięciu wysp na jeziorze Lednica, będąca prawdopodobne miejscem Chrztu Polski. Wyspa była połączona z lądem dwoma mostami: zachodnim (poznańskim) i wschodnim (gnieźnieńskim). Pobrane próby z drewnianych elementów przyczółka oraz pali mostu gnieźnieńskiego z dna jeziora wykazały, że zbudowano go zimą 963/4 roku. Most budowany był przez 70 lat (lata 961-1032) w kilku fazach konstrukcyjnych. Stwierdzono również trzy jego przebudowy lub duże naprawy (w latach 980/81, 1015 i 1032/33), a także kilka mniejszych napraw (w latach 973, 1000 i 1022).
W przypadku cerkwi w Uluczu, uznawanej za jedną z dwóch najstarszych w Polsce cerkwi szesnastowiecznych, analizy wykazały, że w rzeczywistości jest ona młodsza niż sądzono. Wiek wszystkich odwiertów, pobranych z belek zrębowych ścian budowli określono na 1658 rok. Sugeruje to, że cerkiew najprawdopodobniej została wybudowana na miejscu starej, która uległa zniszczeniu w pożarze.
Kolejnym ciekawym przykładem jest określenie wieku łodzi znalezionej wśród pozostałości średniowiecznej zabudowy na terenie Starego Miasta w Kołobrzegu. Łódź o długości 7 metrów i szerokości 1,2 metra charakteryzowała konstrukcja mieszana, dłubankowo-klepkowa. Próby pobrano z różnych jej części, wykazując, że często była naprawiana i zapewne była wykorzystywana do transportu towarów przez około 20 lat. Części kadłuba wydatowano na 1325 rok, natomiast klepki m.in. na 1311 i 1315 rok.
Podsumowanie
W niniejszym artykule przedstawiono tylko kilka przykładów na to, jak metody dendrochronologiczne pozwoliły precyzyjnie oszacować wiek niektórych budowli i tym samym skorygować powszechnie uznawane dogmaty historyczne. Zachęconych tym tematem czytelników odsyłam zatem do licznych książek i artykułów naukowych, opisujących kolejne spektakularne odkrycia. Okazuje się bowiem, że niewielki i niepozorny kawałek drewna wyłowiony z morza skrywać w sobie może nieznane historie na przykład o podbojach i wędrówkach Wikingów. Opracowane do tej pory chronologie ciągłe pozwalają na określanie wieku drewna dębowego pochodzącego z ostatnich 2 tysięcy lat oraz drewna sosnowego i jodłowego z ostatniego tysiąclecia. W dendrochronologii tkwi zatem olbrzymi potencjał badawczy i z jej pomocą naukowcy na pewno rozwiążą jeszcze niejedną zagadkę.
Joanna Stojak
Instytut Biologii Ssaków PAN w Białowieży
Literatura dodatkowa:
Schweingruber F.H. 1988. Tree rings. Basics and applications of dendrochronology. Berlin Wydawnictwo Springer.
Strona internetowa Amerykańskiej Narodowej Służby Oceanicznej i Meteorologicznej (NOAA):
https://www.ncdc.noaa.gov/data-access/paleoclimatology-data/datasets/tree-ring