Filozofia (el)
- Autor: Anna Leszkowska
- Odsłon: 3
Eugenika to zbiór przekonań naukowych i filozoficznych, których celem jest płodzenie lepszych ludzi. Tak jak rolnik doskonali trzodę przez selektywny chów i ubój, tak eugenika podejście rodem z farmy wprowadziła do sypialni.
Eugenika miała wielu ojców. Sir Francis Galton, statystyk, wynalazca i kuzyn Charlesa Darwina, ukuł to określenie w 1883 roku i dostarczył nowego języka do dyskusji nad kwestią, która tliła się od dawna, najpierw w Anglii, a potem w Ameryce: skąd się bierze taka wyraźna różnica między klasą wyższą a niższą? Galton przekonywał, że pierwiastek geniuszu to najprawdopodobniej cecha rodzinna, przekazywana z pokolenia na pokolenie. Jak na przedstawiciela arystokracji nie była to teza przełomowa. Galtona jednak wyróżniało stwierdzenie, że ów geniusz da się zmierzyć i prześledzić z naukową precyzją.
Potem, na przełomie wieków, świat nauki odkrył na nowo dorobek dziewiętnastowiecznego zakonnika Gregora Mendla. Reguły, które dzisiaj nazywamy prawami Mendla, zakładały przewidywalność dziedziczenia cech rodziców przez potomstwo. Za sprawą prac późniejszych naukowców właściwości przez Mendla nazywane „czynnikami” zmieniły się w „geny”, a akolici Galtona zdołali rozciągnąć jego pierwotne teorie na obszary, do których geniusz Galtona pierwotnie nie sięgał, również jeśli chodzi o funkcjonowanie w praktyce głoszonych przez niego idei na temat rodziny i rodowodu.
Prawa Mendla pozwoliły rosnącym zastępom naukowców, zwłaszcza biologów i agronomów – tym, którzy hodują – głosić pogląd, że to nie środowisko, a wady genetyczne są główną przyczyną niepożądanych efektów na płaszczyźnie osobniczej i społecznej. Do najbardziej wpływowych przedstawicieli tego grona należał Charles Davenport, biolog wykształcony na Harvardzie.
W 1904 roku został dyrektorem laboratorium w Cold Spring Harbor w stanie Nowy Jork, należącego do Instytutu Carnegiego. Laboratorium powstało, żeby badać cechy dziedziczne u roślin i zwierząt, ale Davenport prędko przestawił się na dziedziczność u ludzi. Początkowo za pomocą genetyki mendlowskiej analizował cechy widoczne, takie jak kolor oczu i skóry, wkrótce jednak razem z żoną Gertrude znalazł dużo subiektywniejszą sferę badań: dziedziczenie temperamentu, uzdolnień muzycznych, predyspozycji sportowych i „osobliwości umysłowych”.
Dokonania pierwszych eugeników cechuje atmosfera rywalizacji: każdy próbował przebić pozostałych znalezieniem najbardziej „obłąkanej” rodziny, na której mógłby testować swoje teorie. Ich prace to często po prostu mocno fabularyzowane światy zaludnione, cytując Davenporta, przez „nierządne alkoholiczki”, „rozwiązłe kobiety” i „pozbawionych ambicji, rozpasanych mężczyzn”. Siebie natomiast eugenicy postrzegali jako konie wyścigowe, pracowite zwierzęta u szczytu sprawności, mające spłodzić kolejne pokolenie społecznych zwycięzców.
W książce White Trash. The 400-Year Untold Story of Class in America [Biała hołota. 400 lat przemilczanej historii klasy w Ameryce] historyczka Nancy Isenberg pisze:
„Eugenicy niczym mantrę powtarzali porównanie dobrego ludzkiego nasienia do koni czystej krwi, przypisywali osobom dobrze urodzonym nieprzeciętne zdolności i odziedziczoną sprawność”.
Dziś język tak zwanej teorii konia wyścigowego odbija się w niektórych elementach samooceny Donalda Trumpa. „Miałem dobre geny, więc byłem bardzo ambitny” – mówi Trump w zestawieniu swoich najlepszych wypowiedzi o „dobrych genach” umieszczonym na stronie magazynu „Time”.
W 1910 roku Davenport z kolegami założyli Eugenics Record Office (Biuro Dokumentacji Eugenicznej), stanowiące przedłużenie działalności laboratorium w Cold Spring Harbor. Wszystkie ich przedsięwzięcia finansowały rodziny magnatów, takich jak Rockefellerowie, Carnegie, Kellogowie czy Harrimanowie, uważające, że ich majątek powinien służyć rozwiązywaniu problemów społecznych, zamiast po prostu wracać do obiegu w ramach akcji charytatywnych (lub w formie godziwych wynagrodzeń dla pracowników ich firm).
Rok później Davenport opublikował książkę Heredity in Relation to Eugenics [Dziedziczność w odniesieniu do eugeniki], w której pisał: „Człowiek jest organizmem – zwierzęciem; i prawa, które rządzą poprawą jakości kukurydzy czy koni wyścigowych, stosują się również do niego. Jeśli nie przyjmie się tej prostej prawdy i nie uwzględni jej przy dokonywaniu wyborów matrymonialnych, ludzki postęp ustanie”.
Chcąc, aby jego dokonania trafiały zarówno do społeczności naukowej i jego bogatych sponsorów, jak i do amerykańskiego społeczeństwa, Davenport przedstawiał eugenikę jako naukę partycypacyjną, otwartą na „tysiące inteligentnych Amerykanów kochających prawdę”, jak pisał w Heredity in Relation to Eugenics.
Partycypacja zwyczajnych Amerykanów mogła polegać na wypełnianiu kwestionariuszy genetycznych, które Biuro Dokumentacji Eugenicznej rozsyłało w celu gromadzenia danych z całego kraju. Obywatele mogli też wspierać władze w wysiłkach na rzecz powstrzymania rozpłodu „ułomnych i przestępców”.
„W ruchu eugenicznym może uczestniczyć każdy” – zapewniał Davenport, a Biuro Dokumentacji Eugenicznej działało zgodnie z tą myślą jako ośrodek nerwowy krajowego ruchu aż do likwidacji w 1939 roku.
Eugenika miała warianty pozytywne i negatywne. Chodzi tu nie o kryteria moralne, ale pragmatyczne. Eugenika pozytywna obejmowała strategie popularyzacji rozmnażania wewnątrz grona, które zwolennicy tej filozofii uważali za przedstawicieli dobrych genów. Organizowano między innymi konkursy ludzkiego inwentarza nazywane „zawodami lepszych dzieci” i zachęcano rodziców, aby przywozili swoje maluchy na stanowe festyny, gdzie oceniano je zgodnie z nowo opracowanymi standardami rozwojowymi.
Eugenika pozytywna przyjmowała również subtelniejsze formy. Na przykład w czasach Nowego Ładu rząd zatrudniał eugeników w agencjach, które oceniały kandydatów do nowych form pomocy społecznej, takiej jak subwencje mieszkaniowe. Rodziny lepiej przystosowane częściej otrzymywały państwowe przywileje.
Z kolei eugenika negatywna opisywała strategie ograniczania rozrodczości. Preferowano sterylizację, ale zanim ją zalegalizowano, eugenicy stosowali w tym celu również długotrwałe, nadzorowane przez władze stanu odosobnienie „nieprzystosowanych” kobiet na okres wieku rozrodczego. Z czasem jednak koszty długotrwałej izolacji przyczyniły się do poparcia sterylizacji.
Inną regularnie stosowaną formą eugeniki negatywnej były ograniczenia imigracyjne. W 1920 roku Biuro Dokumentacji Eugenicznej wystąpiło do Kongresu o zatamowanie imigracji, żeby chronić narodową pulę genów. Kongres odpowiedział w 1924 roku szeroko zakrojoną reformą prawa imigracyjnego, całkowicie zakazującą imigracji z Azji i wprowadzającą system kwotowy, który w niekorzystnej sytuacji stawiał imigrantów z Europy Południowej i Wschodniej.
Dziś Stany Zjednoczone próbują przywrócić restrykcyjny system imigracyjny pod dyktando prezydenta, który w 2018 roku pytał nadąsany: „Dlaczego przyjeżdża do nas tylu ludzi z tych gównianych krajów?” *.
James Bowman, emerytowany profesor Pritzker School of Medicine z Chicago, uważa, że przydatną kategorią do opisania innych metod, bliższych nam czasowo, może być „eugenika pasywna”. Często przyjmuje ona formę ograniczania zasobów, w przytłaczającym stopniu pogarsza jakość życia osób o niskich dochodach i nieraz jest motywowana rasowo.
W modelu Bowmana przykładami eugeniki pasywnej są między innymi komercyjny system opieki zdrowotnej oraz stałe ograniczanie nakładów na programy na rzecz zdrowia osób ubogich. Jak pisze Bowman: „Przymus pośredni i bezpośredni w zakresie ubezpieczenia zdrowotnego, ubezpieczenia na życie oraz zatrudnienia to niemal pewna droga ku zawoalowanej eugenice”.
Ponieważ filozofia eugeniczna uznawała pierwszeństwo kontroli państwa przed osobistym wyborem, wśród najczęściej stosowanych metod brakowało antykoncepcji czy aborcji. Eugeników przeraziłaby myśl, że ich ambicje doskonalenia ludzkiego gatunku mogłyby zależeć od pragnień i potrzeb poszczególnych kobiet (tak biednych, jak i bogatych). Clarence Thomas **, który dziś porównuje współczesnych zwolenników bezpiecznej aborcji do dawnych eugeników, jest w błędzie. Kluczowe strategie eugeniki negatywnej zawsze polegały, i polegają do dziś, na odgórnej kontroli całych grup ludności.
Elizabeth Catte
* Jak twierdzą świadkowie, Donald Trump miał użyć tych słów podczas spotkania z senatorami poświęconego pomocy imigrantom z Haiti, Salwadoru i państw afrykańskich.
** Clarence Thomas (ur. 1948) – konserwatywny sędzia Sądu Najwyższego, nominowany przez prezydenta George’a H. W. Busha w 1991 roku.
Od Redakcji: powyższy tekst jest fragmentem książki Czysta Ameryka. Przemilczana historia eugeniki Elizabeth Catte wydanej przez Wydawnictwo Czarne, której recenzję zamieściliśmy w numerze listopadowym – SN11/24. Tytuł pochodzi od Redakcji.
- Autor: Wiesław Sztumski
- Odsłon: 2287
Wszystko, co słyszymy, jest mniemaniem, a nie faktem.
Wszystko, co widzimy, jest perspektywą, a nie prawdą.
Marek Aurelius
Świat zmienia się z upływem chwil i zdarzeń następujących po sobie. Jedni sądzą, że chwile i zdarzenia „biegną” bezpowrotnie i niepowtarzalnie wzdłuż jakiejś linii prostej, np. osi czasu. Tak twierdzą zwolennicy koncepcji ewolucji dziejów oraz liniowego modelu czasu, narzuconego przez kulturę monochroniczną.
Dla nich czas i dzieje upływają zawsze w sposób nieodwracalny i tylko w jednym kierunku - od przeszłości ku przyszłości - obojętnie, czy od jakiegoś absolutnego początku do absolutnego końca, czy inaczej.
Inne zdanie mają zwolennicy koncepcji rozwoju dziejów i kołowego modelu czasu, który jest wytworem kultury polichronicznej. Oni pojmują dzieje jak rozwój, tzn. jak szereg zdarzeń wznoszących świat na coraz wyższy poziom (postęp), albo na coraz niższy (regres), na okresy wzlotów oraz spadków, które mogą powtarzać się cyklicznie.
Powtarzalność okresów w dziejach może być rozumiana w taki sposób, że co pewien czas pojawiają się dokładnie takie same, albo podobne stany świata w zależności od tego, czy rozwój odbywa się po okręgu, czy po spirali.
U podstaw takiego pojmowania dziejów leży teoria powrotów. Zgodnie z nią, świat powtarzał się i będzie powtarzać się (odradzać się) wciąż w tej samej postaci nieskończenie wiele razy. Do pewnego stopnia teorię tę potwierdza współczesny model kosmologiczny pulsującego Wszechświata.
Liniowe, kołowe, cykliczne
Zdarzenie, które miało miejsce wcześniej w świecie sensorycznym, albo zachodzi teraz, nazywa się faktem (fakt - z łacińskiego res facti, oznacza rzecz już zrobioną, dokonaną). Słowo „teraz” można rozumieć abstrakcyjnie (geometrycznie) jako trwanie zredukowane do zera - do punktu geometrycznego na osi czasu, czyli jako punktochwilę, albo konkretnie (fizycznie), jako trwanie w pewnym przedziale czasu, nazywanym „aktualnością”. Jej rozmiar, czyli długość trwania czasu teraźniejszego („teraz”), zależy od poziomu struktury świata.
Na poziomie cząstek elementarnych jest ona rzędu attosekund, a na poziomie galaktyk – rzędu miliardów lat.
W mezoświecie (świecie porównywalnym z gabarytami człowieka) aktualność, czy raczej współczesność (to, co współistnieje z danym człowiekiem) może trwać maksymalnie tyle, ile wynosi średni czas życia człowieka, tj. około kilkudziesięciu lat.
Na dzieje świata składają się szeregi faktów - liniowych (jednostronnie lub dwustronnie otwartych, albo zamkniętych), kołowych, lub cyklicznych. Ich ukazywaniem, wyliczaniem i spisem zajmują się dziejopisarze, albo historiografowie. Natomiast ich przedstawianiem, porządkowaniem, opisem, interpretacją i badaniem zajmują się historycy.
Fakty jak izotopy
Prawdopodobnie teoria powrotów stała się punktem wyjścia dla scjentometrysty Samuela Arbesmana (specjalisty z zakresu biologii obliczeniowej, scjentologii i matematyki stosowanej, badacza przyszłości nauki i zmian technologicznych w naszych czasach oraz tego, co one znaczą dla społeczeństwa), który w książce The Half-Life of Facts (Penguin Group, N,Y. 2012) przedstawił hipotezę o występowaniu tzw. połowicznego czasu życia faktów.
Odpowiednio do swej specjalizacji, „fakt” rozumie on w węższym sensie - jako fakt naukowy. (Według Słownika języka polskiego fakt naukowy, to „stwierdzenie konkretnego stanu rzeczy lub zdarzenia w określonym miejscu i czasie”; stwierdzać go można empirycznie lub teoretycznie - w naukach doświadczalnych i teoretycznych).
Fakty naukowe kreuje nauka. Są one efektem pracy odkrywczej i badawczej polegającej na uogólnianiu wielu spostrzeżeń. Odzwierciedlają fakty realne, jakie zachodzą w rzeczywistości sensorycznej, ale nigdy nie pokrywają się z nimi w pełni. Stopień adekwatności faktów naukowych z realnymi zależy od tego, jak dalece nauka jest w stanie odzwierciedlać świat sensoryczny.
O ile fakty realne są niepodważalne i nigdy nie zmieniają się, to fakty naukowe mogą się zmieniać proporcjonalnie do postępu naukowego i podlegają procedurze falsyfikacji. Arbesman rozumie fakt naukowy jako okruch wiedzy, który posiada jednostka, albo społeczeństwo w określonym miejscu i czasie, jako „kwant wiedzy”, który dostarczany jest przez naukowców i nabywany przez innych ludzi w procesie edukacji. Wychodzi on z trywialnego stwierdzenia, że fakty naukowe nie są wieczne, lecz cały czas zmieniają się. Jedne z nich są bardziej długotrwałe, inne mniej, zależnie od poziomu rozwoju danej subdziedziny nauki.
To, co dziś wiemy o świecie na postawie nauki i uznajemy za niepodważalne, jutro może okazać się już nieaktualne i fałszywe. Wylicza on wiele przykładów, głównie z dziedzin mu najbliższych - medycyny i biologii - na to, jak nawet w ciągu jednego pokolenia pewne fakty naukowe „wychodzą z obiegu” w wyniku falsyfikacji, a stare fakty zastępowane są przez nowe.
Dlatego tak się dzieje, ponieważ w nauce nie ma prawd absolutnych, a postęp naukowy zbliża się tylko asymptotycznie do osiągania takich prawd. Mimo to, w większości przypadków, dziedziny wiedzy ewoluują w sposób systematyczny i przewidywalny.
Arbesman twierdzi, że falsyfikacja znanych faktów naukowych dokonuje się w pewnej mierze cyklicznie. Udało mu się obliczyć tzw. czas półtrwania, albo czas połowicznego zaniku (the half-life) faktów naukowych występujących w obrębie poszczególnych obszarów nauk. Określa go analogicznie do czasu połowicznego rozpadu materiałów radioaktywnych. Okazuje się bowiem, że fakty, rozpatrywane w dużych obszarach wiedzy, a więc zgromadzone w dużych zbiorach, są przewidywalne i mają właściwy sobie czas połowicznego zaniku, po którym dana wiedza staje się w połowie nieprawdziwa i zanika - zostaje obalona.
Efekty scjentometrii
Scjentometria - nauka, która bada tempo, w jakim tworzymy, rozwijamy i rozprzestrzeniamy nowe fakty i nowe technologie - pozwala w miarę dokładnie wyznaczyć ten czas na podstawie podobieństwa rozwoju wiedzy do zjawiska radioaktywności.
Rozpad pojedynczego atomu uranu jest wysoce nieprzewidywalny. Nie wiadomo, czy rozpadnie się po upływie jednej sekundy czy po tysiącach lub milionach lat. Natomiast da się przewidzieć, kiedy nastąpi rozpad kawałka uranu, który składa się z trylionów jego atomów. Bowiem w zbiorze ogromnej liczby elementów występuje jakaś regularność, na podstawie której da się przewidywać zachowanie tego zbioru (jako całości) z prawdopodobieństwem wynikającym z prawa wielkich liczb.
To, co jest nieprzewidywalne dla pojedynczego elementu, staje się przewidywalne dla całego ich zbioru.
Czasy połowicznego zaniku faktów wynoszą: dla fizyki – 15 lat, ekonomii – 10 lat, medycyny – 5 lat, oprogramowania – 3,5 lat, astrofizyki – 2,5 lat i biologii morza – 2 lata.
Ciekawe jest to, że w ewolucji wiedzy zarówno jej przyrost, jak i zanik są procesami wykładniczymi; przyrost wiedzy dokonuje się w postępie 2ⁿ, a jej zanik - w postępie (1/2)ⁿ.
Fakty naukowe dzielą się na takie, które bardzo szybko zmieniają się (jak np. na giełdzie lub w pogodzie) oraz takie, których tempo zmian jest tak powolne, że ich zmiany są dla nas niezauważalne (jak np. liczba kontynentów na Ziemi, albo liczba palców na ludzkiej dłoni). A pomiędzy nimi znajdują się tzw. mezofakty, które zmieniają się w ciągu życia jednego człowieka. (Jak pisze Arbesman, „moja babcia, która obchodzi swoje 76. urodziny, nauczyła się w szkole, że na Ziemi żyło wtedy nieco ponad 2 miliardy ludzi i było sto pierwiastków w układzie okresowym, a obecnie liczba ludzi przekroczyła 7 miliardów i znamy 118 pierwiastków”). I to właśnie mezofakty mają największe znaczenie dla przewidywania rozwoju wiedzy i przygotowania się zawczasu do jej dezaktualizacji w ciągu naszego życia.
Prognozowanie ciągle sztuką
Gdyby hipotezę Arbesmana o połowicznym zaniku faktów można było rozciągnąć na dzieje ludzkości, co raczej z różnych względów, głównie metodologicznych, jest nieuzasadnione, to dałoby się je przewidywać. Większość ludzi, którzy chcą poznawać przyszłość, wiedzieć co ich czeka i zawczasu przygotować się do tego, cieszyłaby się. Nie musieliby uciekać się do zawodnej wiedzy jasnowidzów, wróżbitów i innych przewidywaczy, ani do przypowieści zawartych w świętych księgach. Korzystaliby z prognoz naukowo uzasadnionych, a więc powszechnie uważanych za bezsporne. Chociaż, z drugiej strony, nie wiadomo, czy - wbrew pozorom - nie wywołałoby to masowych skutków negatywnych w postaci stresów, paniki i nierozsądnych zachowań.
Poszukiwanie przez scjentometrystów jakiegoś modelu matematycznego czy fizykalnego, na podstawie którego można by określać czasy połowicznego zaniku faktów nie tylko naukowych i historycznych, ale również realnych, dziejowych, przypomina poszukiwanie przez fizyków jakiejś Weltformel (ogólnej reguły czy prawidłowości świata wyrażonej w postaci wzoru matematycznego). Jest ona równie absurdalna, jak słynny „demon Laplace’a”, o którym można sobie pomyśleć, ale którego nie sposób zmaterializować.
W potocznej świadomości funkcjonuje wywodzące się z obserwacji lub doświadczenia wielu pokoleń powiedzenie „historia kołem się toczy”. Ale jest ono nieprecyzyjne: czy chodzi o historię, czy o dzieje, czy „kołem” oznacza zataczać kręgi i powtarzać się po każdym pełnym obiegu, czy poruszać się po spirali, a więc bez możliwości powrotów i powtórzeń. Kwestia powtarzalności faktów dziejowych i powrotów okresów historycznych jest mocno problematyczna.
W świecie sensorycznym - a dzieje ludzkości mieszczą się w tym właśnie świecie, a nie w świecie wyobrażanym sobie przez ludzi aniodzwierciedlanym przez naukowców - realne procesy są zawsze nieodwracalne, jak w fizyce. Przynajmniej dotychczas nie potwierdzono istnienia tam procesów odwracalnych. W związku z tym, prognozowanie dziejów, zwłaszcza w wymiarze globalnym, a nie lokalnym, w odległych horyzontach czasu, a nie w bliskiej perspektywie, nadal pozostanie sprawą mocno skomplikowaną i niezmiernie trudną, mimo szybko postępujących osiągnięć scjentometrii i przedsięwzięć prognostyków.
Wiesław Sztumski
- Autor: Wiesław Sztumski
- Odsłon: 3781
Współczesne nauki humanistyczne coraz bardziej nie przystają do modelu scjentystycznego z różnych powodów. Przede wszystkim, dyscypliny humanistyczne i społeczne, których nie daje się zmatematyzować, gdyż „W każdej nauce jest tyle prawdy, ile w niej matematyki” (Kant) stają się bardziej miękkie i elastyczniejsze, a przez to podatne na wprowadzanie elementów nieprawdy i fałszerstwa. Dotyczy to zwłaszcza historii, która jest nauką o dziejach, ich naukowym opisem.
Przez dzieje rozumiem sekwencję czasową faktów, a faktem jest realne wydarzenie prawdziwe, tzn. takie, które rzeczywiście ma lub miało miejsce w świecie zmysłowym, co zostało potwierdzone za pomocą metod naukowych. Dla historyka fakt jest tym samym, co na przykład zjawisko fizyczne dla fizyka.
Fakt różni się od jego opisu tak, jak życie (dzieje) człowieka od jego życiorysu (biografii): życiorys ma się jeden, biografii można mieć wiele. Fakty można postrzegać w optyce różnych stereotypów poznawczych, przeżywać na różne sposoby i różnie ustosunkowywać się do nich i w zależności od tego różnie opisywać.
O zaistniałych faktach można nie wiedzieć, albo świadomie je skrywać, ale nie da się ich zmienić, ani wymazać z dziejów, co najwyżej z pamięci. Dziejów nie da się sfałszować, ponieważ fakty pozostają zawsze faktami, niezależnie od tego, czy się podobają i co się o nich sądzi. Inaczej ma się rzecz z historią. Tutaj istnieje możliwość żonglowania faktami – można je dowolnie porządkować zestawiać, interpretować, oceniać, uznawać za korzystne lub niewygodne, przedstawiać w fałszywym świetle oraz zamieniać je na domniemania lub zmyślenia. I tak, niestety, często się robi.
Z tej racji historia, głównie najnowsza, jest chyba najmniej wiarygodną nauką i najbardziej podatną na prostytuowanie się. (O postępującej prostytucji nauki w wyniku jej komodyfikacji pisałem kilka lat temu w wywiadzie Nauka się prostytuuje („Przekrój” Nr 31.7. 2008), Dewaluacja nauki, („Przekrój“, 13.11.2008) oraz Sprzedajna nauka („Sprawy Nauki”, Nr 3, 2010), a o zaniku naukowości w nauce - w artykule Ile nauki w nauce („Sprawy Nauki” Nr 10, 2008).
Napisałem tam: „Tyle jest jeszcze nauki w „nauce”, ile jest w niej prawdy pojmowanej w sensie arystotelesowskim, a stopień naukowości nauki wyznacza stosunek półprawd i kłamstw do prawd zawartych w niej. Postępujące upragmatycznienie i utowarowienie nauki pozbawia ją cnoty obiektywizmu i prawdy, a z naukowców czyni pariasów lub marionetki w rękach wszechwładnych elit finansowych i politycznych”.
Nadal jest to aktualne, a praktyka ostatnich lat coraz bardziej potwierdza tę wypowiedź).
Historycy i artyści
Zawsze historia była pisana z dużą domieszką subiektywizmu. Dlatego nie odzwierciedlała dziejów obiektywnie ani adekwatnie. Podobnie ma się rzecz z opisami literackimi i artystycznymi – z wyjątkiem naturalistycznych. Im bardziej twórca jest zaangażowany w politykę, albo światopogląd, im bujniejszą, albo chorą ma wyobraźnię, tym bardziej zdeformowane (surrealistyczne) tworzy opisy.
Historycy, oprócz faktografów, archiwistów i może jeszcze niektórych kronikarzy, też są twórcami kreującymi historię na swoją modłę. Niektórzy czynią z niej instrument manipulacji społecznej i urabiania opinii publicznej albo ze względów ambicjonalnych, albo - coraz częściej - kierując się względami wyrachowanymi: merkantylnymi, serwilistycznymi lub karierowiczowskimi. „Najnowsza historia polityczna (datująca się od około stu lat) wydaje się być grą wytrawnych graczy politycznych („wybitnych" i jednostek „godnych kultu", albo stosunkowo małych grup, którym one przewodzą) w ich interesie przy mniej lub bardziej zaangażowanym udziale wielu milionów statystów” (W. Sztumski, Kto kształtuje historię?, w: „Sprawy Nauki”, Nr 1, 2011).
Zwykle historia zawiera elementy nieprawdy, ponieważ dziejopisarze, historycy, literaci, artyści i politycy, a nawet naoczni świadkowie przedstawiają fakty w sposób zniekształcony - albo wskutek zaburzeń pamięci, albo intencjonalnie dla różnych celów, zazwyczaj niegodziwych. Historię fałszowano u nas zawsze. W zależności od tego, kto rządził, gloryfikowano jednych i czyniono z nich bohaterów, albo poniżano innych i czyniono z nich zdrajców, przyczyn zwycięstw nie ukazywano w kontekście realnych uwarunkowań dziejowych, tylko w mniemanych cudach, itd.
Artyści, kompozytorzy i literaci w ramach licentia poetica mają prawo do prezentacji dziejów (kreowania historii) w swoich książkach, epopejach, sztukach teatralnych, utworach muzycznych i filmach (z wyjątkiem dzieł dokumentalnych) i do ich interpretacji na swój sposób, w miarę obiektywnie, wiarygodnie i prawdziwie lub subiektywnie, nieprawdopodobnie i fałszywie.
Jednak kiedy np. reżyser filmu oświadcza w środkach masowego przekazu, które wywierają ogromny wpływ na świadomość historyczną narodu (głównie młodocianych), że jego film jest wprawdzie fabularny, ale historyczny, bo - jak twierdzi - oparty na faktach (a powszechnie wiadomo, że wydarzenia przedstawione w tym filmie są na razie tylko produktem bujnej czy patologicznej wyobraźni lub domysłów wymagających weryfikacji), to albo jest ignorantem, bo nie wie, co znaczy słowo „fakt” (wg Słownika Języka Polskiego „fakt to «to, co zaszło, lub zachodzi w rzeczywistości») i nie umie odróżnić faktów od mitów, albo hipokrytą, celowo okłamującym widzów i publiczność. Co innego, gdyby powiedział, że jego film oparty został na „faktach medialnych”, czyli informacjach rozpowszechnianych w mediach, niezgodnych z prawdą, ale mających wpływ na opinię publiczną.
Narzędzie polityków
Ale, co tam jakiś reżyser! Nie tylko on plecie bzdury. Gorzej, gdy tak wypowiadają się przedstawiciele elit politycznych i to nie z głupoty, (chociaż tak też bywa), ale gdy intencjonalnie i perfidnie oszukują społeczeństwo. Demonstracyjną obecność najwyższych władz państwowych dostojników itp. na nie najwyższej rangi artystycznej filmie kręconym rzekomo na podstawie faktów o Smoleńsku można oceniać jako apoteozę kiczu i bajania oraz jako wykorzystywanie swojego prestiżu wynikającego ze sprawowania wysokich urzędów do celów propagandy politycznej i masowego ogłupiania społeczeństwa w kwestii historii.
Nadgorliwi dyrektorzy szkół i nauczyciele z pobudek ideologicznych, albo chcący na wszelki wypadek przypodobać się „władcom”, organizują klasowe wyjścia na ten film, rzekomo nie przymusowe. (Ale, jeśli uczeń ma do wyboru być na lekcjach, albo w kinie, to jest wysoce prawdopodobne, że wybierze tę drugą opcję).
W ten sposób, zamiast rozwijać mądrość i krzewić wiedzę prawdziwą, ogłupiają uczniów. Twórcy, którzy prezentują fałszywą historię na użytek propagandy i władzy politycznej, korzystają z relatywizmu etycznego (brak ostrej granicy między prawdą a fałszem) i z kultury antywartości (wartość „prawda” zastąpiona jest przez antywartość „fałsz”). Chcą, aby społeczeństwo uznało to, co mieści się tylko w sferze hipotetycznej (domysłów, przypuszczeń lub insynuacji) za niezbite wydarzenia, mieszczące się w sferze faktualnej. Nie zdają sobie sprawy z tego, że jeśli te domysły nie zostaną zweryfikowane, co jest wysoce prawdopodobne, to osiągną cel inny od zamierzonego – dzięki nim władza straci kredyt zaufania społecznego.
Propagandzie zakłamanych historii służy również tzw. narodowe czytanie książek z udziałem (czy pod dyktando) głowy państwa. Z pozoru to dobra inicjatywa. Niech wreszcie naród czyta książki polskich autorów, niech poszerza wiedzę o kulturze narodowej, niech dzięki temu czytelnictwo dorówna chociażby temu poziomowi, jaki był w czasach tzw. komunizmu, kiedy rzekomo wszystko było złe. Ale dlaczego – chyba nie przypadkowo - wybrano akurat Quo vadis H. Sienkiewicza?
Nie jest to powieść historyczna, gdyż nie respektuje prawdy historycznej. Zawiera zmyśloną historię o podpaleniu Rzymu przez Nerona, którego Sienkiewicz przedstawił tendencyjnie i karykaturalnie jako najgorszego cesarza Rzymu, debila i mordercę „niewinnych” (a faktycznie spiskujących) chrześcijan, oraz przejaskrawiony do rangi horroru opis prześladowania pierwszych chrześcijan przez Nerona. W tych czasach krzyżowanie, kamienowanie i palenie było naturalnym i powszechnym sposobem karania.
Nota bene, chrześcijanie wówczas nie byli tak licznie i okrutnie torturowani jak innowiercy, krytycy kościoła, heretycy, czarownice albo „nawiedzeni przez szatana” w czasach chrześcijańskiej „miłosiernej” Inkwizycji. Za Nerona zginęło około 1400 chrześcijan, a w okresie Inkwizycji co najmniej kilkanaście tysięcy osób (jest to liczba, do której przyznaje się kościół; prawdziwej nikt nie zna z braku wiarygodnych źródeł), przeważnie chrześcijan.
Wiedzę o Neronie zaczerpnął Sienkiewicz od historyków rzymskich (Tacyta i Swetoniusza), wrogich Neronowi, a więc fałszujących historię, oraz chrześcijańskich, wyżywających się na Neronie za prześladowanie, tzn. ze źródeł nieobiektywnych, bo one najlepiej odpowiadały ideologii autora Quo vadis.
A fakty były zgoła inne. „O ile sam pożar jest faktem historycznym, o tyle domniemanie, że to Neron był tym, który kazał podpalić Rzym jest oczywiście zwykłą fantazją. Dla współczesnych historyków jest rzeczą oczywistą, że Neron Rzymu nie podpalił. Swetoniusz przedstawił fałszywy obraz rzymskiego władcy. Neron był osobą niezwykle wrażliwą, wielkim mecenasem sztuki, człowiekiem, którego życie potoczyłoby się zupełnie inaczej, gdyby tylko mógł zrealizować swe prawdziwe marzenie” (Jerzy Ciechanowicz, Rzym – ludzie i budowle, PIW, Warszawa 1987).
„W tych czasach pożary w Rzymie zdarzały się często. Tacyt twierdzi, że w tym czasie Neron przebywał nie w Rzymie, a w Anzio. Na wieść o pożarze szybko wrócił do Rzymu celem organizacji pomocy humanitarnej, na którą wyłożył pieniądze z własnych funduszy. Zaraz po pożarze cesarz otworzył swój pałac dla pogorzelców oraz zapewnił dostawy żywności. Po pożarze stworzył też nowy plan rozwoju miasta, w którym zaznaczono, że spalone domy maja być rozebrane, zaś na ich miejsce pobudowane nowe, z cegły, w większej odległości od drogi.
Poza tym Neron zbudował w miejscu pogorzeliska kompleks pałacowy nazwany „Domus Aurea”. Fundusze potrzebne na odbudowę miasta zostały zebrane ze specjalnych danin nałożonych na prowincje rzymskie” (Philipp Vanderberg, Neron, Świat Ksiażki, Warszawa 2001). A Richard Holland (Neron odarty z mitów, Wyd. Amber 2001) obala mit Nerona sadysty, okrutnika i beztalencia, ukształtowany po jego śmierci i rozpowszechniony przez Sienkiewiczowskie Quo vadis?
Przecież w Roku Sienkiewiczowskim można było wybrać inną jego książkę historyczną, lepszą, np. Krzyżaków. Tyle, że w pierwszej autor gloryfikuje chrześcijan, a w drugiej ukazuje ich (Krzyżaków) jako podstępnych i okrutnych morderców, co akurat było faktem.
Można było również wybrać Ogniem i mieczem, ale to byłoby political incorrect wobec naszych wschodnich „przyjaciół” i drażniłoby ich uczucia patriotyczne.
Narodowa katecheza
O co więc chodzi? Nietrudno domyślić się, że z pewnością nie o wątpliwe walory literackie i historyczne. Większość laików literatury uważa Quo vadis za arcydzieło, mniejszość koneserów - za kicz. Dla przykładu cytuję jeden z wielu krytycznych komentarzy anonimowych internautów na ten temat: „Dążąc do wielkich i efektownych „obrazów”, Sienkiewicz wzmacniał je do granic wytrzymałości. Ekspresywność scen ociera się o stylistyczny patos, emocja – o sentymentalizm, sytuacje fabularne o stereotyp. Nierzadko, i nie bez słuszności, stawiano pisarzowi zarzut płytkiej psychologii, uproszczonych formuł światopoglądowych, podporządkowania się niewybrednym gustom czytelniczym”.
Nie chodziło też o wychowanie patriotyczne (temu lepiej służą Krzyżacy lub Ogniem i mieczem). Chodziło o wychowanie religijne w wierze katolickiej i włączenie się w nurt przerażających opowieści kościelnych o współcześnie prześladowanych katolikach w całym świecie - tam, gdzie ich nikt nie zapraszał, nie chce słuchać ich nauk i ma ich dość.
W Epilogu Quo vadis Sienkiewicz ujawnił cel religijny, dla którego napisał swoją książkę – utrwalenie w świadomości czytelników wiecznego panowania kościoła katolickiego nad światem: „I tak minął Nero, jak mija wicher, burza, pożar, wojna lub mór, a bazylika Piotra panuje dotąd z wyżyn watykańskich miastu i światu”.
Tak oto narodowe czytanie okazuje się po prostu zakamuflowaną narodową katechezą i sprzyja bałwanieniu mas. W państwie demokratycznym uznającym wolność wyznania władcy mogą być religijni, wierzyć w co chcą i kierować się nakazami swojej wiary i kapłanów. Mają pełne prawo okazywać swą religijność, ale chyba nie powinni czynić tego ostentacyjnie (bardziej na pokaz), albo publicznie uczestniczyć w pielgrzymkach i innych imprezach kościelnych, a tym bardziej narzucać swojego światopoglądu całemu narodowi. W żadnym cywilizowanym kraju, poza islamskimi państwami wyznaniowymi, przywódcy państwowi - również chrześcijanie - tak się nie zachowują.
Jak tak dalej pójdzie, to wkrótce odbywać się będzie narodowe odmawianie różańca pod przywództwem premiera oraz masowe odmawianie modlitw pod przywództwem ministrów, wojewodów, itp.
Trzeba być wyjątkowym hipokrytą, żeby na przekór faktom świadczącym o służalczości wobec kościoła twierdzić, że nasze państwo nie jest wyznaniowe. Ono takim jest i będzie coraz bardziej. Tylko czekać, kiedy w wyniku uznania wyższości klauzuli sumienia i prawa bożego (zwanego oszukańczo „naturalnym”) nad prawem stanowionym (świeckim) zostaną wprowadzone takie rygory religijne, jak w tzw. Państwie Islamskim.
Wiesław Sztumski
- Autor: Anna Leszkowska
- Odsłon: 1366
Fanatyzm jest najgorszą formą
zniewolenia człowieka.
Kult nauki
Nauka była zawsze ceniona; bardziej w wymiarze aplikacyjnym niż poznawczym. Stała się szczególnie wartościową w czasach scjentyzmu i epokowych odkryć naukowych, nie tylko w naukach przyrodniczych, dokonywanych lawinowo począwszy od przełomu XIX i XX wieku. Wtedy wiedza naukowa podwajała się co dziesięć lat. Towarzyszyły im równie doniosłe wynalazki techniczne, które radykalnie zmieniły styl życia ludzi, ich środowisko oraz warunki bytowe.
Efekty rozwoju nauki i techniki przyczyniły się do szalonego postępu cywilizacyjnego. W drugiej połowie dwudziestego wieku postęp nauki i techniki wprowadził ludzkość w epokę antropocenu – bezpośredniej, coraz większej i skuteczniejszej ingerencji człowieka w świat przyrody i pośredniej - w środowisko społeczne. Nagle człowiek poczuł się po raz pierwszy w historii prawdziwym panem świata. Ludzie oszaleli na punkcie nowych odkryć naukowych i wynalazków technicznych dokonywanych w czasach rewolucji naukowo-technicznej. A koryfeusze nauki i techniki - naukowcy i wynalazcy - cieszyli się podobną niekłamaną estymą, jak idole.
W końcu ukształtował się pozytywny image naukowca i jego stereotyp. Naukę zaczęto postrzegać jako nieskazitelny obszar działań lub uczciwą i bezinteresowną instytucję społeczną, a jej pracowników - jako wzorce moralne. Na podstawie tego stereotypu uwierzono w obiektywizm badań naukowych i prawdziwość tego, co zostało naukowo potwierdzone, oraz w rzetelność opinii wypowiadanych przez ludzi nauki (ekspertów).
Szczególnym zaufaniem darzy się przyrodoznawców, ponieważ przedmiotem ich badań jest świat zmysłowy, a metody badań zapewniają wyniki dające się najlepiej zweryfikować. Mniej ufa się reprezentantom nauk humanistycznych i społecznych, których rezultaty badań, teorie i wypowiedzi nie są wystarczająco pewne, ze względu na duży ładunek subiektywizmu i możliwych przekłamań.
Naukowiec był wzorem człowieka etycznego pod każdym względem i cieszył się ogromnym autorytetem. Bycie naukowcem nobilitowało. Toteż bezgranicznie ufano i wierzono w niepodważalną prawdziwość głoszonych przez nich teorii oraz wyników badań i ich interpretacji. Zresztą, do dziś pracownik naukowy sytuuje się na szczycie rankingu profesji. Był to okres, kiedy uważano za świętą prawdę wszystko, co „naukowo uzasadnione”, albo „naukowe”.
W związku z tym wprowadzono terminy: „naukowy światopogląd”, „naukowy socjalizm”, ”naukowo uzasadnione normy pracy”, naukowy ateizm” itd.. Uczyniono też „naukowymi” szereg umiejętności (kunszt, mistrzostwo) takich, jak na przykład polityka (politologia), medycyna (nauki medyczne), a uczelnie wyższe kształcące specjalistów w dziedzinach sportu, muzyki, aktorstwa itp. nadają tytuły magistrów (równoważne magistrom fizyki, chemii, biologii itp.), chociaż w programach nauczania są tylko dwa przedmioty naukowe: psychologia i historia danego zawodu.
Co stało się z nauką w drugiej połowie XX wieku?
Po II wojnie światowej dawny wizerunek nieskazitelnego naukowca zaczął coraz bardziej zauważalnie zmieniać się na coraz gorszy. Wraz z tym gorzej postrzegano i oceniano naukę – instytucję, której najważniejszymi elementami są naukowcy. Wszak ocena instytucji zależy przede wszystkim od oceny jej pracowników. Dlaczego tak się stało?
Przyczyn obiektywnych upatruję w kontekście społecznym życia naukowców, a subiektywnych - w ich osobowości.
Wśród przyczyn obiektywnych wyróżniam:
1. Wykorzystywanie nauki do produkcji środków służących ludobójstwu oraz broni masowej zagłady.
2. Sprzężenie jej z biznesem, polityką, ideologią i światopoglądem.
3. Komercjalizację jej i finansowanie badań przez lobbystów, którzy domagają się korzystnych dla siebie (sfałszowanych) wyników badań.
4. Wykorzystywanie nauki na użytek propagandy i reklamy.
5. Spowszednienie nauki w wyniku masowej edukacji na poziomie wyższym.
6. Pauperyzację pracowników naukowych.
A wśród przyczyn subiektywnych:
1. Zbyt łatwe uleganie naukowców presji ze strony różnych organizacji, korporacji i grup przestępczych.
2. Zanik troski niektórych pracowników naukowych o zachowanie etosu naukowca wskutek upodlania się w celu zrobienia kariery i zdobycia pieniędzy w krótkim czasie. (W. Sztumski Sprzedajna nauka, „Sprawy Nauki”, 3, 2010)
Mówiąc o kontekście społecznym, mam na myśli całokształt uwarunkowań życia i działalności – politycznych, ideologicznych, ustrojowych, ekonomicznych, kulturowych itp., również w wymiarze międzynarodowym.
Był to okres ogromnych przemian, często o charakterze rewolucyjnym, w sferach ideologii, stosunków międzynarodowych, systemów gospodarczych, technologii, sztuki, światopoglądu, pedagogiki, systemów wartości itp. Przede wszystkim w krajach zachodnich, radykalne zmieniła się rzeczywistość społeczna w wyniku niezwykłego postępu technicznego oraz implementacji nowych ideologii, koncepcji ekonomicznych, politycznych i filozoficznych. A demokratyzacja i liberalizacja pociągały za sobą relatywizację wartości i kryteriów etycznych oraz przebudowę hierarchii wartości. (W. Sztumski, Naukowiec - ideał czy parias? "Sprawy Nauki", 6-7, 2021)
Zmiany te dokonywały się w czasach tzw. zimnej wojny, konfrontacji państw socjalistycznych z kapitalistycznymi, szalonego wyścigu zbrojeń, realnej groźby użycia broni atomowej i zaangażowania nauki przede wszystkim do celów militarnych. Badania naukowe, ich wyniki oraz lokalizacje instytutów badawczych, były objęte tajemnicą wojskową.(1) Rozwinęła się nowa gałąź szpiegostwa – wykradanie metod i wyników badań oraz pozyskiwania naukowców przez obce wywiady. Były to kuszące propozycje, Jedni szpiegowali z przyczyn ideologicznych lub politycznych, inni – z finansowych.
Merkantylizacja nauki
Jednak największym zagrożeniem dla dobrego imienia naukowców i nauki stała się ideologia konsumpcjonizmu, która upowszechniała się w latach sześćdziesiątych ubiegłego wieku i szybko przekształciła się w ideologię dominującą we współczesnym świecie. Za jej sprawą ludzi ogarnęła gorączka bogacenia się i osiągania coraz większych zysków za wszelką cenę, per fas et nefas, ale częściej per nefas.
Cóż, niektórzy naukowcy też mają słabe charaktery i ulegają presjom wynikającym z przynależności do narodu, grupy zawodowej, kościoła (przestrzeganie dogmatów wiary i przykazań jak też słynnej klauzuli sumienia), jakiejś partii politycznej, gdzie obowiązuje centralizm demokratyczny, albo dyscyplina partyjna podczas głosowania itp. Popadają również w niewolę propagandy, reklam i ideologii, zwłaszcza tak potężnej i kusicielskiej, jak konsumpcjonizm. Tym mniej są odporni na naciski, im bardziej są obsesjonistami poglądów politycznych, religii i ideologii. Nic dziwnego, że zaślepieni ideałami konsumpcjonizmu gotowi są nawet zeszmacić się, by zrobić karierę i bogacić się bez umiaru.
Postęp cywilizacyjny i gospodarczy zapewniający możliwość materializacji ideałów konsumpcjonizmu zależy w pierwszym rzędzie od naukowców z dziedzin przyrodoznawstwa, techniki medycyny, a nie od humanistów – od ich potencjału kreatywności i efektywności badań. Od ich ekspertyz zależą też wyniki wyborów parlamentarnych i zyski różnych organizacji gospodarczych, głównie korporacji.
Do wygrania wyborów przyczyniają się w dużym stopniu badania opinii publicznej przez ośrodki naukowe, które celowo zaniżają lub zawyżają wyniki ankiet. Zawyżają, gdy chcą osłabić czujność kandydata i intensywność jego akcji przedwyborczej; po co ma się wysilać, jeśli jest pewny zwycięstwa. Zaniżają, gdy chcą go zmobilizować do większych wysiłków w celu wygrania wyborów, albo wprowadzenia w błąd konkurentów. Te ekspertyzy robi się na zamówienie partii politycznych za odpowiednio wysoką cenę. Z tego powodu akcje wyborcze są coraz droższe i stać na nie zamożnych kandydatów i bogate partie. (2)
Podobnie postępują zarządy różnych firm i korporacji w celu odniesienia zwycięstwa w walce konkurencyjnej, albo zapewnienia sobie wyższych zysków.
Naukowcy są świadomi tego, że od nich zależą efekty walki konkurencyjnej w polityce i gospodarce. Dlatego, mając poczucie swojej ważności, stają się bardziej roszczeniowi i za preparowanie fałszywych ekspertyz wykonywanych na zlecenie możnowładców żądają wciąż wyższych wynagrodzeń. Nie wiadomo, czy są świadomi tego, że sprzedając swoją godność są podobni do prostytutek, które sprzedają swoje ciała. Co gorsze – handlowanie ciałem czy godnością? Prostytuują się z zimnego wyrachowania, bez wyrzutów sumienia i nie licząc się z opinią uczciwych naukowców i społeczeństwa. (W. Sztumski, Nauka się prostytuuje, „Przekrój“, Nr 31, 31.07.2008)
Nierząd naukowców rozpoczął się w USA zaraz po II Wojnie światowej i ogarniał coraz więcej krajów. Dziś stał się zjawiskiem masowym, do którego coraz bardziej przywykamy i patrzymy z przymrużeniem oka.
Zanik etosu nauki
Etos naukowców malał również w wyniku wzrostu frustracji wynikającej z uświadomienia sobie negatywnych skutków postępu naukowego i komercjalizacji nauki. Narastała ona równolegle z wiarą w moc nauki i jej nieskazitelność. Ideologia scjentyzmu osłabła, gdy okazało się, że nauka, głównie przyrodoznawstwo, nie spełnia oczekiwań poznawczych, bo nie jest w stanie w pełni opisywać świata; tworzy obrazy jednowymiarowe za pomocą filtrów, jakimi są pojęcia i kryteria naukowe.
Zmalała też rola racjonalizmu, głównie skrajnego, będącego fundamentem myślenia naukowego. Okazał się on niewystarczającym instrumentem poznawczym w kreowaniu pełnego opisu świata. Zresztą, jedno i drugie ogranicza myślenie i zniewala ludzi wskutek podporządkowania ich algorytmom i przekształcania ich w istoty zdygitalizowane w czwartej rewolucji przemysłowej, czyli w epoce cyfryzacji. W twórczości naukowej nie wystarcza rozum ograniczony logiką, paradygmatami i aksjomatami, jak sztuczna inteligencja. Potrzebna jest jeszcze wyobraźnia twórcza oraz wiara w możliwość weryfikacji hipotez. To wymaga transracjonalnego myślenia.
Ograniczone zaufanie dla ekspertyz naukowych
W przeciwieństwie do fanatyków nauki, niedowiarkowie mają poważne wątpliwości odnośnie do metodologii i prawdziwości wyników badań naukowych. Niekiedy ich brak wiary w naukę nie jest uzasadniony i przeradza się fanatyzm antynaukowości. Jednak w wielu przypadkach trudno odmówić im racji.
Przytoczę dwa przykłady z medycyny, potwierdzające rację niedowiarków.
Przykład pierwszy - Sprawa szkodliwości cholesterolu.
Panuje przekonanie, że zbyt dużo cholesterolu w pokarmie zwiększa ryzyko zawału serca. Dlatego należy unikać diety wysokotłuszczowej. Istnieją jednak uzasadnione wątpliwości co do tego, biorące się z dywergencji wypowiedzi specjalistów.
Kwestia cholesterolu pojawiła się w USA wkrótce po zakończeniu II wojny światowej, kiedy wielu bogatych biznesmenów w Stanach Zjednoczonych umierało na atak serca. Fizjolog Ancel Keys zastanawiał się, dlaczego bogaci ludzie i wysocy rangą przywódcy, którzy mieli dostęp do wysokokalorycznej żywności, byli bardziej narażeni na chorobę wieńcową niż ludzie w powojennej Europie, gdzie brakowało żywności i głodowano. Zasugerował hipotezę o istnieniu związku między tłuszczem w diecie a chorobami serca. Przedstawił ją na spotkaniu Światowej Organizacji Zdrowia w 1955 roku. Sześć lat później jego twarz pojawiła się na okładce „Time Magazine”. Zachęcał czytelników, aby unikali pokarmów wysokotłuszczowych (nabiału i czerwonego mięsa).
Wkrótce wszyscy uwierzyli w tę hipotezę. Tym bardziej, że 1985 r. Ancel Keys rozpoczął badania diety, stylu życia i częstości występowania choroby niedokrwiennej serca u prawie 13 tys. mężczyzn w średnim wieku w Finlandii, Grecji, Włoszech, Japonii, Holandii, Stanach Zjednoczonych i Jugosławii. Potwierdziły one, że poziom cholesterolu we krwi i śmiertelność na zawał serca były najwyższe w krajach, w których dieta zawierała wysoki odsetek nasyconych kwasów tłuszczowych (Finlandii i USA). Dlatego od 70-tych lat uznano dietę niskotłuszczową za zdrową.
Jednak tezę Keysa o cholesterolu jako przyczynie choroby wieńcowej podważył duński doktor medycyny Uffe Ravnskov na podstawie badań klinicznych i nazwał ją „największym skandalem medycznym współczesności”. (Uffe Ravnskov, Cholesterol. Naukowe ryzykokłamstwo, Wyd. WGP, 2009)
Po pierwsze, zarzucił Keysowi celowy wybór tych siedmiu krajów tak, by badania w nich uzasadniały jego hipotezę, a po drugie, że korelację między ilością cholesterolu i chorobami układu krążenia potraktował niesłusznie jak związek przyczynowy.
Najczęstszym błędem lekarzy jest utożsamianie współwystępowania (korelacji) zjawisk lub ich następstwa czasowego ze związkiem przyczynowym. Jeśli dwa zjawiska występują razem, to jedno z nich nie musi być przyczyną drugiego; co inne może być ich wspólną przyczyną. Podobnie, jeśli jedno zjawisko pojawia się po drugim, to nie musi być przyczyną tego drugiego.
Stwierdził on ponadto, że powszechne przekonanie o tym, że cholesterol („zły”) jest przyczyną zawałów, podtrzymują koncerny farmaceutyczne, które od lat skuteczne blokują rozwój medycyny w dziedzinie leczenia miażdżycy ze względów rnerkantylnych. Powód jest oczywisty: im mniej chorych, tym mniej sprzedanych leków.
W czasach prezydentury Ronalda Reagana deregulacja i cięcia w finansowaniu publicznym uwolniły przemysł farmaceutyczny od etycznych i społecznych kajdan, czyniąc przemysł farmaceutyczny przede wszystkim biznesem.
Odtąd w sprawie szkodliwości cholesterolu ma się do czynienia z wielkim zamieszaniem. Jedni badacze traktują go jako szkodliwy dla zdrowia, a inni - nie. Przy czym jedni i drudzy opierają się na wynikach badań naukowych. Okazało się, że nie jest winny cholesterol, nie same cząsteczki tłuszczu, lecz białka transportujące estry cholesterolu do i z komórek. Mogą one być kierowane albo do tętnic, w których gromadzą się, co skutkuje ich zwężaniem (miażdżycą), albo do wątroby, gdzie są metabolizowane i zużywane do tworzenia kwasów żółciowych, Za transport cząsteczek cholesterolu z różnych tkanek organizmu, również z tętnic, do wątroby odpowiada dobry cholesterol – HDL (rozróżnienia między dobrym i złym cholesterolem dokonał amerykański lekarz John Gofman w latach 50.). Wzrost jego aktywności zmniejsza ryzyka zawału. A zatem ani dieta wysokotłuszczowa, ani ilość cholesterolu nie zwiększają ryzyka zawału serca. (Robert DuBroff, Fat or fiction: the diet-heart hypothesis, BMJ EBM Journals, Vol. 26, 1. 2019.)
Na stężenie cholesterolu HDL wpływa szereg czynników. Ważnymi są czynniki genetyczne. U osób, u których dziedzicznie występuje niskie stężenia HDL, statystycznie częściej odnotowuje się epizody chorób serca.(3)
Szkodliwszym od cholesterolu i prawdziwym zagrożeniem dla ludzkiego zdrowia jest cukier, co stwierdził na początku lat 70-tych John Yudkin, brytyjski profesor fizjologii i żywienia (John Yodkin, Pure, White and Deadly, Penguine Books, 1972). Jednak to odkrycie zostało zbagatelizowane, a koledzy Yudkina doprowadzili do jego zupełnej dyskredytacji. Dopiero w 2009 r. on i jego odkrycie zyskały światowy rozgłos i uznanie za sprawą Roberta Lustiga, profesora pediatry z Uniwersytetu Kalifornijskiego w San Francisco.(4) A w 2016 r. ujawniono, że przeciwnicy Yudkina byli hojnie wspierani przez amerykańskie koncerny spożywcze, a ich badania były finansowane przez przemysł cukrowniczy, wiadomo, dlaczego.
Przykład drugi - kwestia szczepienia przeciw Covid-19.
Dwa lata temu ludzkość zaskoczyła epidemia spowodowana przez koronawirusa, która szybko przekształciła się w pandemię. Przygotowywano się na różne kataklizmy: ataki terrorystyczne, zderzenie cywilizacji, zmiany klimatyczne, najazd kosmitów i kolejną wojnę światową, ale nie na taką pandemię, która pochłania coraz więcej ofiar liczonych już w milionach i której końca nie widać. Faluje ona - raz się nasila, innym razem zanika, przy czym kolejne fale mają coraz wyższe amplitudy zakażeń. Koronawirus okazuje się sprytniejszy od ludzi. W odpowiedzi na szczepionki tworzy nowe mutacje zjadliwsze i odporniejsze na nie.
Pojawiły się dwie poważne wątpliwości odnośnie do pandemii w związku z różnymi enuncjacjami naukowców (głównie wirusologów), dziennikarzy i polityków. Jedna dotyczy jej pochodzenia, a druga – sposobu przezwyciężenia jej.
Do dziś nie zna się prawdziwej przyczyny tej pandemii. W związku z tym snuje się różne spekulacje, nawet odwołując się do teorii spiskowej. Jedni sądzą, że koronawirus jest naturalnym produktem przyrody lub jej środkiem obrony przed ludźmi i musiał zaistnieć w sprzyjających okolicznościach, na przykład w stanach dużego stresu. A tych jest coraz więcej w „galopującym społeczeństwie".
Inni, że jest dziełem ludzi trudniących się produkcją broni bakteriologicznej i manipulacjami genetycznymi, że przypadkowo lub celowo wydostał się z jednego z amerykańskich tajnych laboratoriów wojskowych w Chinach. Najlepsze urządzenia kontrolne nie zabezpieczają przed awariami.
Są też tacy, którzy twierdzą, że pandemię spowodowały nietoperze, noszący w sobie „uśpione” koronawirusy, które uaktywniły się w stanie silnego stresu w wyniku wcześniejszego obudzenia się ze snu zimowego za sprawą ludzi (efektu cieplarnianego). Wydostały się z jaskiń i zaraziły cywety, których mięso zjadali ludzie i zarażali się.
Jednak przeczy temu prof. Christian Voigt (zoolog z Leibniz-Institut für Zoo- und Wildtierforschung w Berlinie), który zbadał różne koronawirusy u nietoperzy: „Wiemy, że nietoperze z rodziny podkowców mogą przenosić całą gamę różnych koronawirusów. Wiele z nich jest całkowicie nieszkodliwych. Istnieją jednak również wirusy podobne do SARS. Jeden z nich mógłby być przodkiem patogenu, który sprawia nam teraz tyle kłopotów. Ale to nie znaczy, że ten oryginalny wirus nietoperzy może w ogóle zainfekować ludzi. W każdym razie nie jest mi znany żaden przypadek, w którym ktoś został bezpośrednio zarażony koronawirusem nietoperzy i zachorował” (Kerstin Viering, Das ist eine regelrechte Hexenjagd, „Spektrum der Wissenschaft", 25.05.2020).
Natomiast zwolennicy teorii spiskowej sugerują, że pandemia koronawirusa była bronią użytą przez prezydenta USA Donalda Trumpa w celu zrujnowania gospodarki Chin - najgroźniejszego rywala o dominację gospodarczą. Wszystkiego można było spodziewać się po nim. Być może użył jej, gdyż sankcje celne i gospodarcze wobec Chin nie spełniły jego oczekiwań. Nie liczył się z tym, że zaraza dotrze też do USA i innych krajów i wyrządzi tam więcej szkód niż w Chinach.
Dużo ludzi uznaje istnienie koronawirusa za kłamstwo lub wymysł. Niektórzy naukowcy również należą do nich, na przykład wirusolog niemiecki Stefan Lanka. Znaleźli się nawet jego sympatycy, którzy zorganizowali masowe protesty. Rządy większości państw zignorowały je, ale za namową naukowców zniesiono rygory w Szwecji i Islandii. Bowiem wskutek całkowitego braku kontaktu z wirusami układ immunologiczny człowieka przestaje wytwarzać przeciwciała i dlatego nie zadziała przy zetknięciu się z tymi wirusami, a to może doprowadzić do śmierci. Długotrwałe przebywanie w odległości dwóch metrów od siebie oraz w kwarantannie szkodzi zdrowiu w aspekcie fizycznym, psychicznym i społecznym, a siedzący tryb życia sprzyja chorobom układu krążenia.
To jest prawdą, tylko na efekty samoobrony organizmu trzeba czekać dłużej niż na efekty rygorów lub szczepionek.
Obecnie, mimo ponownego wzrostu zakażeń w piątej fali i ostrzeżeń specjalistów, zniesiono lockdown, przywrócono lekcje w szkołach, organizuje się wyjazdy dzieci na ferie jak i wielotysięczne imprezy masowe bez konieczności noszenia masek („sylwester marzeń”) w celach propagandowych i by nie szkodzić gospodarce. Argumenty polityczne i ekonomiczne przeważyły nad humanitarnymi.
Poza marginalnymi wyjątkami, nikt nie wątpi w istnienie koronawirusów. Istnieją jednak różnice zdań odnośnie zwalczania ich.
Z jednej strony są tacy fanatycy religijni, jak np. Afroamerykanie w USA, którzy wierzą, że ustawienie krzyża przed domem uchroni mieszkańców od zarazy. (Dawniej wierzono w magiczną moc wody święconej, świec i zaklęć.) Pomaga to, jak umarłemu przysłowiowe kadzidło.
Z drugiej strony są fanatycy nauki, którzy wierzą w magiczną moc nauki - w skuteczność różnych szczepionek i ich przeciwnicy – niedowiarkowie. Jedni wytaczają argumenty przeciw drugim na podstawie badań naukowych i wiedzy naukowej. A gdy brak im rzeczowych argumentów, wyśmiewają się z siebie nawzajem.
Fanatycy nauki wierzą w niemal stuprocentową skuteczność szczepień przeciw koronawirusowi, a niedowiarki nauki wątpią w to. Zwolennicy szczepień („szczepionkowcy”) nazwali niedowiarków pogardliwie „antyszczepionkowcami”. Wmówiono ludziom, że antyszczepionkowcy są przeciwnikami szczepień przeciw wszystkim chorobom zakaźnym, co jest nieprawdą. Ale dzięki temu zdezawuowano ich w opinii mas, a szczepionkowcy uzyskali przewagę w sporze z antyszczepinkowcami, ponieważ dzięki mass mediom upowszechnił się negatywny stereotyp antyszczepionkowca. W efekcie, większość ludzi nie uznaje racji antyszczepionkowców, którzy, jak szczepionkowcy, wywodzą je z badań naukowych, a nie ze spekulacji. W rezultacie, spór między zwolennikami a przeciwnikami szczepień przeciw koronaworusowi stał się sporem o rzetelność badań naukowych i prawdziwość ich wyników.
Jakie fakty, potwierdzone naukowo, przemawiają za racją obu stron uczestniczących w tym sporze?
1. Średni czas oczekiwania na udostępnienie jakiejś szczepionki do użytku wynosi od 10 do 12 lat. Tymczasem pierwsza szczepionka Pfizera pojawiła się na rynku farmaceutycznym już po trzech miesiącach od wybuchu pandemii. Są dwie możliwości: albo była to szczepionka zrobiona naprędce, żeby na niej szybko zarobić korzystając z okazji i nie zważając na jej malejącą skuteczność (w ciągu trzech miesięcy spadla z 95% do 65%) i możliwe uboczne, szkodliwe skutki, albo od kilkunastu lat prowadzono badania skrycie nad produkcją tej szczepionki na wypadek użycia koronawirusa w wojnie biologicznej i była ona już gotowa. Druga opcja jest bardziej prawdopodobna.
2. Żadna szczepionka nie zapobiega zachorowaniu na Covid, nawet powtarzana kilka razy. Co najwyżej zapewnia lżejszy przebieg choroby, ale też nie każdemu i nie w przypadku każdej odmiany tego wirusa. Notuje się coraz więcej kilkakrotnych zachorowań nawet po trzeciej dawce lub szczepieniu „przypominającym”. Może dojść do tego, że trzeba będzie szczepić się częściej na nowe odmiany koronawirusów z takim samym skutkiem. W Izraelu zaszczepiono już czwartą dawką ponad pół miliona osób. Podobno zwiększyła się po niej odporność.
Koronawirus okazał się sprytniejszym od ludzi. Wciąż znajduje sposoby na obejście aktualnej bariery odporności na niego. Na każdą próbę uodpornienia na jedną odmianę odpowiada wytworzeniem kolejnej, jeszcze gorszej. Obecnie odkryto „niewidzialną” wersję Omikronu BA.2, który może zakażać po uzyskaniu odporności po przebyciu zakażenia wywołanego standardowym podwariantem Omikronu BA.1.
Dlatego obecnie nikt nie może powiedzieć, jak zła będzie kolejna fala pandemii. Natomiast skorzystanie ze szczepionek jest ryzykowne. Może spowodować infekcję Covidem, albo złe skutki uboczne zaraz po zaszczepieniu się danego człowieka lub później. Mogą one pojawić się dopiero u jego potomstwa. Tego dziś nie wiemy. Dowiedzą się o tym następne pokolenia, ale to będzie już za późno. Długofalowe konsekwencje infekcji są nadal jedną z największych tajemnic pandemii: nie wiadomo nawet, co dokładnie powoduje Long-Covid ani jak często. Stwierdzono, że syndrom długofalowych następstw wystąpił u jednej trzeciej ozdrowieńców. ( Ende der Corona-Pandemie in Sicht? Was nach der Krise auf uns zukommt, “Fokus Online”, 22.01.2022 )
3. Masowe szczepienie, które uodpornia na jedną odmianę koronawirusa „rozwściecza” go do tego stopnia, że tworzy nowe, coraz gorsze odmiany – bardziej zakaźne oraz trudniejsze do wyleczenia i wynalezienia szczepionek przeciw nim. Nie wiadomo, ile jeszcze mutacji koronawirusa się pojawi. Na razie groźnych jest dziesięć: Alfa, Beta, Gamma, Delta. Eta, Iota, Kappa, Lambda, Mi i Omikron. Szacuje się, że może być ich więcej i nie wiadomo, czy wystarczy liter alfabetu greckiego. (Frederik Jötten, Zu was das Coronavirus noch mutieren kann (https://www.spektrum.de/news/varianten-wie-das-coronavirus-noch-mutieren-kann/1911421; 25.01.2022)
O ile organizm stosunkowo łatwo mógł się sam obronić przeciw pierwszej odmianie koronawirusa - ozdrowieńcy nie chorowali ponownie - to przeciw następnym odmianom jest mu coraz trudniej obronić się samemu, chociażby dlatego, że budowa systemu immunologicznego nie dokonuje się natychmiastowo, lecz wymaga coraz dłuższego czasu na odreagowanie dla obrony przed bardziej złośliwymi odmianami.
Czy warto było zwalczać całkowicie pierwszą jego odmianę, łagodniejszą od późniejszych? Może byłoby mniej ofiar, a koronawirus zachowywałby się, jak przyzwoity wirus grypy. (Oficjalne statystyki potwierdzają, że co najmniej 5,5 mln osób zmarło w wyniku Covid-19. Faktycznie zmarło dużo więcej, bo około 22 mln osób – p. David Adam, Die wahre Zahl der Coronapandemie-Toten, https://www.spektrum.de/news/uebersterblichkeit-wie-viele-menschen-sind-an-corona-gestorben/1973746; 24.01.2022)
Wtedy wystarczyłoby szczepić się co roku, jak dotychczas przeciw grypie i nie byłoby takich oporów ani zagrożeń wynikających ze szczepienia. Byłoby ono czymś zwyczajnym, jak szczepienie się przeciw ospie, żółtaczce, odrze itp. W tym duchu wypowiedział się prezes koncernu Pfizera, Albert Bourla, który oświadczył, że szczepienie przypominające co pół roku, a może później, co ćwierć albo częściej, niewiele daje i dlatego nie widzi jego sensu. Lepszym rozwiązaniem byłoby szczepić się corocznie. (Jak często szczepienia? Prezes Pfizera ma swoją wizję, „Business Insider” 23.01.2022).
Wniosek
Fanatycy nauki wierzą w nią jak w bóstwo, mimo że jest uwikłana w różnorodne związki z władzą, biznesem, korporacjami itp. Jednak traktowanie z tego powodu wszystkich danych naukowych jako ex definitione niewiarygodne jest nie do przyjęcia i niczego nie daje. Nie wolno a priori negować opinii ekspertów naukowych, ani ich badań pod warunkiem, że są prawdziwe i nie zostały odpowiednio sfabrykowane na użytek korporatokratów, polityków i innych grup nacisku. Niestety, to ma miejsce coraz częściej.
Nic dziwnego, że naukowcom coraz mniej ufają ludzie, a z ich opiniami przestali liczyć się politycy. (Nasz rząd nie stosował się do zaleceń znanych wirusologów i podejmował decyzje w sprawie zwalczania pandemii, mając na uwadze korzyści polityczne, propagandowe i ekonomiczne, a nie zdrowie narodu, co wywołało gwałtowny przyrost infekcji i zgonów w piątej fali. Np. skrócono czas kwarantanny z 14 do 7 dni, wprowadzono masowe testy, które nie pomagają w leczeniu itp.).
Przekonanie, że wiedza naukowa jest równoważna z irracjonalnym „głębokim przekonaniem” o jej mocy magicznej może spowodować, że podejmując istotne decyzje (również na szczeblu państwowym), ludzie będą się kierować myśleniem życzeniowym, a rzeczywistość będzie dostosowywać do oczekiwań. Tak nigdy nie będzie.
Nie należy być ani fanatykiem nauki, ani kompletnym niedowiarkiem.
Ze względu na duże ryzyko i niepewność co do bliskich i dalszych skutków, masowe szczepienia przeciw koronawirusom są jakby nie było eksperymentem medycznym na skalę światową w imię debra wspólnego ludzkości i rozwoju medycyny. Również eksperymenty medyczne w klinikach, mniej ryzykowne, prowadzi się w tym celu, jednak tylko za zgodą pacjentów. W związku z tym pojawia się pytanie, czy wolno zmuszać ludzi do udziału w eksperymencie globalnym, jakim jest masowe szczepienie. Na to pytanie trudno udzielić jednoznacznej odpowiedzi. Antyszczepionkowcy twierdzą, że nie, ponieważ jest to eksperyment obarczony wciąż jeszcze dość dużym ryzykiem. Nie całkiem bez racji odwołują się do eksperymentów medycznych dokonywanych na więźniach obozów koncentracyjnych, które też miały służyć temu samemu, ale mimo to, zostały uznane za ludobójstwo, może dlatego, że w ich wyniku ginęło więcej ludzi. Czy nie byłoby wskazane, by na razie, dopóki nie zmniejszy się ryzyko, szczepili się chętni, odważni i świadomi tego ludzie na własną odpowiedzialność?
Niektórzy eksperci przypuszczają, że obecna fala Covida jest już ostatnią, ponieważ dynamika pandemii zwalnia. Jednak nikt nie wie, jak będzie wyglądać koniec pandemii. To, co nastąpi później i jak długo potrwa faza przejściowa, zależy od wielu czynników: od samego wirusa, medycyny i społeczeństwa. Będzie to faza „Po pandemii i przed pandemią”.(Ende der Corona-Pandemie in Sicht? Was nach der Krise auf uns zukommt, „Online Focus”, 22.01.2022.). Oby ten optymizm dotyczący końca pandemii zmaterializował się, ale myślę, że wieści takie są nie tyle w celu pocieszenia ludzi, by dodać im nadziei oraz odporności psychicznej, ale bardziej dla ratowania gospodarki.
Wiesław Sztumski
(1) W 1956 r. Prof. Henryk Niewodniczański (późniejszy wicedyrektor Zjednoczonego Instytutu Badań Jądrowych w Dubnej) opowiadał, że jak pierwszy raz pojechał tam, to wsadzili go wieczorem w Moskwie do samolotu i leciał prawie trzy godziny zanim wylądował w Dubnej, która była raptem 120 km odległa od Moskwy. Siedział przy oknie i zorientował się po gwiazdach, że łatają w kółko, pewnie dlatego, by się zdawało, że Instytut jest dużo dalej.
(2) Wybory pierwszego prezydenta USA, Abrahama Lincolna prawie nic nie kosztowały, następnych prezydentów - kilkaset tysięcy dolarów, a ostatniego, Donalda Trumpa, już ponad miliard dolarów. W Polsce, w 2010 r. wybory prezydenckie kosztowały ponad 107 mln złotych. Pięć lat później - ponad 147 mln zł., a w 2020 r. - ponad 400 milionów zł.).
(3) Epidemiolożka Jane Armitage z Uniwersytetu Oksfordzkiego stwierdziła, że osoby z rodzinną hipercholesterolemią mają nienormalnie wysoki poziom cholesterolu LDL. O ile nie są leczeni, ich ryzyko rozwoju choroby wieńcowej jest nawet 13-krotnie wyższe niż u osób bez tej mutacji.
(4) Sytuacja ta przypomina kwestię globalnego ocieplenia: są naukowcy prowadzący badania niezależne i naukowcy sponsorowani (raczej przekupywani) przez przemysł. Prezentują oni sprzeczne wyniki swoich badań i dlatego budzą w społeczeństwie zwątpienie w naukę.