Naukowa agora (el)
- Autor: Anna Leszkowska
- Odsłon: 4228
- Autor: Andrzej P. Wierzbicki
- Odsłon: 6196
Przy szerokim rozumieniu pojęcia „kultura” jako całokształtu duchowego i materialnego dorobku społeczeństwa, slogan „triumf techniki nad kulturą” jest oczywistym oxymoronem. Technika jest częścią tego dorobku, a jak część może dominować nad całością? Świadczy to tylko o tym, że autorzy tego sloganu tak dalece nie rozumieją współczesnej techniki, że traktują ją jako coś odrębnego od kultury.
Jednakże użycie tak oczywistej sprzeczności wskazuje, że mamy tu do czynienia z narastającym problemem, zwłaszcza przy wąskim traktowaniu kultury, z pozycji nauk społeczno-humanistycznych.
Tyle tylko, że związana z tym problemem diagnoza pozostanie błędna, jeśli się nie zróżnicuje rozumienia pojęcia „technika” i będzie je stosować w ukrytym sensie społeczno-ekonomicznego systemu wykorzystania techniki. Bo to raczej ten system w swym współczesnym kształcie, a nie technika właściwa, triumfuje nad (wąsko rozumianą) kulturą. Jednakże błędna diagnoza nie pomaga w leczeniu choroby.
Prawidłowa diagnoza powinna raczej opierać się na analizie pytania: Jakie to cechy współczesnego społeczno-ekonomicznego systemu wykorzystania techniki mają negatywny wpływ na kulturowe aspekty rozwoju? Jest wiele takich cech, niektóre z nich nawet poprawnie opisane (N. Postman, 1995: Technoopol – Triumf techniki nad kulturą). Odrębną kwestią jest, co należy czynić, aby ten negatywny wpływ zniwelować.
Jednakże tutaj ograniczę zakres analizy, będąc przekonanym, że najsilniejszy wpływ na kulturowe zachowania ludzi ma dzisiaj telewizja. Zatem pytaniem zasadniczym jest, jak ograniczyć negatywne aspekty nowego społeczeństwa spektaklu, wynikającego z dodatniego sprzężenia zwrotnego pomiędzy techniką telewizyjną (wspomaganą techniką informacyjną, data mining oraz inżynierią wiedzy) a rynkiem reklam.
Reklamodawcy – przedsiębiorcy zlecający reklamy, pracownicy firm reklamowych opracowujący te reklamy, pracownicy telewizji wplatający reklamy w program – doskonale sobie zdają sprawę z potęgi i intuicyjnego oddziaływania przekazu multimedialnego, zatem wykorzystują go właśnie dla zwiększenia asymetrii informacyjnej.
Widzowie tylko podświadomie odczuwają, że są manipulowani; nie mają pełnej informacji o reklamowanych produktach, pamiętają tylko, że mówiono o tym pozytywnie w telewizji i nie rozumieją, dlaczego sami też traktują te produkty pozytywnie. Co gorsza, współczesna technika może być wykorzystana dla pogłębienia tej asymetrii.
Współczesne metody analizy danych i inżynierii wiedzy pozwalają na konstruowanie modeli zachowań użytkownika czy klienta na podstawie danych o jego dotychczasowych zachowaniach. Jeśli zatem wykorzystanie tej techniki będzie rozwijać się w dotychczasowym systemie, to może nastąpić realizacja następującego scenariusza telewizyjnego „Wielkiego Brata”.
W każdym telewizorze zainstalowana będzie kamera obserwująca użytkowników oraz mikroprocesor zbierający i przetwarzający dane o zachowaniu się użytkowników, ich mowie ciała, itp. Producenci telewizorów będą twierdzić, że ma to służyć poprawie interakcji użytkownika z telewizorem, np. automatycznemu wyłączeniu telewizora, jeśli użytkownik zaśnie.
Jednakże faktycznie dane o zachowaniu użytkowników będą zbierane centralnie przez Internet oraz wykorzystywane przez wielkie firmy*, np. dla poprawy jakości prognoz wyborczych, a nawet dla takiej modyfikacji reklam wyborczych, by najsilniej oddziaływały na wyborców. Także dla wzmocnienia skuteczności reklam produktów, ich dostosowania do indywidualnych modeli użytkowników, itp.
Wszystko to spowoduje dalszy wzrost asymetrii informacyjnej – ludzie nie będą sobie zdawali sprawy, jak dalece są manipulowani. Manipulacja taka będzie też wpływać negatywnie na wyższe wartości kulturowe: przekaz telewizyjny już obecnie kształtowany jest w celu maksymalizacji zysku reklamodawców, a nie rozpowszechniania wyższych wartości kulturowych. A to się jeszcze pogłębi.
Jak przeciwdziałać manipulacji?
Nie możemy zakazać działalności reklamowej (nie byłoby to rozsądne), ale trzeba ograniczyć swobodę działalności rynkowej w tym zakresie, bo takie wykorzystanie nowej techniki stwarza niebezpieczeństwo manipulowania ludźmi. Każde jednak ograniczenie działalności rynkowej, aby było rozsądne i skuteczne, musi opierać się na głębokiej wiedzy o przedmiocie ograniczenia.
Do takiego ograniczenia potrzebne jest nowe prawo, a prawo tworzą politycy i prawnicy, w większości kształceni bez głębszego zrozumienia nowej techniki.
Stąd wniosek: niemożliwe jest przeciwdziałanie niebezpieczeństwom tworzonym przez społeczno-ekonomiczny system wykorzystujący zaawansowaną technikę, jeśli kształcenie prawników i przedstawicieli wszelkich dziedzin społeczno-humanistycznych nie obejmie obowiązkowo przynajmniej trzech przedmiotów w zakresie nowej techniki.
Przedmioty te to robotyka - niezbędna dla właściwego rozumienia pojęcia sprzężenia zwrotnego, informatyka - nie tylko z elementami programowania komputerów, lecz także z elementami inżynierii wiedzy oraz inżynieria biomedyczna - niezbędna dzisiaj każdemu wykształconemu człowiekowi, m.in. w związku ze starzeniem się społeczeństw.
Inżynierowie już od kilkudziesięciu lat mają w swym wykształceniu przedmioty społeczno-humanistyczne - dlaczego w kształceniu społeczno-humanistycznym nie jest stosowana zasada wzajemności?
Technika – epokowy czynnik sprawczy
Technika właściwa jest oczywiście czynnikiem sprawczym, skoro narzędzia stosowane w określonej epoce cywilizacyjnej wpływają na sposób postrzegania świata i kreowania wiedzy, a także na stosunki społeczne. Jest wiele tego przykładów, np. wpływ komputeryzacji, robotyzacji oraz komunikacji internetowej na zmniejszający się popyt na pracę.
Jednakże nie jest to wpływ bezpośredni i bez sprzężeń zwrotnych. Twórcy narzędzi są także członkami społeczeństwa i kierują się własną wizją, jakie wynalazki czy nowe narzędzia mogą być dla społeczeństwa przydatne. Jest to zarówno niebezpieczne, gdyż wizje takie mogą być błędne, jak i nieuchronne, gdyż nowe narzędzia wykorzystywane są społecznie nie natychmiastowo, a ze znacznym opóźnieniem.
Tym niemniej, występuje tu wyraźne sprzężenie zwrotne pomiędzy antycypowanymi potrzebami społeczeństwa a kreowaniem nowych narzędzi.
Ponadto, dalszy rozwój już wstępnie rozwiniętych narzędzi zależy od ich akceptacji społeczno-ekonomicznej: występuje wyraźne, nie zawsze korzystne, sprzężenie zwrotne pomiędzy techniką a kapitalistycznym systemem rynkowym.
Tak więc technika co najwyżej współokreśla rozwój społeczno-ekonomiczny i cywilizacyjny, niemniej jest ona istotnym czynnikiem sprawczym dla długich epok cywilizacyjnych. Nie ulega wątpliwości, że wynalazek narzędzi kamiennych, następnie wytopu metali, kolejno brązu oraz żelaza i stali, zmieniały uwarunkowania wczesnych cywilizacji. Fernand Braudel (1979, Civilisation matérielle, économie et capitalisme, XV-XVIII siècle) datował początki epoki kształtowania się kapitalizmu wynalazkiem Gutenberga (który był tylko usprawnieniem znanej wcześniej techniki drukarskiej poprzez skład literowy), zaś koniec - wynalazkiem Watta (który też był tylko znaczącym społecznie usprawnieniem znanej wcześniej maszyny parowej).
Początki rewolucji informacyjnej i nowej epoki cywilizacyjnej nią spowodowanej należy datować na lata 1977-83, gdy dojrzały już do społecznego upowszechnienia wcześniejsze wynalazki komputera cyfrowego (wynalazek Konrada Zuse, 1936, ale społeczne upowszechnienie od Apple 2 Steve Jobsa i Steve Wozniaka, 1977-78) oraz sieci komputerowych (początki Arpanetu ok. 1960, deklasyfikacja Internetu w 1983). Technika jest więc czynnikiem sprawczym dla długich epok cywilizacyjnych.
Nie można natomiast twierdzić, że technika właściwa w pełni determinuje stosunki społeczne w danej epoce. Pozwala tylko na rozmaite sposoby społeczno-ekonomicznego jej wykorzystania, także na modyfikacje starych systemów społeczno-ekonomicznych. Ale wybór tych sposobów oraz modyfikacji zależy od społeczeństwa.
Skutki nie natychmiastowe
Trzeba podkreślić, że społeczna akceptacja i rozpowszechnienie nowego narzędzia jest długotrwałym procesem, charakteryzującym się nie tylko powolną dynamiką, lecz także opóźnieniami w jego rozpowszechnieniu. W przypadku komputera cyfrowego opóźnienie wyniosło 42 lata, a dla sieci komputerowych tylko 23 lata (ale jeśli liczyć do sieci WWW wprowadzonej przez Timothy Berners-Lee w latach 1990-92, to opóźnienie to wzrasta do 30 lat).
Opóźnienie to było jeszcze dłuższe dla wynalazku telefonu komórkowego, głównie z powodu konieczności zmniejszenia jego wymiarów i wagi (wynalazek 1943, początek społeczno-ekonomicznego rozpowszechnienia wersji zminiaturyzowanej ok. 1991, zatem opóźnienie 48 lat).
Największe opóźnienie dotyczy wynalazku najszerzej stosowanego – telewizji – ok. 80 lat. Wynalazek wstępny bowiem to lata 1878-1880 (najpierw Julian Ochorowicz w Polsce, dwa lata później George R. Carey w Bostonie), pełna wersja techniczna kamery i odbiornika telewizyjnego - lata 1922-28 (Vladimir Zvorykin i Kalman Tihanyi w USA), początki rozpowszechnienia odbiorników telewizji czarno-białej - ok. 1950, kolorowej - ok. 1960. Do tego dochodzi jeszcze kilkadziesiąt lat powolnego procesu rozpowszechnienia społecznego użycia określonego narzędzia (zwykle 40-50 lat dla wzrostu upowszechnienia od 0% do blisko 100%). Dla telewizji kolorowej w USA było to ok. 50 lat. Rozpowszechnienie społeczne określonego narzędzia może już wpływać na procesy społeczne, ale rozpowszechnienie to musi być masowe, przekraczać 50%, co zwykle trwa ok. 25 lat.
Zatem technika, zwłaszcza technika właściwa, decydująca o wynalazkach, nie może wpływać na procesy społeczne natychmiastowo - oddziaływanie to ma kilkudziesięcioletnie opóźnienie.
Z niedoceniania tego faktu wynika podstawowy błąd filozofii techniki, która od Heideggera (Die Technik und die Kehre, 1954) oraz Ellula (The Technological Society, 1964) zakłada, że wystarczy oceniać skutki rozwoju techniki całościowo, z perspektywy ogólno-społecznej, post fatum. Tymczasem ocena taka jest oczywiście spóźniona. Jeśli chciałoby się oddziaływać na rozwój techniki, trzeba to czynić w okresie, kiedy następuje udoskonalenie pierwotnego wynalazku tak, aby umożliwić i usprawnić jego szerokie wykorzystanie społeczne. Jeśli natomiast postępować według przyjętego paradygmatu filozofii techniki i patrzeć holistycznie z zewnątrz, post factum, to technika musi się wydawać autonomiczna, samookreślająca się, niesterowalna.
Potrzeba przewidywania
Z teorii sterowania procesów z opóźnieniem, w której sam się specjalizowałem wynika, że dla skutecznego sterowania nimi niezbędne jest przewidywanie przyszłego ich rozwoju na podstawie ich wnikliwej (nie tylko zewnętrznej) obserwacji co najmniej na etapie opóźnienia. Oznacza to konieczność prognozowania rozwoju techniki, a także społeczno-ekonomicznych tego skutków.
Postulat taki może wydawać się sprzeczny z modnym dzisiaj atakiem na wszelkie przewidywanie rozwoju datującym się od postulatów Karla Poppera (1962, Społeczeństwo otwarte i jego wrogowie) do neoliberalnej krytyki przewidywania (Taleb, 2007, The Black Swan: The Impact of the Highly Improbable): bo gdyby dobre przewidywanie było możliwe, to państwo mogłoby działać bardziej racjonalnie niż wolny rynek, który rzekomo przewidywanie zastępuje. Rzekomo, bo racjonalność rynkowa dotyczy przewidywania na najwyżej kilka-kilkanaście lat, a więc nie obejmuje tak długiego okresu, jaki występuje w rozwoju techniki.
Stąd też wbrew wszelkiej modzie, ocena przyszłego rozwoju techniki (technology assessment), która dokonywana jest przez każdą wielką korporację techniczną, staje się niezbędna. Tak więc niezbędne jest przewidywanie przyszłych zastosowań społecznych, ich zalet lub wad, wszelkich nowych technik, których początki są dzisiaj już widoczne, choć szerokie zastosowanie społeczne jeszcze nie nastąpiło, lub jest dopiero w stadium początkowym. Dotyczy to np. nowych elementów biotechniki, inżynierii biomedycznej, udziału robotów w życiu społecznym, itp.
Jest przy tym sprawą oczywistą, że dokładne przewidywanie czy prognozowanie przyszłości jest niemożliwe. Jednak jakieś przewidywanie jest konieczne. Człowiek nie zbudowałby cywilizacji, gdyby nie próbował przewidywać - z lepszymi lub gorszymi rezultatami. Budujemy dom, przewidując zimy i niepogody, powiększenie się rodziny itp. Ale powódź może nas zaskoczyć. Tworzymy sieci komunikacji lotniczej, a one nie mogłyby działać bez przewidywania – czasów przelotów, potrzeb zaopatrzenia w paliwo, itp. Ale np. większy wybuch wulkanu może zakłócić funkcjonowanie takich sieci.
Budujemy roboty, mając wizję, że zastąpią nas w ciężkich, a zwłaszcza niebezpiecznych pracach. Ale przy niezrównoważonym systemie społecznym, nastawionym tylko na krótkoterminowy zysk, może to prowadzić do nadmiernego bezrobocia, lub do użycia robotów przez nieodpowiedzialne czy nawet kryminalne siły społeczne. Trzeba więc przewidywać wpływ robotów na przeszłe ich zastosowania.
Technika to też zagrożenia
We współczesnym wariancie kapitalizmu ,czy ogólniej - w społeczno-ekonomicznym systemie wykorzystania techniki, można odnotować wiele zagrożeń. Są nimi: oligopolizacja przemysłów i usług wysokiej techniki, wirtualizacja gospodarki finansowej, asymetria informacyjna, prywatyzacja intelektualnego dziedzictwa ludzkości, itp. Jednakże zagrożeniem największym, które może decydować o tym, czy nie nastąpi kolejna, globalna rewolucja polityczno-społeczna, jest zagrożenie końca pracy, nadmiernego bezrobocia lub nietrwałości pracy.
Dotychczas w ekonomii dominowała teza, że postęp techniczny zwiększający wydajność pracy nie może powodować bezrobocia, gdyż powoduje wzrost ogólnego dobrobytu, zatem wzrost popytu, w tym także na pracę. Teza ta mogła być uzasadniona jeszcze 20 lat temu, gdy nie występowało w tym stopniu co obecnie neoliberalne osłabienie prawa pracy na korzyść przedsiębiorców oraz znaczne rozwarstwienie dochodowe, przekreślające wnioskowanie oparte na uśrednionym dobrobycie.
W wydaniu „The Economist” z 18-24.01.14 podano, że sytuacja w tym zakresie jest dzisiaj radykalnie odmienna: korzyści z automatyzacji, robotyzacji i komputeryzacji pracy są wykorzystywane głównie przez najbogatszych przedsiębiorców, a dobrobyt klasy średniej nie poprawia się, tylko pogarsza. Zatem w wyniku postępu technicznego popyt na pracę maleje.
Należy się więc obawiać, że wskutek automatyzacji, robotyzacji i komputeryzacji w przyszłości tylko niewielka grupa specjalistów będzie miała pracę. Pozostali będą o pracę konkurować, część znajdzie nietrwałe i niezgodne z ich wykształceniem zatrudnienie w rozmaitych usługach (tworząc prekariat), większa część faktycznie będzie bezrobotna. Taka sytuacja społeczna nie jest trwała, grozi rewolucją – a z wykorzystaniem Internetu rewolucja taka mogłaby mieć zasięg światowy.
Pohamowanie apetytów
Jako człowiek, który całe swe życie zajmował się automatyzacją i robotyzacją w wierze, że przyczyni się to do wzrostu intelektualnego dziedzictwa ludzkości oraz ogólnego dobrobytu, czuję się współodpowiedzialny za ten stan. Ale uważam, że to nie moje prace i wynalazki spowodowały taką sytuację, tylko społeczno-ekonomiczny system wykorzystania takich rozwiązań technicznych, nieskrępowany kapitalizm. Zatem należy narzucić kapitalizmowi odpowiednie ograniczenie.
Ruch robotniczy w społeczeństwie przemysłowym narzucił takie ograniczenie kapitalizmowi, postulując i osiągając 8‑godzinny dzień pracy. Dzisiaj ogół społeczeństwa może to właśnie ograniczenie zaostrzyć, postulując i stopniowo osiągając 4‑godzinny dzień pracy.
Wiadome jest, że w czasach przedhistorycznych ludzie mogli zapewnić wyżywienie sobie i swoim rodzinom, poświęcając na zbieractwo i łowiectwo 3-4 godziny dziennie. Dzisiaj mamy znacznie większe potrzeby, ale też dysponujemy znacznie lepszymi narzędziami, więc 4‑godzinny dzień pracy jest w pełni uzasadniony. Takie rozwiązanie oczywiście zwiększyłoby znacznie popyt na pracę i koszty pracy, tym samym zmniejszając dysproporcje dochodowe, zatem spotka się z pewnością ze znacznym oporem przedsiębiorców i polityków. Jednak 8‑godzinny dzień pracy też nie został wprowadzony bez oporów.
Andrzej P. Wierzbicki
* Dzieje się tak już obecnie w komputerach podłączonych do sieci. Np. automatyczna instalacja uzupełnień oprogramowania to doskonała okazja do zebrania danych o zachowaniach użytkownika komputera, zaś wielkie wyszukiwarki Internetowe konstruują model zachowań użytkownika, tłumacząc to dążeniem do lepszej usługi. W rzeczywistości dążą do lepszego dopasowania reklam do preferencji użytkownika.
Jest to druga część rozważań prof. Andrzeja Wierzbickiego na temat techniki. Pierwszą zamieściliśmy w numerze 4/2014 SN – Czym jest technika?
Tytuł i wytłuszczenia pochodzą od Redakcji.
- Autor: red.
- Odsłon: 4624
- Autor: Anna Leszkowska
- Odsłon: 70
Przez większą część nowożytnej historii nauka oznaczała wolność zadawania pytań. Dziś ta wolność zanika. Na uniwersytetach, w czasopismach i na platformach cyfrowych krytycy twierdzą, że naukowcy o odmiennych poglądach są usuwani z dyskursu publicznego.
Dwa problemy ujawniły tę transformację wyraźniej niż jakiekolwiek inne: zmiana klimatu i COVID-19.
W obu przypadkach złożone debaty sprowadzono do haseł – „nauka jest ustalona”, „zaufaj ekspertom”, „kieruj się nauką”. W rzeczywistości jednak „nauka” stała się marką – należącą do rządów, korporacji i instytucji medialnych, których interesy finansowe i polityczne zależą od konsensusu, a nie odkrycia. To, co kiedyś było procesem kwestionowania, zostało zastąpione kulturą posłuszeństwa. A tych, którzy odmawiają podporządkowania się, spotyka szybka kara: cenzura, wykluczenie zawodowe i publiczne upokorzenie.
Od dociekań do ideologii
Nauka, w najlepszym wydaniu, jest samokorygująca. Rozkwita dzięki kwestionowaniu, replikacji i rewizji. Jednak współczesny establishment naukowy – silnie zależny od finansowania państwowego i korporacyjnego – traktuje kwestionowanie jako dywersję.
Kiedy pracowałem w biurokracji klimatycznej – najpierw w brytyjskim Departamencie Energii i Zmian Klimatu, a później jako ekspert techniczny w Departamencie Ochrony Środowiska ONZ – widziałem, jak po cichu zarządzano naukową niepewnością. Motywacja była zawsze ta sama: uprościć przekaz, wyolbrzymić zagrożenie, stłumić wątpliwości.
Sprzeciw był nie tylko niewygodny, ale i niebezpieczny. Kariery zależały od podtrzymywania iluzji konsensusu. To był początek tego, co nazywam „ nauką dekretowaną ” – gdzie prawda nie jest odkrywana, lecz ogłaszana.
Credo klimatyczne
Nigdzie nie jest to bardziej widoczne niż w nauce o klimacie. Międzyrządowy Zespół ds. Zmian Klimatu (IPCC) został powołany do badania wpływu człowieka na globalne temperatury, ale jego użyteczność polityczna wkrótce przyćmiła misję naukową.
W połowie lat 90. dowody, które nie pasowały do narracji o emisji dwutlenku węgla, były po cichu minimalizowane. Sygnatariusze Deklaracji Wywiadu Klimatycznego (CLINTEL) twierdzili, że nie ma kryzysu klimatycznego wywołanego przez CO₂ . Jednak ich ustalenia rzadko kiedy ujrzały światło dzienne.
Rozważmy przypadek australijskiego geofizyka morskiego, dr. Petera Ridda, który został zwolniony z Uniwersytetu Jamesa Cooka po publicznym zakwestionowaniu badań, które wykazały poważne szkody wyrządzone Wielkiej Rafie Koralowej przez zmiany klimatu. Ridd utrzymywał, że został ukarany za sprzeciw akademicki, podczas gdy uniwersytet argumentował, że naruszył zasady postępowania w miejscu pracy. Spór toczył się w wielu sądach i ostatecznie przerodził się w ogólnokrajową debatę na temat wolności akademickiej.
W Stanach Zjednoczonych klimatolog Judith Curry — była kierowniczka Wydziału Nauk o Ziemi i Atmosferze na Georgia Tech — zdecydowała się na wcześniejszą emeryturę, twierdząc, że środowisko akademickie stało się wrogo nastawione do naukowców kwestionujących konsensus.
W 2014 roku znany meteorolog Lennart Bengtsson zrezygnował z pracy w Global Warming Policy Foundation, think tanku sceptycznie nastawionym do polityki klimatycznej, po tym jak koledzy ostrzegli go, że jego zaangażowanie może zaszkodzić jego karierze. Bengtsson określił reakcję jako „surową” i „w stylu McCarthy’ego”.
Kiedy klimatolodzy o odmiennych poglądach, tacy jak dr Nils-Axel Mörner – niegdyś przewodniczący Komitetu ds. Poziomu Morza IPCC ONZ – kwestionowali alarmistyczne prognozy, byli oni oczerniani lub ignorowani. W dzisiejszym dyskursie kwestionowanie ortodoksji klimatycznej nie oznacza debaty, lecz herezję.
W książce Climate CO₂ Hoax analizuję dowody naukowe obalające twierdzenia o wpływie CO₂ na klimat – oraz zwodniczy program polityczny ONZ promowany w ramach Celów Zrównoważonego Rozwoju.
Podręcznik pandemii – kontrowersje wokół PCR, liczby zgonów i izolacji wirusa
Potem nadszedł rok 2020. „Kryzys” związany z COVID-19 przyspieszył to, co już zapoczątkowała polityka klimatyczna: połączenie nauki i władzy państwowej. Rządy na całym świecie przejęły bezprecedensową kontrolę nad wypowiedziami, medycyną i ruchem – wszystko w imię „zdrowia publicznego”. Wielkie firmy technologiczne egzekwowały nową ortodoksję, cenzurując na bieżąco lekarzy i badania o odmiennych poglądach.
W mojej książce z 2023 roku No Worries No Virus opublikowałem luki i nieścisłości w oficjalnej narracji na temat COVID-19 — i zastanawiałem się, czy pewne aspekty mogły zostać zaplanowane lub ustrukturyzowane z wyprzedzeniem, aby służyć interesom politycznym i korporacyjnym.
Obawy dotyczące metodologii PCR nie ograniczały się do mediów społecznościowych. Niektóre recenzowane artykuły krytyczne dotyczące testów PCR miały trudności z uzyskaniem widoczności na głównych platformach, a w co najmniej jednym przypadku publikacja doprowadziła do formalnej ponownej oceny metodologii stosowanej w powszechnie przyjętym protokole. Pod koniec 2020 roku czasopismo Eurosurveillance ogłosiło, że dokonuje ponownej oceny wpływowego artykułu Cormana i Drostena dotyczącego PCR, po tym jak wielu naukowców przesłało
recenzowaną krytykę, w której zarzucono wady metodologiczne i niezwykle szybką akceptację (Retraction Watch, 7 grudnia 2020 r.).
Krytycy twierdzą, że tysiące pracowników służby zdrowia zostało uciszonych przez strach i zastraszanie. Na przykład w Irlandii dr Pat Morrissey został zwolniony po publicznej krytyce polityki rządu w związku z COVID-19. Potępił on, jak to określił, „megalomańskich biurokratów”, ostrzegając, że „istnieje bardzo niewiele miejsca na wolność słowa – a ci, którzy się wysilają, narażają się na utratę wolności słowa”. Przesłanie było jednoznaczne: istnieje tylko jedna nauka i jest to nauka państwa.
Byłem jednym z wielu badaczy, którzy twierdzili, że zapisy eksportowe wskazują na duże ilości zestawów testowych oznaczonych na COVID-19, które przemieszczały się przez granice na długo przed oficjalnym ogłoszeniem pandemii COVID-19 w 2019 roku. Z zapisów handlowych wynikało, że zestawy testowe związane z COVID-19 były wymieniane w bazach danych przed oficjalną identyfikacją wirusa. Krytycy twierdzą, że te wpisy były wynikiem wstecznej aktualizacji kodów towarowych – jednak moment ten wciąż budzi wątpliwości analityków co do tego, jak rozpoczęło się wczesne planowanie instytucjonalne.
W moich badaniach odnalazłem również ćwiczenia symulujące pandemię, prowadzone od 1999 r., a także scenariusz Lockstep Fundacji Rockefellera z 2010 r. – oba ćwiczenia promowały autorytarną kontrolę pod przykrywką ochrony zdrowia publicznego.
Kontrowersje budziły również statystyki zgonów z powodu COVID-19. Opierając się na oficjalnych dokumentach i opiniach ekspertów, zbadałem, jak systemy raportowania często klasyfikowały zgony jako związane z COVID-19 wyłącznie na podstawie pozytywnego wyniku testu. Na przykład, w dokumencie rządowym Irlandii Północnej, który pobrałem z sierpnia 2020 roku, stwierdzono, że zgony były liczone, jeśli u zmarłego w ciągu 28 dni uzyskano pozytywny wynik testu, „niezależnie od tego, czy przyczyną zgonu był COVID-19”.
Podobne podejście potwierdzono w Republice Irlandii. Na posiedzeniu Specjalnej Komisji Rządowej ds. COVID-19 w 2020 roku, poseł Michael McNamara zakwestionował decyzję Zarządu Służby Zdrowia (Health Service Executive), który przyznał, że zgony rejestrowano jako zgony z powodu COVID-19, gdy wynik testu był pozytywny – nawet w przypadkach takich jak zawały serca czy wypadki.
W Stanach Zjednoczonych, dr Ngozi Ezike, dyrektor ds. zdrowia publicznego stanu Illinois , wyjaśniła, że każda osoba umierająca z pozytywnym wynikiem testu była liczona jako zgon z powodu COVID-19, nawet jeśli oczywista była inna przyczyna. Jak wyjaśniła: „technicznie rzecz biorąc, nawet jeśli zmarło się z wyraźnej, alternatywnej przyczyny, ale jednocześnie miało się COVID-19, to i tak jest to odnotowane jako zgon z powodu COVID-19”. Raport CDC z sierpnia 2020 roku wykazał również, że większość zarejestrowanych zgonów z powodu COVID-19 wiązała się z innymi, poważnymi schorzeniami. Krytycy twierdzą, że dowodzi to, że zgony „z” COVID-19 nie zawsze można było odróżnić od zgonów „na” COVID-19.
Co więcej, wspominanie o skutkach ubocznych szczepionek może skutkować banem, o czym przekonałem się osobiście, gdy zostałem zbanowany na Twitterze za publikowanie publicznie dostępnych danych na temat skutków ubocznych.
Poza debatami na temat liczenia, niektórzy naukowcy posunęli się dalej, kwestionując podstawy samej wirusologii. Mała, ale głośna grupa naukowców, w tym dr Stefan Lanka, dr Claus Köhnlein, dr Thomas Cowan i dr Sam Bailey, kwestionuje konwencjonalną wirusologię. Twierdzą, że istnienie wirusów takich jak SARS-CoV nie zostało naukowo udowodnione w sposób, w jaki twierdzi konwencjonalna wirusologia. Kwestionują, czy SARS-CoV-2 został ostatecznie wyizolowany zgodnie ze standardami, które ich zdaniem są wymagane, sugerując, że obecne testy mogą wychwytywać fragmenty ludzkiego materiału genetycznego, a nie zupełnie nowego wirusa. Lanka twierdzi, że współczesna wirusologia obrała zły kierunek w latach 50. i od tego czasu jest utrwalana dla zysku. Analizuję ich pracę szczegółowo w książce No Worries No Virus . Ich stanowisko nie jest akceptowane przez głównego nurtu wirusologów, którzy kwestionują te twierdzenia.
Podsumowując, moje badania sugerują, że to, co społeczeństwo postrzegało jako stan zagrożenia zdrowia, funkcjonowało raczej jako system kontroli kształtowany przez interesy polityczne, wadliwą naukę i znaczące bodźce finansowe. Z mojej perspektywy, prawdziwa historia COVID-19 dotyczyła nie tyle medycyny, co władzy. Cenzura instytucjonalna tłumiła głosy sprzeciwu – w tym mój własny – po tym, jak zostałem zawieszony w mediach społecznościowych za udostępnianie dokumentów przetargowych, które zdawały się wskazywać na wcześniejsze planowanie postępowania w przypadku urazów poszczepiennych.
Kryzys duchowy kryjący się za „nauką dekretową”
Głębszy problem ma charakter nie tylko polityczny, ale i filozoficzny. Współczesna technokracja zastąpiła prawdę materializmem, a wiarę w postęp wiarą w kontrolę. Moje badania wskazują, że różne obszary „nauki” establishmentu – od nauki o klimacie po politykę pandemiczną – zostały nagięte do służenia zyskowi, korporacyjnym planom i ideologii, wykluczając jednocześnie Boga, świadomość i sens.
Krytycy argumentują, że oddzielając naukę od szerszych zagadnień filozoficznych czy duchowych, współczesne instytucje kładą nacisk na dane, ignorując głębsze kwestie znaczenia i prawdy. W tym ujęciu wyłonił się rodzaj technokracji – takiej, w której instytucje naukowe mogą sprawiać wrażenie mniej badaczy rzeczywistości, a bardziej strażników ugruntowanej doktryny. Prawdziwa nauka dąży do zrozumienia; fałszywa nauka dąży do posłuszeństwa.
Jeśli chcemy przywrócić prawdziwą dociekliwość, musimy odzyskać nie tylko wolność intelektualną, ale także pokorę moralną i duchową — uznanie, że prawda nie może być własnością państwa, rynku ani algorytmu.
Maszyny cenzury
Ta transformacja nie nastąpiła przypadkowo. W 2023 roku raporty śledcze ujawniły istnienie tego, co naukowcy nazywają obecnie Kompleksem Przemysłowej Cenzury – rozległego sojuszu agencji rządowych, ośrodków analitycznych, uniwersytetów i korporacji technologicznych.
Ujawnienia w „Twitter Files” wskazują, że agencje takie jak Departament Bezpieczeństwa Krajowego i CDC współpracowały z firmami mediów społecznościowych w celu oznaczania, obniżania rangi lub usuwania „dezinformacji”. Według doniesień, celem ataków byli często certyfikowani eksperci, dziennikarze i zwykli obywatele, których poglądy odbiegały od oficjalnej polityki.
System ten działa teraz globalnie, pod nowymi nazwami i z nowym finansowaniem – często uzasadniając to potrzebą zwalczania „dezinformacji klimatycznej” lub „dezinformacji medycznej”. Nie jest to cenzura w dawnym rozumieniu zakazywania lub palenia książek; dzisiejsze tłumienie często przybiera formę ograniczenia widoczności – algorytmów, które obniżają rangę lub ukrywają odmienne poglądy, aż stają się trudne do odnalezienia. To forma cyfrowego wymazywania, w której odmienne poglądy po prostu przestają istnieć.
Ekonomia posłuszeństwa
Dzisiejsze przedsięwzięcia naukowe często opisuje się jako wielomiliardowy system, w którym kariery, finansowanie i publikacje często zależą od trzymania się przyjętych narracji – finansowanie i awans często nagradzają przestrzeganie zasad, a nie otwartą debatę. Naukowcy, którzy kwestionują dogmaty dotyczące klimatu lub pandemii, ryzykują swoją karierę, finansowanie i źródła utrzymania.
Rządy finansują obecnie badania, które potwierdzają politykę, a nie ją podważają – dostarczając dowodów opartych na polityce zamiast polityki opartej na dowodach. Również korporacje wykorzystują „naukę” jako broń dla zysku: firmy farmaceutyczne wykorzystują ją do uciszania kontroli, a giganci energetyczni do uzasadniania rynków emisji dwutlenku węgla, które wzbogacają elity i obciążają biedniejsze kraje.
Retoryka „ratowania planety” czy „ochrony życia” może maskować to, co krytycy twierdzą, że ostatecznie jest przekazaniem władzy z rąk społeczeństwa w ręce klasy technokratycznej. Ta dynamika rozwija się, gdy rządy przeznaczają ogromne sumy z publicznych pieniędzy na walkę ze zmianami klimatu i pandemiami. Firmy z branży energii odnawialnej otrzymały znaczne dotacje, a producenci farmaceutyków, tacy jak Pfizer i Moderna, odnotowali rekordowe przychody w czasie pandemii.
Kiedy prawda staje się zdradą
Moralizowanie nauki zamieniło sprzeciw w grzech. Sceptyk klimatyczny nie jest „w błędzie” – jest „negacjonistą”. Lekarz kwestionujący nakazy nie „dyskutuje” – on „szerzy dezinformację”. To język religii, a nie rozumu. Nauka bez sprzeciwu wcale nie jest nauką; to propaganda. Ale cena milczenia w teraźniejszości jest ogromna: całe pokolenie uczy się, że konformizm równa się integralności.
Przywracanie wolności naukowej
Odpowiedzią nie jest odrzucenie nauki, lecz jej odpolitycznienie. Zaczyna się to od przejrzystości: otwartych danych, otwartej debaty i otwartego finansowania. Badania nie powinny być filtrowane przez biurokratyczne agendy ani interesy korporacyjne. Niezależne czasopisma, zdecentralizowane platformy i obywatelskie badania naukowe oferują drogę naprzód – jeśli społeczeństwo tego zażąda. Nauka należy do wszystkich, a nie do technokratów, którzy zarządzają jej narracją. Prawdziwy postęp w dziedzinie ochrony środowiska i medycyny nigdy nie będzie wynikał z cenzury, ale z ciekawości – tej samej cechy, która zbudowała samą cywilizację.
Nowa era technokratycznej wiary
Wkraczamy w erę, w której „wiara w naukę” zastąpiła wiarę w Boga – ale bez pokory i łaski. Wielu obawia się, że niewielka liczba platform technologicznych ma obecnie niezwykłą moc kształtowania tego, jakie informacje są widoczne – skutecznie wpływając za pomocą algorytmów na to, które punkty widzenia są promowane, a które ignorowane.
Jeśli nie przywrócimy wolności kwestionowania – czy to w kwestii emisji dwutlenku węgla, COVID-19, czy jakiegokolwiek przyszłego kryzysu – znajdziemy się nie w gospodarce opartej na wiedzy, lecz w więzieniu informacyjnym. Dla krytyków, część instytucjonalnej nauki funkcjonuje teraz niemal jak nowy świecki autorytet – taki, który kładzie nacisk na uległość i kontrolę. A jej heretycy są, po raz kolejny, ostatnimi obrońcami rozumu.
Mark Keenan
Mark Keenan jest byłym naukowcem w brytyjskim Departamencie Energii i Zmian Klimatu oraz byłym urzędnikiem ds. ochrony środowiska w Organizacji Narodów Zjednoczonych. Pisze o zbieżności nauki, władzy i ideologii.
Więcej - https://www.globalresearch.ca/dissent-censorship-new-technocracy/5905618

