Wzmacniacz kwantowy Einsteina - to proste
- Autor: Anna Leszkowska
- Odsłon: 22
Albert Einstein swoją publikacją (On the quantum theory of radiation, Phys. Z. p. 121,1917) na temat wzmacniacza kwantowego zainicjował budowę lasera. Trochę to jednak potrwało. Pierwszy wzmacniacz kwantowy działający na znacznie niższych częstotliwościach (mikrofalach) nazwany maserem został zbudowany przez Charlesa Townesa dopiero w 1954 roku, zaś laser - przez Th. Maimana w 1960 roku. Dlaczego tak późno? Był to dość niespokojny czas na świecie. Gdy tylko skończyła się pierwsza wojna światowa, światowy kryzys gospodarczy doprowadził do następnej, znacznie gorszej w skutkach, w wyniku której świat podzielił się na wrogie obozy rozdzielone „żelazną kurtyną”. Było co robić.
Była jeszcze inna przyczyna - techniczna. Uczeni mieli już wzmacniacze i je stosowali. Oczywiście nie nazywały się kwantowe. Kwantowymi nazwano te drugie, by nadać im właściwy sens i odróżnić od już istniejących. Nazwijmy te pierwsze, istniejące, klasycznymi.
Pewno będziemy musieli jeszcze przywołać dodatkowe fakty, by zrozumieć całość zagadnienia. Ze światłem ludzkość jest zapoznana od wieków. Natura wyposażyła nas w odpowiednie narządy do reakcji na światło – oczy. Poznaliśmy ich budowę i nauczyliśmy się je naśladować, budując aparaty fotograficzne i inne przyrządy optyczne. Może się to wydać dziwne, ale przez większość czasu korzystania z dobrodziejstw światła nie zdawaliśmy sobie sprawy czym ono jest. Nie będę wywoływał „wilka z lasu” i twierdził, że trochę z tego jeszcze nam pozostało i przejdę dalej.
Nasz rodak Andrzej Dragan w swojej książce Kwantechizm nazwał nas „nagimi małpami” i uznał, że w czasie ostatnich 200 lat dokonaliśmy niebywałego postępu intelektualnego w rozumieniu wszechświata. Przywołajmy zatem niektóre z poznanych faktów. Na początek dwa, wyjątkowo tu przydatne.
Teoria pola elektromagnetycznego (James C. Maxwell, 1861) i odkrycie elektronu (Joseph J. Thomson, 1897). Głównie te, ale z pewnością także dalsze odkrycia upewniły nas w przeświadczeniu, że światło jest taką samą falą elektromagnetyczną jaką wykorzystuje się np. w radiu, zaś prąd elektryczny to ruch elektronów. Elektronów mamy pełno w materii, tylko trzeba umieć do nich sięgnąć i z nich korzystać.
Wzmacniacze te klasyczne też już były. Umieliśmy także wytwarzać fale elektromagnetyczne, przesyłając do anten zmienne, o odpowiedniej częstotliwości (często mawialiśmy „wielkiej częstotliwości” – w.cz.), prądy elektryczne.
Wzmacniacze klasyczne to były wzmacniacze tego prądu wielkiej częstotliwości. Były one niezbędne do wytwarzania – generacji - tych prądów, a te potrzebne do emisji fal elektromagnetycznych. Generatorami sygnałów elektrycznych były te wzmacniacze, które dostarczały dla siebie sygnał do wzmacniania. Mówimy, że wyposażone są w układy dodatniego sprzężenia zwrotnego. Jednak wzmacniacze te miały swoje niedostatki i dlatego wzmacniacz kwantowy i umiejętność jego budowy są tak ważne.
Do generacji prądu w. cz. stosowało się zawsze, także i dziś lampy elektronowe i tranzystory. Mamy w nich do czynienia ze swobodnymi elektronami, które przyśpieszane w stałym polu elektrycznym powiększają swoją energię tj. są wzmacniane. Niestety, elektrony mają niewielką, ale mierzalną masę. Związana z nią bezwładność ogranicza chwilową szybkość ruchu, jaką można im nadać, a to przekłada się na maksymalną częstotliwość generowanych sygnałów. To jest wspomniana wada tych wzmacniaczy i generatorów.
Wymyślano różne sposoby radzenia sobie z bezwładnością elektronów. Czasami udawało się w konkretnych rozwiązaniach nieznaczne powiększać maksymalną częstotliwość, ale zupełnie wykluczyć bezwładności elektronów nie sposób. Generatory prądu w. cz. nie mogły mieć większych częstotliwości niż kilkadziesiąt miliardów zmian (cykli) w czasie jednej sekundy. Za graniczną uznaje się częstotliwość 100 GHz (1011 Hz). To oczywiście bardzo duża wartość i w większości zastosowań elektroniki w telekomunikacji i radiolokacji nawet obecnie jest wystarczająca. Do częstotliwości optycznych jest jej jednak nadal bardzo daleko: jeszcze co najmniej trzy – cztery rzędy wielkości. Jeżeli kwantowy wzmacniacz Einsteina byłby w stanie tę granicę przekroczyć, byłby pożyteczny i pożądany.
Na jakiej zasadzie działa wzmacniacz kwantowy? Do wyjaśnienia sobie tego nie wystarczy sięgnąć tylko do wspomnianej już pracy A. Einsteina. Powinniśmy zapoznać się z nazwiskiem Maxa Plancka, którego przedstawiłem w felietonie Po drugiej stronie lustra i prac związanych ze statystyką obsadzeni stanów energetycznych Ludwika Boltzmanna.
Znana materia zbudowana jest z około stu różnych pierwiastków, a ich elementarne składniki – atomy - z różnej liczby elementów znanych jako protony i neutrony oraz elektronów w liczbie równej protonom. Liczba neutronów może być zmienna, co wpływa na rodzaj izotopu danego pierwiastka. Ponieważ protony mają dodatni ładunek elektryczny, zaś elektrony taki sam co do wielkości, ale ujemny, atomy są elektrycznie obojętne. Można jednak w sposób wymuszony zmieniać liczbę elektronów chmury elektronowej atomu, tworząc w ten sposób dodatnie lub ujemne ich jony.
W zależności od tego, z jakim pierwiastkiem mamy do czynienia liczba protonów, a więc i elektronów się zmienia. Elektrony w powłoce elektronowej atomów mogą zajmować z góry określone, dopuszczalne położenia. Może precyzyjniej będzie mówić, że odpowiedniej wartości energii potencjalnej atomu, jonu lub ich połączeń (molekuły) odpowiada stosowna konfiguracja ich powłoki elektronowej. Zmiana konfiguracji powłoki z reguły związana jest ze zmianą (pozyskaniem lub utratą) odpowiedniej porcji energii. Mówimy „porcji energii”, gdyż konfiguracje powłoki elektronowej w atomach są z góry określone i innych tworzyć nie mogą.
W rzeczywistości mamy do czynienia z ciągłą przemianą energii atomów. Wiadomo, że w przestrzeni istnieje pełno fotonów. Jeżeli energia któregoś z nich jest zgodna energią przemiany powłoki elektronowej, zostanie pochłonięty, a atom przejdzie w stan wzbudzony do wyższej energii potencjalnej.
Mogą być jeszcze inne, mechaniczne źródła wzbudzania atomów. Ciepło jest niczym innym jak ruchem ośrodka materialnego. Jeżeli jest to gaz (ewentualnie para) lub ciecz, nazywany jest ruchami Browna. W przypadku ciał stałych będą to drgania atomów wokół ich położeń centralnych. W czasie zderzeń cząstek nawet część energii kinetycznej jednej z nich może być przekazywana innym powodując ich wzbudzanie.
Wyobraźmy sobie, że obserwujemy stan wzbudzenia wybranej grupy cząstek (atomów, jonów, molekuł), którą się szczególnie interesujemy. Nazwijmy ją grupą elementów kwantowych lub cząstkami aktywnymi. Wtedy pozostałe, tworzące ośrodek, możemy traktować jako pojemny energetycznie termostat. Ma on niezmienną temperaturę; mimo, że z niego możemy czerpać niewielkie ilości energii lub jej niewielki nadmiar termostatowi przekazywać.
Ludwik Boltzman zajmował się zachowaniem energii potencjalnej dostatecznie licznej grupy takich wybranych cząstek kwantowych poddanych oddziaływaniu termostatu. Jeżeli oddziaływanie trwa dostatecznie długo, osiągany zostaje stan stacjonarny (równowagi termodynamicznej). Polega on na tym, że liczba cząstek (N) znajdujących się w stanach o coraz wyższej energii (E) wykładniczo maleje. Można to zapisać w dość prostej postaci zależności matematycznej, ale my nie będziemy tego robić. Postaramy się za to, znając powyższą ogólną zasadę, podać zasadnicze własności takiego zespołu wybranych cząstek:
1. Każdy taki zespół cząstek ma najniższy stan energetyczny często nazywany stanem podstawowym;
2. W najniższym stanie podstawowym znajduje się największa liczba cząstek;
3. W każdym wyższym stanie energetycznym znajduje się coraz mniejsza liczba cząstek. Im większa różnica energii pomiędzy rozpatrywanymi stanami, tym większa różnica cząstek, jaka w tych stanach się znajduje.
4. Każdy stan wzbudzony (o energii wyższej od podstawowego) jest nietrwały. Oznacza to, że cząstka wzbudzona do tego stanu, prędzej albo później, w sposób niekontrolowany, samoistny ten stan opuści, przechodząc do jednego ze stanów niższych. Związana jest z tym emisja energii bądź kinetycznej (fononu), bądź elektromagnetycznej (fotonu). W drugim przypadku mówimy o fotonie emisji spontanicznej. Tę własność stanu (poziomu) energetycznego charakteryzuje wielkość „τ ”- nazywana czasem życia. Jest to czas, po którym z określonym prawdopodobieństwem cząstka powinna dany stan energetyczny opuścić i foton emisji spontanicznej zostać wygenerowany.
Tak docieramy do teorii wzmacniacza kwantowego Einsteina wyłożonej we wspomnianej na wstępie pracy. Rozpatrywane jest w niej działanie fotonów z zewnętrznego źródła na wybraną parę stanów energetycznych odpowiedniego zespołu elementów kwantowych. Działanie będzie skuteczne, gdy energia fotonu będzie równa różnicy energii jednego ze stanu wyższego (Ew) i niższego (En). Pozwólmy sobie tą równość zapisać: hν = Ew–En.
Zgodnie z teorią L. Boltzmanna, cząstek w niższym stanie energetycznym jest zawsze więcej i na nie głównie będą trafiać i z nimi oddziaływać fotony oświetlające ośrodek. Jak wiadomo, zostaną one wtedy pochłonięte, a cząstki, na które działały będą wzbudzone do stanu energetycznego wyższego.
W swojej pracy dotyczącej wzmacniacza kwantowego A. Einstein zajął się szczegółowo drugim przypadkiem, gdy foton oddziałuje z cząstką będącą w stanie wzbudzonym. Zgodnie z jego teorią, dochodzi wtedy do zjawiska, które nazwał emisją stymulowaną (wymuszoną). Cząstka przechodzi w niższy stan energetyczny i zostanie wygenerowany foton wymuszony. Cechą charakterystyczną tej emisji jest identyczność fotonów wymuszającego i wymuszonego. Pamiętając, że foton jest falą, wspomniana identyczność fotonów oznacza identyczne częstotliwości obydwu fal, kierunki ich propagacji, jednakową polaryzację, a poza tym będą one miały zgodne fazy.
Biorąc powyższe pod uwagę należy uznać, że fala wymuszająca zostaje powiększona, wzmocniona.
Mamy zatem do czynienia albo z tłumieniem (działanie na cząstki na niższym poziomie energetycznym), albo ze wzmocnieniem (działanie na cząstki na poziomie energetycznym wyższym). Sumaryczny wynik oddziaływania jest różnicą aktów pochłaniania i aktów emisji wymuszonej. Będzie on zatem proporcjonalny do różnicy cząstek w tych stanach
ΔN = Nw–Nn.
Zgodnie ze statystyką Boltzmanna w stanie ustalonym zawsze na poziomie niższym jest więcej cząstek niż na wyższym: Nn>Nw. Różnica (ΔN) jest zatem ujemna (przeważają akty pochłaniania) i ośrodek w swej masie jest tłumiący.
Staje się jasne, kiedy będziemy mogli mieć do czynienia z nowym typem wzmacniacza, który nazwany został w literaturze fachowej wzmacniaczem kwantowym. Należy odpowiednio dobrać ośrodek (typ cząstek), na który będzie oddziaływać fala elektromagnetyczna, wybrać dwa stany energetyczne pomiędzy którymi realizowane będą przejścia i odpowiednio pobudzając (pompując) ośrodek doprowadzić do sytuacji, by w stanie energetycznym wyższym znajdowało się więcej cząstek niż w stanie energetycznym niższym,
ΔN>0
Nazywamy to inwersją obsadzeń. Im ΔN jest większe tym lepiej. Proste, prawda?
Byli tacy, którzy duże opóźnienie pomiędzy opracowaniem teorii wzmacniacza kwantowego, a budową pierwszych urządzeń praktycznie realizujących tą ideę upatrywali w trudnościach zapewnienia inwersji obsadzeń ośrodka. Prędzej jednak czy później „nagie małpy” poradziły sobie z problemem i lasery stały się faktem.
Zdzisław Jankiewicz
Recenzje a konflikt interesów
- Autor: Anna Leszkowska
- Odsłon: 26
W latach 2020–2022 Pharma zapłaciła 1,06 miliarda dolarów recenzentom w głównych czasopismach medycznych.
Jak wynika z danych opublikowanych w październiku 2024 w Journal of the American Medical Association (JAMA), w latach 2020–2022 przemysł farmaceutyczny zapłacił recenzentom głównych czasopism medycznych 1,06 miliarda dolarów.
Płatności na rzecz recenzentów czasopism The BMJ, JAMA, The Lancet i The New England Journal of Medicine obejmowały 1 miliard dolarów na rzecz osób fizycznych lub ich instytucji za badania oraz 64,18 miliona dolarów na pokrycie ogólnych opłat, w tym podróży i posiłków. Opłaty za konsultacje i wystąpienia wyniosły odpowiednio 34,31 mln dolarów i 11,80 mln dolarów.
Spośród prawie 2000 przeanalizowanych recenzentów medycznych ponad połowa otrzymała co najmniej jedną płatność od branży w latach 2020–2022.
Autorzy badania stwierdzili, że choć zbadano konflikty interesów między redaktorami czasopism i autorami, konflikty interesów między recenzentami mogły być trudniejsze do oceny.
„Tradycyjnie nieprzejrzysty charakter” recenzji naukowych utrudnia ocenę recenzentów „pomimo ich kluczowej roli w publikacjach akademickich” – piszą autorzy.
Jak wynika z badania JAMA, typowe zasady dotyczące konfliktu interesów stosowane przez większość czasopism wobec autorów – wymagające od nich jedynie ujawnienia konfliktu interesów – zazwyczaj nie mają zastosowania do recenzentów.
Chociaż redaktorzy czasopism pytają o te konflikty, rzadko ujawniają je publicznie – mimo że wielu recenzentów czołowych czasopism może mieć powiązania z branżą „ze względu na swoją wiedzę akademicką” – piszą autorzy.
Doktor Karl Jablonowski, starszy naukowiec w Children's Health Defense, powiedział The Defender, że proces naukowy jest zagrożony, gdy recenzenci są zobowiązani wobec Wielkiej Farmacji, a nie społeczności naukowej.
„W pobliżu procesu publikacji nie powinny znajdować się żadne konkurencyjne ani konkurujące interesy” – stwierdził, dodając:
„Nauka jest wspólnotą. Potrzebujemy siebie nawzajem, aby modyfikować pomysły i przekształcać je w lepsze pomysły, krytykować, ulepszać, inaczej nie pójdziemy do przodu. Publikacja naukowa to sposób, w jaki naukowcy komunikują się ze sobą. To jedyna rzecz, której nie można dotknąć, która jest zbyt cenna i zbyt ważna, aby w nią ingerować.
„Jako naukowcy mamy fundamentalne obowiązki wobec społeczności . Obejmuje to zapewnienie, że nasza jedyna uświęcona tradycją metoda wzajemnego przekazywania pomysłów jest bezinteresowna i wolna od konfliktów interesów”.
Dr. Adriane Fugh-Berman, dyrektor PharmedOut , projektu Centrum Medycznego Uniwersytetu Georgetown, który kształci lekarzy w zakresie branżowych praktyk marketingowych, powiedziała MedPage Today, że firmy farmaceutyczne są największymi nabywcami artykułów preprintowych i intensywnie reklamują się w magazynach, co „wpływa na to, co jest publikowane .”
„Oczywiście, artykuły krytyczne wobec leków są rzadziej publikowane w czasopismach wspieranych przez firmy farmaceutyczne, których redaktorów i recenzentów wspierają firmy farmaceutyczne” – stwierdziła.
Autorzy badania dokonali identyfikacji recenzentów na podstawie list recenzentów poszczególnych czasopism z 2022 roku. Przeszukali bazę danych otwartych płatności Centers for Medicare & Medicaid Services pod kątem płatności na rzecz asesorów.
Producenci leków mają obowiązek zgłaszania płatności na rzecz lekarzy do bazy danych, która została utworzona przez prawodawców w 2013 roku, aby rozwiać rosnące obawy społeczne dotyczące wpływu Big Pharma na lekarzy.
Autorzy listu badawczego JAMA ograniczyli swoją analizę do lekarzy mieszkających w USA, ponieważ tylko oni są wymienieni w Otwartych Płatnościach. Spośród 7021 recenzentów 1962 było praktykującymi lekarzami i dlatego można je było przeszukiwać. Spośród nich 145 przeprowadziło recenzje dla więcej niż jednego czasopisma.
Ogólnie rzecz biorąc, autorzy ustalili, że 1155 recenzentów uwzględnionych w ich badaniu otrzymało płatności branżowe w latach 2020–2022, przy czym większość płatności trafiła do lekarzy i ich instytucji w celu finansowania badań.
Ponad połowa recenzentów przyjęła płatności za podróże, wystąpienia i doradztwo. Średnia wartość tych bezpośrednich płatności niezwiązanych z badaniami wynosiła 7614 dolarów.
Autorzy stwierdzili, że w badaniu mogło dojść do niedoszacowania płatności branży, ponieważ wykluczono z niego lekarzy i recenzentów spoza USA, którzy nie są praktykującymi lekarzami. Nie uwzględniono w nim płatności od innych podmiotów mogących powodować konflikt interesów, w tym od firm ubezpieczeniowych i technologicznych.
„Potrzebne są dodatkowe badania i przejrzystość w zakresie płatności branżowych w procesie wzajemnej oceny” – podsumowali naukowcy.
Źródło: https://childrenshealthdefense.org/defender/pharma-paid-1-billion-reviewers-top-medical-journals/
Naukowe oszustwa
- Autor: Anna Leszkowska
- Odsłon: 22
Od Redakcji: Na tle polskiej afery związanej z „fabrykami” artykułów naukowych (paper mills), warto przypomnieć ujawnioną w ub. roku „produkcję” recenzji w wydawnictwie naukowym Willey.
Według doniesień australijskiej blogerki JoNova, 217-letnie wydawnictwo naukowe Wiley „zrecenzowało” ponad 11 000 artykułów, których nie uznano za fałszywe.( https://joannenova.com.au/2024/05/so-much-for-peer-review-wiley-shuts-down-19-science-journals-and-retracts-11000-fraudulent-or-gobblygook-papers/)
To nie oszustwo, to przemysł” – pisze blogerka. „Kto wiedział, że czasopisma akademickie to przemysł wart 30 miliardów dolarów?”
Według postu Novy, profesjonalne usługi oszukujące wykorzystują sztuczną inteligencję do tworzenia pozornie „oryginalnych” prac akademickich poprzez przestawianie słów. Na przykład terminy takie jak „rak piersi” przekształciły się w „niebezpieczeństwo dla piersi”, a „naiwny klasyfikator Bayesa” zmienił się w „naiwny Bayes”.
Podobnie w jednym z artykułów nazwano kolonię mrówek dziwaczną nazwą „podziemny, przerażający, pełzający stan”.
Niewłaściwe użycie terminologii rozciąga się na uczenie maszynowe, gdzie „losowy las” jest kapryśnie tłumaczony jako „nieregularne ostępy” lub „arbitralny las”.
Nova pisze, że co szokujące, dokumenty te poddawane są recenzowaniu bez rygorystycznego nadzoru ludzkiego, co pozwala na prześlizgnięcie się rażących błędów, takich jak przekształcanie „lokalnej średniej energii” w „normalną żywotność terytorialną”.
Wydawca Wiley (wydawnictwo naukowe o zasięgu światowym założone w 1807 roku) przyznał, że w wyniku oszukańczych działań 19 jego czasopism zostało tak skompromitowanych, że należy je zamknąć. W odpowiedzi branża opracowuje narzędzia sztucznej inteligencji do wykrywania tych podróbek, co jest koniecznym, ale przygnębiającym osiągnięciem.
Nova pisze :
Zgnilizna w Wiley zaczęła się kilkadziesiąt lat temu, ale została złapana, gdy firma wydała 298 milionów dolarów na egipskie wydawnictwo Hindawi. Można powiedzieć, że mamy nadzieję, że fałszywe dokumenty nie skrzywdziły żadnego dziecka, ale wiemy, że zła nauka już zabija ludzi. To, czego potrzebujemy, to nie „recenzowane” artykuły, ale rzeczywista debata na żywo, twarzą w twarz.
Dopiero gdy najlepsi z obu stron będą musieli odpowiedzieć na pytania, dzięki danym otrzymamy prawdziwą naukę:
„W marcu spółka ujawniła NYSE spadek przychodów z badań o 9 mln dolarów (13,5 mln dolarów) po tym, jak została zmuszona do „wstrzymania” publikacji tak zwanych czasopism „specjalnych” przez wydawnictwo w języku hindawi, które nabyła w 2021 r. 298 milionów dolarów (450 milionów dolarów). W oświadczeniu zauważono, że program w języku hindawi, który obejmował około 250 czasopism, został „tymczasowo zawieszony ze względu na obecność w niektórych wydaniach specjalnych artykułów skompromitowanych”.
Wiele z tych podejrzanych publikacji rzekomo dotyczyło poważnych badań medycznych, w tym badań lekooporności u noworodków z zapaleniem płuc i wartości skanów MRI w diagnostyce wczesnych chorób wątroby. Wśród czasopism objętych badaniem znalazły się: Disease Markers, BioMed Research International oraz Computational Intelligence and Neuroscience.
Problem staje się coraz bardziej palący. Niedawna eksplozja sztucznej inteligencji jeszcze bardziej podnosi stawkę. Badacz z University College London odkrył niedawno, że ponad 1 procent wszystkich artykułów naukowych opublikowanych w zeszłym roku, czyli około 60 000 artykułów, zostało prawdopodobnie napisanych przez komputer.
W niektórych sektorach jest gorzej. Prawie co piąty artykuł z zakresu informatyki opublikowany w ciągu ostatnich czterech lat mógł nie być napisany przez człowieka” .
W Australii ABC opublikowało raport na ten temat, odzwierciedlając obawy związane ze spadkiem zaufania publicznego do uniwersytetów, które w coraz większym stopniu są postrzegane jako przedsiębiorstwa, a nie instytucje edukacyjne. Postrzeganie to jest podsycane incydentami, w których uniwersytety, kierując się zachętami finansowymi, przeoczają oszustwa akademickie.
Trzon społeczności naukowej jest skorodowany, zaostrzony przez jednostki takie jak Jednostka Naukowa ABC, która zamiast analizować wątpliwe badania, często ją chroni.
Ta ciągła degradacja wymaga przejścia od tradycyjnej wzajemnej oceny do rygorystycznych debat na żywo, zapewniających odpowiedzialność poprzez umożliwienie ludziom przedstawiania swoich racji w czasie rzeczywistym.
W grudniu 2023 r. czasopismo Nature opublikowało informację , że w 2023 r. wycofano ponad 10 000 artykułów, co stanowi nowy rekord.
Pełny wpis na blogu Nova można przeczytać tutaj .
Za: https://www.zerohedge.com/markets/trust-sciencethat-just-retracted-11000-peer-reviewed-papers
Inny tekst na ten temat: https://altershot.tv/naukowe/wsj-zalew-falszywej-nauki-wymusza-zamkniecie-wielu-czasopism
Kryzysowa kondycja uczelni
- Autor: Anna Leszkowska
- Odsłon: 32
Na temat kryzysu w różnych dziedzinach życia społecznego napisano dotąd całe biblioteki książek i artykułów. Wielu obserwatorów dochodzi obecnie do wniosku, że dotychczasowe reguły gry czy to w gospodarce, czy w polityce przestały mieć znaczenie. Dezorganizacja życia społecznego prowadzi do anomii i atrofii. Zjawisko to odzwierciedla stan umysłów ludzi odpowiedzialnych za organizację ładu społecznego. Panuje zamęt pojęciowy i poznawczy, pogłębia się deprecjacja rozumu i wyobraźni na rzecz mętnych pojęć postprawdy i postpolityki.
Sytuacje kryzysowe są immanentną cechą rozwoju i nie powinno nikogo dziwić, że raz na jakiś czas uświadamiają nam takie nagromadzenie napięć wokół jakichś podmiotów i problemów, iż dochodzi nieuchronnie do gwałtownego załamania dotychczasowych struktur i degradacji wartości. Logiczne prawidła ładu społecznego ulegają deformacji, a z czasem stają się w ogóle nieprzydatne do zrozumienia zachodzących procesów. Tak dzieje się także w odniesieniu do nauki uniwersyteckiej i szkolnictwa wyższego, które w ciągu trzech ostatnich dekad ulegały systematycznemu niszczeniu.
Zredukowanie procesów tworzenia i przekazywania wiedzy do „numerycznych wskaźników” prowadzi nie tylko do tłumienia niezależnej aktywności intelektualnej, ale i moralnego zepsucia ze względu na źle pojętą rywalizację mierzoną nie poprzez realne osiągnięcia, ale punkty, granty, miejsca w rankingach. W efekcie promuje się postawy osób niekoniecznie kreatywnych i odważnych w poszukiwaniach badawczych i dydaktycznych, ale sprytnych i cynicznie zaradnych, agresywnie rozpychających się i toksycznych wobec wszelkiej konkurencji.
Kryzys wymaga skupienia się na jego istocie, a nie na potocznych czy powierzchownych skojarzeniach załamania czy bankructwa dotychczasowych wzorów zachowań. Pojęcie to jest jednak nadużywane czy wręcz trywializowane. W odniesieniu do uniwersytetu inaczej przejawia się w sferze nauk humanistycznych i społecznych, a inaczej w ścisłych. W sferze życia uczelnianego kryzys przejawia się na różnych płaszczyznach, od sposobów zarządzania, poprzez stan badań, na dydaktyce kończąc. Ma też wymiar psychologiczny, dotyczący odporności zespołów studenckich i pracowniczych na różne wyzwania, wymagające asertywności i gotowości do poświęceń, w imię uczciwości i prawdy.
Skutki utowarowienia nauki
Gwałtowny wzrost współczynnika skolaryzacji na poziomie studiów wyższych (pod względem statystycznym, a nie jakościowym) wiązał się ze zmianami ustrojowymi w Polsce po 1989 roku. Żywiołowy rozkwit szkolnictwa niepublicznego, za którym nie nadążał wzrost liczebności kadry nauczającej, musiał wpłynąć negatywnie na jakość dydaktyki i badań. Pogoń pracowników za wyższymi zarobkami przy stałym niedoinwestowaniu i mizernych uposażeniach (tzw. wieloetatowość) pogrzebała szanse na utrzymanie wysokiego poziomu studiów. Nieuchronny stał się upadek autorytetu nauczycieli akademickich. Do tego doszły dziwaczne formy ograniczania inwencji twórczej poprzez sformalizowanie sylabusów, czyli zakresu przedmiotowego zajęć, ewaluację punktacyjną, czy narzucanie odgórnych abstrakcyjnych i biurokratycznych kryteriów kwalifikacji.
Uczelnie wyższe stopniowo traciły swoją tradycyjną tożsamość akademicką na rzecz kapitalistycznych zakładów produkcyjnych nastawionych na zysk, a nauka stała się towarem podlegającym komercjalizacji. Studia, które miały kiedyś charakter elitarny, stały się powszechnie dostępne za określoną cenę, choć przecież od czasów Platona wiadomo, że nie wszyscy młodzi ludzie mają odpowiednie predyspozycje umysłowe (psychiczne i intelektualne), aby skutecznie sprostać wymogom studiowania. Przywołując sienkiewiczowskiego Zagłobę, można pokusić się o parafrazę, że nie każdy ma wystarczająco dużo oleum w głowie.
Likwidacja eliminacji na studia poprzez egzaminy wstępne otworzyła uczelnie wyższe na młodzież nie tylko słabo przygotowaną do studiowania, ale często nieprzekonaną do takiej drogi zdobywania kwalifikacji. Drogi wymagającej samozaparcia, dyscypliny wewnętrznej, determinacji i wyrzeczeń. Za tym poszło poluzowanie kryteriów ocen postępów studiowania. Można było zaobserwować paradoks, że trudniej było wstąpić na uczelnię niż z niej „wylecieć”.
Przejście na egzaminy testowe i formalne zaliczenia zajęć spowodowały rzeczywistą utratę wpływu osobowości i charyzmy wykładowców na słuchaczy. Często przecież uczęszczało się na wykłady ze względu na estymę i sławę wykładowców, a nie świadomość treści wykładanego przez nich przedmiotu. Egzaminy ustne u wybitnych postaci to była kiedyś istna przygoda intelektualna, zapamiętana nieraz do „końca życia”. Pozwalała na indywidualizację kontaktu osobistego, szczerą wymianę opinii na tematy związane z rozumieniem przedmiotu nauczania, orientowanie się na przyszłe seminaria dyplomowe, a nawet wybór kariery akademickiej. Zetknięcie się z autorytetem naukowym na zajęciach i podczas egzaminów nobilitowało studentów, było powodem dumy, że poprzez kolejne „wtajemniczenia” stają się autentycznymi uczestnikami wspólnoty akademickiej.
Równanie w dół
Obecnie nikomu już nie zależy na przywróceniu wysokich standardów nauczania i egzekwowania wiedzy. W odniesieniu do wybitnych postaci nauki z poprzednich pokoleń obowiązuje swoista amnezja. Został zerwany wartościowy przekaz międzypokoleniowy. Modne jest nawet odcinanie się od pamięci o wybitnych poprzednikach, co ma związek z przypisywaniem ich do poprzedniej (niechlubnej) formacji ustrojowej, albo poprzez ich pryzmat z ryzykiem pomniejszenia zasług i osiągnięć dzisiejszej kadry naukowej.
Ze względu na rewolucję technologiczną mamy do czynienia z utożsamianiem wiedzy z informacją, przez co słuchacze tracą oparcie w argumentacji, ukształtowanej w długim procesie historycznym. Wiedza o przeszłości staje się niepotrzebnym balastem, a nauczyciele odwołujący się do doświadczenia historycznego uchodzą za anachronicznych i nierozumiejących teraźniejszości.
Studenci z entuzjazmem przyjmują wszelkie formy luzowania reżimu studiów. Tak odniesiono się do wymuszonej pandemią covid-19 nowej formy zajęć zdalnych prowadzonych w trybie online. Obecnie pod byle pretekstem postuluje się powrót do takich form dydaktyki. A przecież każdy zorientowany w życiu akademickim wie doskonale, że są to zajęcia pozorowane, ocierające się o fikcję. Prowadzący tracą możliwość kontrolowania aktywności swoich słuchaczy, a nawet biernego ich udziału, a co dopiero jakiejkolwiek interaktywności. Słuchacze natomiast nabywają najgorsze nawyki samooszukiwania się. Efektywność takich zajęć jest doprawdy nijaka.
Zajęcia ze studentami w humanistyce przekształciły się w określanie swoich stanowisk wobec prawd oficjalnie uznanych czy zadekretowanych. Odejście od krytycznego myślenia spowodowało godzenie się na odgórnie i z zewnątrz dyktowane interpretacje rozmaitych zjawisk. Musiało to doprowadzić do spolaryzowania środowisk uczelnianych, a zwłaszcza narzucenia podziałów poprzez etykietowanie i stygmatyzowanie każdego, kto swoim zdaniem, poglądem czy stanowiskiem odbiega od reszty.
Na zajęciach dydaktycznych zanikła kultura debaty. Brakuje merytorycznych argumentacji, rzetelnych analiz oraz rzeczowych ocen. Obowiązuje specyficzny klimat „poprawności politycznej” tak wśród studentów, jak i prowadzących zajęcia, aby nie narażać się „sobie nawzajem”, ale i potencjalnym cenzorom. Ta obawa przed ewentualnym skarceniem przez zwierzchników leży u podstaw konformistycznych postaw nauczycieli akademickich. Dość powszechne stało się bowiem przywoływanie do porządku wykładowców krnąbrnych i osobnych. Wypieranie opinii nieszablonowych i krytycznych wobec większości szkodzi debacie akademickiej i poszukiwaniu oryginalności, sprzyja skostniałej schematyczności, sztampowości i dogmatyzacji stanowisk.
Jednym z narzędzi kontroli wykładowców są anonimowe ankiety, w których studenci wypisują oceny, będące wynikiem nie tyle uczciwej diagnozy, ile złośliwości, fantazji i konfabulacji. Przez zwierzchników ankiety te, często niereprezentatywne dla liczby uczestników zajęć, są traktowane jako niepodważalne „akty oskarżycielskie” i stanowią element negatywnej oceny pracownika. Przypomina to logikę Pawlika Morozowa. Tymczasem nikt nie zastanawia się nad ich wadliwością z punktu widzenia zgodności z faktami. Wystarczyłoby ankiety przeprowadzać już po zakończeniu egzaminów z danego przedmiotu, pod nazwiskiem wypełniającego. Taka metoda uczyłaby autorów opinii odpowiedzialności za słowa, a także dawałaby studentom poczucie podmiotowego i wiarygodnego uczestnictwa w doskonaleniu procesów nauczania.
Studenci poddawani presji poprawnościowej stają się w większości wyznawcami „prawd objawionych”, czy dotyczy to wewnętrznego życia politycznego kraju, czy też stosunków międzynarodowych. Sprawa wojny na Ukrainie czy ludobójstwa w Strefie Gazy jest „papierkiem lakmusowym” takich przekonań. Zamiast wiedzy opartej na faktach obowiązuje narzucona z zewnątrz zideologizowana narracja. Każde odstępstwo od przyjętych oficjalnie poglądów rodzi dysonanse poznawcze i rozczarowania, a te nie sprzyjają komfortowi psychicznemu żadnej ze stron. Stają się źródłem narastających frustracji, które w określonych sytuacjach, pod wpływem splotu czynników, rodzą agresję.
To, co wpływa na niską jakość akademickiej dyskusji, to rezygnacja z racjonalnego dostrzegania obiektywnych faktów na rzecz emocji i osobistych przekonań. Wiedza naukowa schodzi na plan dalszy, a w pewnych sytuacjach jest w ogóle zbędna. Powszechny dostęp do mediów społecznościowych sprzyja chaosowi poznawczemu i szumowi informacyjnemu. Te powodują zamęt w umysłach młodych ludzi, którzy nie potrzebują żadnych weryfikacji czy falsyfikacji głoszonych poglądów. Skutkuje to ucieczką od wewnątrzsterowności i samodzielnego myślenia, brakiem krytycznej refleksji oraz logicznego wnioskowania.
Potrzeba psychoterapii?
Wieloletnia obserwacja populacji pracowników i studentów Uniwersytetu Warszawskiego pozwala mi na sformułowanie opinii o silnym rozdygotaniu emocjonalnym środowiska akademickiego. Trudne, a nawet skandaliczne sytuacje na tle aferalnego zarządzania zespołami pracowniczymi oraz występki kierowników jednostek wydziałowych przeciw prawu i dobrym obyczajom nie spotykają się niestety ze skutecznym rozwiązywaniem problemów. Liczne przejawy mobbingu wobec pracowników uczelni bardzo silnie rezonują wśród studentów. Sprzyjają temu media publiczne i społecznościowe. Nic nie da się ukryć, ani „pozamiatać pod dywan”. Tym bardziej bulwersuje inercja i opieszałość władz uczelni w takich sytuacjach oraz stosowanie podwójnych standardów w ocenie piętnowanych zachowań.
Powyższe konstatacje prowadzą do zastanowienia się nad kondycją moralną i psychologiczną całego środowiska akademickiego. Jeśli kadra nauczająca nie potrafi skutecznie radzić sobie z narastającymi problemami demoralizacji i zepsucia, to jak mogą sobie dać z tym radę sami studenci? Kto może zapewnić uzdrowienie stosunków wewnątrzuczelnianych, gdy kryzys objął relacje międzyludzkie oraz cały system organizacji i zarządzania (transparentność decyzji, podział środków, odpowiedzialność indywidualną, oceny pracownicze, awanse, kryteria zatrudnienia, swobodę wypowiedzi i in.)? Pytanie o rolę władz uczelni w tych procesach jest tym bardziej zasadne, gdyż liczne doniesienia w skali kraju wskazują, że są to sitwiarskie grupy interesów, zorientowanych na obronę bezpiecznego dla nich status quo. Wykorzystywanie przez nie autonomii uczelni służy przykrywaniu realizacji interesów koteryjnych i układów dalekich od standardów demokratycznych.
Zamiast bezproduktywnego rozprawiania o fałszywej równości, należy więcej uwagi poświęcić budowaniu odporności psychicznej studentów i pracowników. Jeśli chodzi o tych pierwszych należy już na wstępie, u progu studiów, oferować im szkolenia z zakresu „przysposobienia psychologicznego”. Okazuje się, że przypadłości wieku wczesnego, takie jak nadpobudliwość, lęki, fobie społeczne i napady złości czy agresji, przenoszą się w dzisiejszej rzeczywistości na lata późnego dojrzewania. Nie jest przecież prawdą, że na uczelnie wstępuje młodzież całkiem dojrzała i już ukształtowana. Często są to ludzie o bardzo egoistycznym i narcystycznym usposobieniu, pozbawieni empatii i wrażliwości. Młodzież wstępująca na uczelnie wyższe wymaga więc zdiagnozowania rozmaitych deficytów i wyjścia jej naprzeciw.
Potrzebna jest przemyślana edukacja na rzecz rozwiązywania sytuacji kryzysowych. Powinnością uczelni jest jak najszybsze dostarczenie informacji, gdzie młodzi ludzie mogą zwrócić się o wsparcie, z jakich form skutecznej pomocy ze strony uczelni mogą skorzystać w razie potrzeby. Pożądany jest powrót do przemyślanej „pedagogiki społecznej”, gdy okazuje się, że źle pojmowana wolność jednostki sprzyja rozkwitowi rozmaitych dewiacji i patologii. Z promowaniem wiedzy o prawach studenckich musi iść w parze wiedza o obowiązkach i konsekwencjach ich nieprzestrzegania.
Wielu studentów boryka się z problemami egzystencjalnymi. Usamodzielnianie się wymaga umiejętnego godzenia zarobkowania na własne utrzymanie z rytmem zajęć i zaliczeń na uczelni. Nie wszyscy przy tym potrafią radzić sobie ze stresem, doraźnymi trudnościami, załamaniem czy depresją. Dlatego szybkie rozpoznanie uwarunkowań sytuacyjnych może mieć decydujące znaczenie dla budowania odporności psychicznej i zdolności adaptacyjnych. Szczególną rolę w tych sprawach powinien odgrywać samorząd studencki.
Niezwykle ważne są różne formy włączania studentów do aktywności akademickiej. Rozbudzanie pasji i zainteresowań jest silnym bodźcem do przemyślenia życiowych wyborów. Aktywność naukowa, kulturalna, wolontariacka, samopomocowa sprzyja nie tylko minimalizowaniu stresu, zwiększaniu satysfakcji życiowej, pielęgnowaniu uzdolnień, ale i przyjaznego stosunku do ludzi, akceptacji odmienności oraz solidarności z potrzebującymi.
Upadłe „Vivat Academia”
Generalnie, środowisko studenckie nie wyróżnia się jednak jakąś nadzwyczajną aktywnością. Jest zatomizowane i apatyczne, poza wąskimi kręgami słabo artykułuje swoje zbiorowe interesy. Na przykład ma niewielki wpływ na modernizowanie programów nauczania czy wprowadzanie nowoczesnych metod w dydaktyce. Obowiązujące ustawodawstwo w dziedzinie szkolnictwa wyższego promuje znaczny udział młodzieży w kreowaniu władz uczelni. Ze względu na system rozmaitych zależności mamy jednak w praktyce do czynienia z dziwacznymi przejawami pajdokracji czy infantokracji. Samorząd studencki chętnie bowiem odgrywa rolę lobbingu na rzecz wskazanych mu kandydatów do władz uczelni (zwłaszcza prorektorów i prodziekanów ds. dydaktycznych). To rodzi zobowiązania o charakterze korupcjogennym i demoralizującym.
Kryzysowa kondycja uczelni skłania do wystąpień oskarżycielskich, adresowanych do władz różnych szczebli, za liczne zaniedbania tak w sferze bezpieczeństwa, jak i monitorowania nastrojów społecznych. Najgorsze jest oderwane od faktów moralizowanie, przerzucanie się odpowiedzialnością i poszukiwanie „kozłów ofiarnych”. Także doraźne wdrażanie pomysłów na rzecz radykalnych środków zabezpieczających uczelnie przed przemocą może mieć szkodliwe konsekwencje. Zamiast emocji powinna zapanować racjonalna powściągliwość, mająca na celu dokonanie rzetelnej autodiagnozy źródeł zła, patologii zobojętnienia, tolerowania postaw nagannych, wykroczeń wobec prawa i moralności, pobłażliwości wobec bylejakości i niemrawego reagowania na nadużycia. Warto pamiętać, że zaistniały kryzys może być wstrząsem, bodźcem ku naprawie, punktem zwrotnym, a niekoniecznie zwiastunem katastrofy i klęski.
W dyskusjach o przeobrażaniu się tożsamości akademickiej trzeba przywrócić wiarę w moc sprawczą nauki niezależnej. Uczelnie wyższe muszą powrócić do myślenia autonomicznego, a nawet kontestacyjnego. Władza tylko wtedy znów zacznie się liczyć z głosem ludzi intelektu – naukowców, nauczycieli i studentów, jeśli ci staną się jej rzetelnymi i odważnymi recenzentami i krytykami, a nie uległymi akolitami i kolaborantami. Zbyt gorliwi lub całkiem bezbarwni ministrowie do spraw nauki i szkolnictwa wyższego muszą mieć świadomość bezpośredniej odpowiedzialności przed środowiskami akademickimi, które nadzorują, a nie tylko przed wodzami swoich partii, którzy delegują ich na te stanowiska. Bankructwo polskiej inteligencji jest faktem, ale to nie oznacza, że uczelnie wyższe całkowicie zrezygnują ze swojej misji kształtowania intelektualnej awangardy społeczeństwa.
Stanisław Bieleń
Śródtytuły i wyróżnienia pochodzą od Redakcji SN.
Po drugiej stronie lustra
- Autor: Anna Leszkowska
- Odsłon: 91
Natura wyposażyła nas w odbiorniki fal świetlnych – oczy i od zarania wieków poznajemy nasz piękny świat tym sposobem. Trudno uwierzyć, że przez większość tego czasu nie bardzo wiedzieliśmy czym jest światło. Dopiero w ostatnich 100 – 200 latach „nagie małpy” - jak nas raczył nazwać Andrzej Dragan w swojej książce Kwantechizm, zrobiły olbrzymi skok w zrozumieniu wszechświata i pewne zagadnienia stały się bardziej zrozumiałe. Dotyczy to także światła.
Zagadnieniem tym zajmował się także Max Planck (1858 – 1947). Wykazał on, że promieniowanie (fale elektromagnetyczne) wytwarza materia, która ma temperaturę większą od zera w skali bezwzględnej Kelwina (0 K = -2730 C ). W takim razie, oprócz gwiazd (Słońca) świeci większość materii we wszechświecie, a na naszej planecie tym bardziej. Tu świeci wszystko.
Technicy (zaliczam się do nich) lubią posługiwać się obrazkami. Dlatego zamieszczam charakterystyki widmowe (w zależności od długości fali) świecenia ciał o różnych temperaturach.
Powierzchnia Słońca ma temperaturę ok. 5500 K i charakterystyka jej świecenia ma przebieg podobny do podanego na rysunku przez najwyższą krzywą. Kolorowy (tęczowy – bez żadnych domysłów, proszę) pionowy pasek to zakres naszego widzenia. Rzeczywiście różne długości fal świetlnych widzimy jako kolorowe. Jeżeli się zmiesza te kolory, otrzyma się światło białe, takie z jakim mamy do czynienia na co dzień. Reszty promieni nie widzimy (na rysunku kolor czarny), co nie oznacza, że ich nie ma. Są, tylko ich nie widzimy.
My (nasze ciała) też świecimy, a długość fali maksymalnej wydajności naszego świecenia przypada na ok. 10 μm, daleko poza zakresem widzenia. Wojskowi jednak to wykorzystali i zbudowali przyrządy pozwalające nas na tej długości fali obserwować. Poprawiają naturę, niestety w celu łatwiejszego się zabijania.
Max Planck długo się biedził, chcąc wyznaczyć zależność (wzór) na podane powyżej charakterystyki widmowe świecenia. Można rzec, że biedził się dosłownie i stosunkowo długo. Dopiero pewne założenie doprowadziło go do pozytywnego rezultatu.
Uznał, że światło jest pękiem złożonym z najmniejszych, elementarnych części promieniowania – kwantów, które nazwano fotonami. Foton to bardzo dziwny twór. Nie istnieje w spoczynku i ma zerową masę spoczynkową. Foton istnieje wyłącznie jako fala rozprzestrzeniająca się z ogromną prędkością (w próżni równą 300 tys. km/s). Atmosfera ziemska nieco ją modyfikuje (zmniejsza), ale nieznacznie. Nadal jest bardzo duża. Prędkość, z jaką się porusza światło jest wielkością charakterystyczną. Zgodnie ze szczególną teorią względności Einsteina, żadne ciało materialne tej prędkości przekroczyć nie może.
Foton masy spoczynkowej nie ma, ale niesie ze sobą energię. Zgodnie z zasadą równoważności masy i energii A. Einsteina, ma on masę równoważną energii i pęd. Skutki tego możemy poznać nadmiernie się opalając.
Powróćmy do „biedzenia się” Maxa Plancka. Udało mu się wzór na promieniowanie materii utworzyć (nie ma potrzeby go przytaczać), gdy założył, że energia fotonu jest proporcjonalną do częstotliwości (ν) fali, z jaką się on (foton) propaguje w przestrzeni. To pozornie bardzo prosta zależność: Ef = hν. Współczynnik proporcjonalności h na część odkrywcy nazwany został stałą Plancka. To niezwykle mała wielkość. Jeżeli chcemy wyrazić energię fotonu w dżulach, to h=6,6260693 10—34 (J s).
Jeżeli foton jest falą, to jako zjawisko okresowe opisywane funkcją sinusoidalną, ma inne wielkości go charakteryzujące. Jedną już poznaliśmy, to częstotliwość powtarzania, liczba cykli w jednej sekundzie (ν) mierzona w hercach (Hz). Inną jest okres powtarzania (T) – czas, po którym funkcja jest odtwarzana i długość fali (λ) – droga, jaką przebywa fala w czasie jednego okresu.
Jeżeli wydaje się to trochę skomplikowane, proszę wybaczyć: to nie ja, takie jest światło. Jeszcze, niestety, trochę do jego obrazu dodamy. Jeżeli wzór powyższy jest energią kwantu światła – fotonu, to jest on (foton) niepodzielny. Co więc oznacza część wartości podanej powyższym wzorem?
Weźmy dla przykładu jej połowę. Zobaczmy: ½(hν) =h•½ (ν) =h(ν/2).
To nie jest połowa kwantu napisanego górnym wzorem, chociaż liczbowo tyle wynosi. W rzeczywistości to energia zupełnie innego fotonu. Ten foton ma inną częstotliwość. Gdybyśmy mogli go zobaczyć, miałby inny kolor. Tak będzie przy każdym innym podziale. Udowodniliśmy, że zależność wyjściowa to energia fotonu i że foton jest niepodzielny.
Jeszcze jeden wniosek można stąd wysnuć. Częstotliwość fali świetlnej jest praktycznie miarą energii fotonu. Zamiennie w tej roli może występować długość fali i tymi miarami w praktyce się posługujemy. Przypomnimy sobie, że mamy fale długie, średnie, krótkie, mikrofale i fale nanometrowe, te zakresu optycznego (laserowe).
Wszyscy dobrze wiemy, że lustra (zwierciadła) mogą być częściowo przepuszczalne. Nie dziwi nas, że zwierciadło jest np. półprzepuszczalne. Jeżeli na takie zwierciadło padnie strumień światła, jego część (w przybliżeniu połowa) się odbije, a część pozostała przejdzie na drugą stronę. Spotykamy się z tym zjawiskiem na co dzień i nas to nie dziwi. Pytanie, czy przypadkiem dziwić nie powinno? No to przejdźmy do naszego niepodzielnego fotonu. Przecież światło jest pękiem fotonów Najlepiej niech padnie na takie zwierciadło właśnie jeden foton - czy on przejdzie, czy się odbije? Proszę pamiętać, że foton jest niepodzielny. Jeżeli tak, to przy padaniu na zwierciadło może albo przejść, albo się odbić. To jest właściwa odpowiedź.
Z podobną sytuacją spotykamy się częściej. Gdy sędzia piłkarski losuje boisko dla którejś z drużyn, rzuca monetę. Przed jej upadkiem nie wiadomo, czy na wierzchu będzie orzeł czy reszka. Podobnie tu, gdy foton padnie na zwierciadło, nie wiemy, czy odbije się on od zwierciadła, czy przejdzie na jego drugą stronę. W takim razie stopień odbicia zwierciadła wyznacza prawdopodobieństwo tego zdarzenia. Może to z tego powodu Albert Einstein narzekał na zasady fizyki kwantowej, mówiąc, że Bóg nie gra w kości. Wydaje się, że trzeba będzie się jednak do tego przyzwyczaić.
Nie ukrywam, że moje próby pisania o tych sprawach mają na celu wyjaśnienie babci – jak pisał Andrzej Dragan – budowę i zasady działania lasera. Babci dawno nie mam, ale może uda mi się przybliżyć te zagadnienia państwu. W następnym odcinku spróbuję rozprawić się ze statystyką Ludwika Boltzmanna. Niestety, też jest potrzebna.
Zdzisław Jankiewicz
Laser - Techniczna Osobliwość
- Autor: Anna Leszkowska
- Odsłon: 152
Lubię książki popularyzujące nauki fizyczne. Szczególnie napisane przez autorów będących specjalistami w dziedzinach nauk fizycznych. Ostatnio wpadła mi rękę pozycja Kwantechizm 2.0, czyli klatka na ludzi. Autor, prof. Andrzej Dragan, zajmuje się fizyką kwantową. Pychota. Polecam nie tylko dlatego, że p. Andrzej jest Polakiem, a przyzwoita pozycja produkcji rodzimej zawsze cieszy, ale książka moim zdaniem jest naprawdę świetnie napisana.
Przytaczam z niej takie zdanie: „Wyznaję zasadę, że czego nie umiałbym wytłumaczyć własnej babci, tego po prostu nie rozumiem”. Potwierdzam, że stara się to udowodnić. Bardzo proszę wszystkie babcie o przeczytanie Kwantechizmu i dyskusję o fizyce kwantowej.
W swoim życiu z podobnym zagadnieniem kiedyś się spotkałem. Było to krótko przed wybuchem wojny, miałem sześć lat i byłem prowadzony za rękę przez moją babcię Mariannę, gdy nadleciał samolot.
- Babciu – nie wytrzymałem, pokazując kierunek skąd nadlatywał – samolot leci. Przysłoniła ręką oczy: Widzę synku, widzę, ale i tak nie wierzę - odrzekła.
Tak po raz pierwszy w życiu zetknąłem się z dylematem wiary i wiedzy. Mnie wiary wtedy może nie brakowało, natomiast wiedzy, podobnie jak mojej babci, tak. Stąd nie wiedzieliśmy, jak taka sterta metalu może swobodnie jak ptak fruwać w przestworzach. Autorem, którego liczne książki traktujące o szeroko rozumianej fizyce czytałem i mogę śmiało polecić innym jest Japończyk z pochodzenia, fizyk Michio Kaku. Zajmował się teorią strun i za swoje prace został nawet wyróżniony Nagrodą Nobla, ale znaczny rozgłos przyniosły mu publikacje popularyzatorskie, m.in. Hiperprzestrzeń, czy Fizyka rzeczy niemożliwych.
Wspominam go tu głównie dlatego, że wyróżnił on odkrycia naukowe i wynalazki o epokowym, zasadniczym dla nauki i techniki znaczeniu. Nadał im miano Technologicznej Osobliwości (TO). Zaliczył do nich odkrycia na tyle ważne, że zmieniają zasadniczo nie tylko kierunki rozwoju nauki, ale także technologię, przemysł, całe nasze życie.
Chcąc podać przykład takiego odkrycia sięgnę do publikacji innego autora - Leona Ledermana i jego książki Boska cząstka. Tak napisał w niej o odkryciu elektronu w 1897 roku przez Josepha J. Thomsona (Nagroda Nobla w 1906): „Na tym maleństwie spoczywa cały gmach współczesnej technologii”.
Rzeczywiście, chyba nie można dziś sobie wyobrazić naszej egzystencji, bez tego odkrycia. Elektronika i jej wszechstronne zastosowania przede wszystkim w energetyce są tego dowodem. Dochodzą do tego inne jej odmiany - telekomunikacja (telefon, radio, telewizja), a obecnie także komputery, Internet, sztuczna inteligencja itd. itd. Nic dziwnego, że wiek XX, kiedy jej rozwój był najbardziej burzliwy nazwano wiekiem elektroniki.
Uważam, że w moim życiu miałem wiele szczęścia. Skończyłem studia na Wydziale Elektroniki WAT i otrzymałem tam przydział do pracy w początkach lat pięćdziesiątych ubiegłego wieku. Wtedy otrzymywaliśmy miejsca pracy zgodnie z przydziałami. Wkrótce (w 1960 r). skonstruowano w USA pierwszy generator fal optycznych – laser. Załączam zdjęcie tego wynalazku.To bardzo dziwna fotografia. Dlaczego urządzenie nazwane później laserem rubinowym pokazane jest na tle twarzy jego twórcy Theodora Maimana? Podobno fotograf uznał samo urządzenie za tak proste, a nawet prymitywne, tak mało fotogeniczne, że zgodził się go opublikować tylko w tym ujęciu. A jednak był to wynalazek o przełomowym znaczeniu. Wcześniej nie potrafiono wytwarzać monochromatycznego promieniowania w zakresie optycznym. Dopiero wzmacniacz kwantowy zaproponowany w 1917 r. przez A. Einsteina okazał się do tego celu przydatny.
Gordon Gold, wizjoner techniki laserowej i pomysłodawca wielu zastosowań laserów (on po raz pierwszy użył nazwy laser) w początkowym okresie prac nad generatorami światła napisał: „Lasery będą tym dla optyki, czym tranzystory są dla elektroniki”. Nie pomylił się. Skonstruowano wiele ich rodzajów, a lasery w połączeniu ze światłowodami dały początek nowej gałęzi elektroniki – optoelektronice, przez fizyków często nazywanej fotoniką. W związku z jej szybkim rozwojem, mają oni nadzieję, że podobnie jak wiek XX nazwano wiekiem elektroniki, wiek XXI zostanie nazwany wiekiem optoelektroniki (fotoniki).
W zakresie mikrofalowym wzmacniacz i generator kwantowy był zbudowany wcześniej (pierwszy maser został skonstruowany przez Ch. Townesa w 1954 r.). Zauważono wtedy, że idea ta, może mało przydatna w mikrofalach, jest wyjątkowym darem przyrody dla zakresu fal krótszych - optycznych. Rozpoczął się wyścig w budowaniu lasera, który zaowocował szeregiem uruchomień. Pierwszym był laser rubinowy Th. Maimana.
Powracając do klasyfikacji odkryć naukowych Michio Kaku, chcę przekonać państwa, że zbudowanie lasera jest taką technologiczną osobliwością (TO), niemniej uważam, że takim odkryciom powinna zostać nadana bardziej znacząca nazwa - odkryć cywilizacyjnych. Ukierunkowują one rozwój naszej cywilizacji, wyznaczają jej nowe możliwości i perspektywy.
Odkryciom (wynalazkom) cywilizacyjnym można nadać takie cechy jak:
• Niezbędność – bez nich niemożliwy jest rozwój nauki, techniki i gospodarki, także postęp cywilizacyjny
• Niezastępowalność – brak jest innych metod, innych technik, które mogłyby zadania ich przejąć i realizować.
Laser można będzie można uznać za taki cywilizacyjny wynalazek, jeżeli będzie spełniać powyższe warunki. Chociażby jeden.
Gdyby spełniła się wizja (zapowiedź) Gordona Golda i zrealizowana została laserowa synteza termojądrowa, śmiało moglibyśmy uznać, że taki dowód został przeprowadzony. Niestety, jak wiadomo (pisałem o tym także w felietonie Maksyma) tego zastosowania mimo zaangażowania poważnych środków i długotrwałych badań w USA i na całym świecie nie udało się zrealizować.
Zrealizowano jednak cały szereg innych zastosowań lasera, niezbędnych dla potrzeb naszej cywilizacji, których lista jest długa.
Wymieńmy zatem kilka z nich: telekomunikacja światłowodowa, holografia optyczna i jej ważniejsze zastosowania, wzorce czasu i długości, pomiary odległości do satelitów i księżyca, optyczna telekomunikacja w kosmosie, wykrywanie i rejestracja fal grawitacyjnych. O niektórych z nich opowiem innym razem.
Zdzisław Jankiewicz