Naukowa agora (el)
- Autor: Anna Leszkowska
- Odsłon: 394
Albert Einstein swoją publikacją (On the quantum theory of radiation, Phys. Z. p. 121,1917) na temat wzmacniacza kwantowego zainicjował budowę lasera. Trochę to jednak potrwało. Pierwszy wzmacniacz kwantowy działający na znacznie niższych częstotliwościach (mikrofalach) nazwany maserem został zbudowany przez Charlesa Townesa dopiero w 1954 roku, zaś laser - przez Th. Maimana w 1960 roku. Dlaczego tak późno? Był to dość niespokojny czas na świecie. Gdy tylko skończyła się pierwsza wojna światowa, światowy kryzys gospodarczy doprowadził do następnej, znacznie gorszej w skutkach, w wyniku której świat podzielił się na wrogie obozy rozdzielone „żelazną kurtyną”. Było co robić.
Była jeszcze inna przyczyna - techniczna. Uczeni mieli już wzmacniacze i je stosowali. Oczywiście nie nazywały się kwantowe. Kwantowymi nazwano te drugie, by nadać im właściwy sens i odróżnić od już istniejących. Nazwijmy te pierwsze, istniejące, klasycznymi.
Pewno będziemy musieli jeszcze przywołać dodatkowe fakty, by zrozumieć całość zagadnienia. Ze światłem ludzkość jest zapoznana od wieków. Natura wyposażyła nas w odpowiednie narządy do reakcji na światło – oczy. Poznaliśmy ich budowę i nauczyliśmy się je naśladować, budując aparaty fotograficzne i inne przyrządy optyczne. Może się to wydać dziwne, ale przez większość czasu korzystania z dobrodziejstw światła nie zdawaliśmy sobie sprawy czym ono jest. Nie będę wywoływał „wilka z lasu” i twierdził, że trochę z tego jeszcze nam pozostało i przejdę dalej.
Nasz rodak Andrzej Dragan w swojej książce Kwantechizm nazwał nas „nagimi małpami” i uznał, że w czasie ostatnich 200 lat dokonaliśmy niebywałego postępu intelektualnego w rozumieniu wszechświata. Przywołajmy zatem niektóre z poznanych faktów. Na początek dwa, wyjątkowo tu przydatne.
Teoria pola elektromagnetycznego (James C. Maxwell, 1861) i odkrycie elektronu (Joseph J. Thomson, 1897). Głównie te, ale z pewnością także dalsze odkrycia upewniły nas w przeświadczeniu, że światło jest taką samą falą elektromagnetyczną jaką wykorzystuje się np. w radiu, zaś prąd elektryczny to ruch elektronów. Elektronów mamy pełno w materii, tylko trzeba umieć do nich sięgnąć i z nich korzystać.
Wzmacniacze te klasyczne też już były. Umieliśmy także wytwarzać fale elektromagnetyczne, przesyłając do anten zmienne, o odpowiedniej częstotliwości (często mawialiśmy „wielkiej częstotliwości” – w.cz.), prądy elektryczne.
Wzmacniacze klasyczne to były wzmacniacze tego prądu wielkiej częstotliwości. Były one niezbędne do wytwarzania – generacji - tych prądów, a te potrzebne do emisji fal elektromagnetycznych. Generatorami sygnałów elektrycznych były te wzmacniacze, które dostarczały dla siebie sygnał do wzmacniania. Mówimy, że wyposażone są w układy dodatniego sprzężenia zwrotnego. Jednak wzmacniacze te miały swoje niedostatki i dlatego wzmacniacz kwantowy i umiejętność jego budowy są tak ważne.
Do generacji prądu w. cz. stosowało się zawsze, także i dziś lampy elektronowe i tranzystory. Mamy w nich do czynienia ze swobodnymi elektronami, które przyśpieszane w stałym polu elektrycznym powiększają swoją energię tj. są wzmacniane. Niestety, elektrony mają niewielką, ale mierzalną masę. Związana z nią bezwładność ogranicza chwilową szybkość ruchu, jaką można im nadać, a to przekłada się na maksymalną częstotliwość generowanych sygnałów. To jest wspomniana wada tych wzmacniaczy i generatorów.
Wymyślano różne sposoby radzenia sobie z bezwładnością elektronów. Czasami udawało się w konkretnych rozwiązaniach nieznaczne powiększać maksymalną częstotliwość, ale zupełnie wykluczyć bezwładności elektronów nie sposób. Generatory prądu w. cz. nie mogły mieć większych częstotliwości niż kilkadziesiąt miliardów zmian (cykli) w czasie jednej sekundy. Za graniczną uznaje się częstotliwość 100 GHz (1011 Hz). To oczywiście bardzo duża wartość i w większości zastosowań elektroniki w telekomunikacji i radiolokacji nawet obecnie jest wystarczająca. Do częstotliwości optycznych jest jej jednak nadal bardzo daleko: jeszcze co najmniej trzy – cztery rzędy wielkości. Jeżeli kwantowy wzmacniacz Einsteina byłby w stanie tę granicę przekroczyć, byłby pożyteczny i pożądany.
Na jakiej zasadzie działa wzmacniacz kwantowy? Do wyjaśnienia sobie tego nie wystarczy sięgnąć tylko do wspomnianej już pracy A. Einsteina. Powinniśmy zapoznać się z nazwiskiem Maxa Plancka, którego przedstawiłem w felietonie Po drugiej stronie lustra i prac związanych ze statystyką obsadzeni stanów energetycznych Ludwika Boltzmanna.
Znana materia zbudowana jest z około stu różnych pierwiastków, a ich elementarne składniki – atomy - z różnej liczby elementów znanych jako protony i neutrony oraz elektronów w liczbie równej protonom. Liczba neutronów może być zmienna, co wpływa na rodzaj izotopu danego pierwiastka. Ponieważ protony mają dodatni ładunek elektryczny, zaś elektrony taki sam co do wielkości, ale ujemny, atomy są elektrycznie obojętne. Można jednak w sposób wymuszony zmieniać liczbę elektronów chmury elektronowej atomu, tworząc w ten sposób dodatnie lub ujemne ich jony.
W zależności od tego, z jakim pierwiastkiem mamy do czynienia liczba protonów, a więc i elektronów się zmienia. Elektrony w powłoce elektronowej atomów mogą zajmować z góry określone, dopuszczalne położenia. Może precyzyjniej będzie mówić, że odpowiedniej wartości energii potencjalnej atomu, jonu lub ich połączeń (molekuły) odpowiada stosowna konfiguracja ich powłoki elektronowej. Zmiana konfiguracji powłoki z reguły związana jest ze zmianą (pozyskaniem lub utratą) odpowiedniej porcji energii. Mówimy „porcji energii”, gdyż konfiguracje powłoki elektronowej w atomach są z góry określone i innych tworzyć nie mogą.
W rzeczywistości mamy do czynienia z ciągłą przemianą energii atomów. Wiadomo, że w przestrzeni istnieje pełno fotonów. Jeżeli energia któregoś z nich jest zgodna energią przemiany powłoki elektronowej, zostanie pochłonięty, a atom przejdzie w stan wzbudzony do wyższej energii potencjalnej.
Mogą być jeszcze inne, mechaniczne źródła wzbudzania atomów. Ciepło jest niczym innym jak ruchem ośrodka materialnego. Jeżeli jest to gaz (ewentualnie para) lub ciecz, nazywany jest ruchami Browna. W przypadku ciał stałych będą to drgania atomów wokół ich położeń centralnych. W czasie zderzeń cząstek nawet część energii kinetycznej jednej z nich może być przekazywana innym powodując ich wzbudzanie.
Wyobraźmy sobie, że obserwujemy stan wzbudzenia wybranej grupy cząstek (atomów, jonów, molekuł), którą się szczególnie interesujemy. Nazwijmy ją grupą elementów kwantowych lub cząstkami aktywnymi. Wtedy pozostałe, tworzące ośrodek, możemy traktować jako pojemny energetycznie termostat. Ma on niezmienną temperaturę; mimo, że z niego możemy czerpać niewielkie ilości energii lub jej niewielki nadmiar termostatowi przekazywać.
Ludwik Boltzman zajmował się zachowaniem energii potencjalnej dostatecznie licznej grupy takich wybranych cząstek kwantowych poddanych oddziaływaniu termostatu. Jeżeli oddziaływanie trwa dostatecznie długo, osiągany zostaje stan stacjonarny (równowagi termodynamicznej). Polega on na tym, że liczba cząstek (N) znajdujących się w stanach o coraz wyższej energii (E) wykładniczo maleje. Można to zapisać w dość prostej postaci zależności matematycznej, ale my nie będziemy tego robić. Postaramy się za to, znając powyższą ogólną zasadę, podać zasadnicze własności takiego zespołu wybranych cząstek:
1. Każdy taki zespół cząstek ma najniższy stan energetyczny często nazywany stanem podstawowym;
2. W najniższym stanie podstawowym znajduje się największa liczba cząstek;
3. W każdym wyższym stanie energetycznym znajduje się coraz mniejsza liczba cząstek. Im większa różnica energii pomiędzy rozpatrywanymi stanami, tym większa różnica cząstek, jaka w tych stanach się znajduje.
4. Każdy stan wzbudzony (o energii wyższej od podstawowego) jest nietrwały. Oznacza to, że cząstka wzbudzona do tego stanu, prędzej albo później, w sposób niekontrolowany, samoistny ten stan opuści, przechodząc do jednego ze stanów niższych. Związana jest z tym emisja energii bądź kinetycznej (fononu), bądź elektromagnetycznej (fotonu). W drugim przypadku mówimy o fotonie emisji spontanicznej. Tę własność stanu (poziomu) energetycznego charakteryzuje wielkość „τ ”- nazywana czasem życia. Jest to czas, po którym z określonym prawdopodobieństwem cząstka powinna dany stan energetyczny opuścić i foton emisji spontanicznej zostać wygenerowany.
Tak docieramy do teorii wzmacniacza kwantowego Einsteina wyłożonej we wspomnianej na wstępie pracy. Rozpatrywane jest w niej działanie fotonów z zewnętrznego źródła na wybraną parę stanów energetycznych odpowiedniego zespołu elementów kwantowych. Działanie będzie skuteczne, gdy energia fotonu będzie równa różnicy energii jednego ze stanu wyższego (Ew) i niższego (En). Pozwólmy sobie tą równość zapisać: hν = Ew–En.
Zgodnie z teorią L. Boltzmanna, cząstek w niższym stanie energetycznym jest zawsze więcej i na nie głównie będą trafiać i z nimi oddziaływać fotony oświetlające ośrodek. Jak wiadomo, zostaną one wtedy pochłonięte, a cząstki, na które działały będą wzbudzone do stanu energetycznego wyższego.
W swojej pracy dotyczącej wzmacniacza kwantowego A. Einstein zajął się szczegółowo drugim przypadkiem, gdy foton oddziałuje z cząstką będącą w stanie wzbudzonym. Zgodnie z jego teorią, dochodzi wtedy do zjawiska, które nazwał emisją stymulowaną (wymuszoną). Cząstka przechodzi w niższy stan energetyczny i zostanie wygenerowany foton wymuszony. Cechą charakterystyczną tej emisji jest identyczność fotonów wymuszającego i wymuszonego. Pamiętając, że foton jest falą, wspomniana identyczność fotonów oznacza identyczne częstotliwości obydwu fal, kierunki ich propagacji, jednakową polaryzację, a poza tym będą one miały zgodne fazy.
Biorąc powyższe pod uwagę należy uznać, że fala wymuszająca zostaje powiększona, wzmocniona.
Mamy zatem do czynienia albo z tłumieniem (działanie na cząstki na niższym poziomie energetycznym), albo ze wzmocnieniem (działanie na cząstki na poziomie energetycznym wyższym). Sumaryczny wynik oddziaływania jest różnicą aktów pochłaniania i aktów emisji wymuszonej. Będzie on zatem proporcjonalny do różnicy cząstek w tych stanach
ΔN = Nw–Nn.
Zgodnie ze statystyką Boltzmanna w stanie ustalonym zawsze na poziomie niższym jest więcej cząstek niż na wyższym: Nn>Nw. Różnica (ΔN) jest zatem ujemna (przeważają akty pochłaniania) i ośrodek w swej masie jest tłumiący.
Staje się jasne, kiedy będziemy mogli mieć do czynienia z nowym typem wzmacniacza, który nazwany został w literaturze fachowej wzmacniaczem kwantowym. Należy odpowiednio dobrać ośrodek (typ cząstek), na który będzie oddziaływać fala elektromagnetyczna, wybrać dwa stany energetyczne pomiędzy którymi realizowane będą przejścia i odpowiednio pobudzając (pompując) ośrodek doprowadzić do sytuacji, by w stanie energetycznym wyższym znajdowało się więcej cząstek niż w stanie energetycznym niższym,
ΔN>0
Nazywamy to inwersją obsadzeń. Im ΔN jest większe tym lepiej. Proste, prawda?
Byli tacy, którzy duże opóźnienie pomiędzy opracowaniem teorii wzmacniacza kwantowego, a budową pierwszych urządzeń praktycznie realizujących tą ideę upatrywali w trudnościach zapewnienia inwersji obsadzeń ośrodka. Prędzej jednak czy później „nagie małpy” poradziły sobie z problemem i lasery stały się faktem.
Zdzisław Jankiewicz
- Autor: al
- Odsłon: 5389
- Autor: Janina Słomińska
- Odsłon: 3536
- Powinien być Pan zadowolony: nazywając rzecz po kupiecku, ruch w interesie aż serce rośnie. Postulaty, komitety kryzysowe, groźby strajku... W humanistyce zrobiło się gorąco...
- To prawda, powinienem odczuwać nawet schadenfreude. Przez ostatnie lata protestowałem przeciwko wprowadzeniu – do oceny jednostek naukowych, czasopism i dorobku indywidualnego twórców – ujednoliconych kryteriów dla nauk ścisłych, technicznych, humanistycznych, społecznych... Przestrzegałem humanistów, że punktacja zaproponowana przez urzędników resortowych będzie miała wpływ na wielkość dotacji państwowej na badania. Bezskutecznie. Jedyne, co udało mi się załatwić, to przekonać władze PAU, by – na podstawie opracowanego przeze mnie memoriału - skierowały (bodajże w 2009 r.) pismo krytycznie oceniające nowinki administracyjne do ówczesnej pani minister. Żeby nie było wątpliwości: moje i nie tylko moje protesty nie przyniosły żadnego rezultatu i podejrzewam, że te dzisiejsze również nie przyniosą korzystnych dla humanistyki skutków. - Dlaczego? - Z pustego i Salomon nie naleje. Tak było i tak jest do dziś. Przeżyłem wiele propozycji innowacji w nauce. Jeszcze w czasach wczesnogierkowskich, kiedy byłem skromnym adiunktem na UJ w Krakowie, toczyły się na różnych forach uczelnianych zażarte dyskusje na temat reformy nauki i dydaktyki uniwersyteckiej. Pamiętam jedno z takich posiedzeń. Jedni proponowali zmniejszyć liczbę słuchaczy w grupach seminaryjnych, inni aplikować studentom dodatkowe zajęcia... Wstałem i zapytałem: czy na sali jest kwestor? Jeśli nie ma, to cała ta gadanina mija się z celem. Do dziś to powtarzam: jeśli nie postawimy pytania o kondycję finansów państwa, to bardzo przepraszam, trudno liczyć na to, że uda się przebudować naukę... - To po co to przedstawienie? - Życie uczonego w Polsce nigdy nie było łatwe. Zarówno w XIX jak i w XX wieku nauka była zajęciem, które nadmiaru pieniędzy nie przynosiło. Pod koniec XX wieku, po tzw. transformacji ustrojowej, władza już nie komunistyczna a demokratyczna także nie kwapiła się, by poprawić finanse uniwersytetów i instytutów. Zezwoliła jedynie naukowcom na „dydaktyczną” wolnoamerykankę: bierzcie tyle etatów, ile udźwigniecie. I taka sytuacja z drobnymi zmianami trwa do dziś, a mamy wiek XXI. Gdyby dyskusję na temat reformy traktować na serio, trzeba by zacząć od pytania podstawowego, które jest inne dla humanistów a inne dla nauk ścisłych czy biologicznych: reforma - za ile? - Zatem: za ile? - W przypadku humanistów trzeba zdecydować się: co preferować? Twórczość czy dydaktykę? Dawniej w Polsce historyk, jeśli nie miał etatu, zarabiał pisaniem. To się skończyło. Większość moich książek, które ogłosiłem drukiem w ciągu ostatnich 15 lat nie przyniosła mi ani grosza, poza jedną, na której zarobiłem... 1000 zł. Trudno się zatem dziwić, że wielu moich kolegów wzięło się za dydaktykę, bo tylko ona przynosiła w ostatnich dwudziestu latach dochody. Ale kiedy się obsługuje 5 etatów na 5 uczelniach trudno marzyć o pisaniu książek, a te z kolei liczą się przy awansach. Czas skończyć z tą schizofrenią, bo w rezultacie jakościowo kiepska – ze względu na małą opłacalność – produkcja naukowa degraduje dydaktykę (kiepski naukowiec niewiele ma do powiedzenia studentom). Koło się zamyka. - A może jest tak, jak twierdzą złośliwi przedstawiciele nauk ścisłych, że humaniści produkują makulaturę i najwyższy czas tej radosnej twórczości położyć tamę? - Nie przesadzajmy. Mogę odpłacić tą samą złośliwością przypominając, że jak dotąd, z grantów naszych biologów czy fizyków, „nie urodził się” ani jeden Nobel. Przynajmniej ja o tym nie słyszałem. - Jak zatem oceniać wartość „produktu” humanistów? - Trzeba o to pytać humanistów. Bo głęboko mylą się ci, którzy twierdzą, że można stosować te same kryteria w ocenie „dzieła” fizyka i literaturoznawcy, biologa i historyka, prawnika i matematyka. Na pewno nie może ich zawierać ten sam system parametryczny uwzględniający indeksy cytowań na forum międzynarodowym oraz punktujący wysoko publikacje w języku angielskim, bo nauki ścisłe, biologiczne czy techniczne mają charakter internacjonalny, natomiast nauki humanistyczne są niezbędne dla utrzymania tożsamości narodowej.
Przy okazji... Nie możemy liczyć na nadmierne zainteresowanie świata naszymi problemami. Jeśli Francuz czy Niemiec pisze historię Europy to i tak z polskich publikacji - nawet tych pisanych po angielsku – nie korzysta, bo dla niego historia Europy to historia Francji, Niemiec, Wielkiej Brytanii. Włochy, chcąc nie chcąc, uwzględni, nie pominie Hiszpanii, a z krajów słowiańskich – Rosji. Podobnie rzecz ma się z literaturą. Proszę pytać wybitnego znawcę polskiego romantyzmu: ile razy jego publikacje były cytowane w USA? Proszę pytać, czy gdyby przetłumaczyć książki tego autora na język angielski i wydać, to indeks cytowań się zmieni? Otóż nie, bo - pomijając Polonię Amerykańską – jest być może 6 slawistów w całych Stanach Zjednoczonych, którzy interesują się polskim romantyzmem. Te sześć osób, przynajmniej w czytaniu, zna język polski. Im nie trzeba tłumaczyć książek na angielski.
Wreszcie - nauki humanistyczne, w przeciwieństwie do ścisłych, są naukami opisowymi. Humanistyka wymaga miejsca… W humanistyce liczą się książki. Aby zaistnieć na międzynarodowym rynku, trzeba te książki przetłumaczyć. I musi to zrobić zawodowy tłumacz. Jeżeli chemik pisze tekst, w którym połowę miejsca zajmują formuły i wzory, to przeciętnie zdolny polski profesor, jeśli tylko przebywał rok lub dwa na stażu w USA czy w Kanadzie, taki tekst po angielsku sam napisze. Ja też pisuję od lat teksty naukowe po francusku. Ale przetłumaczyć książkę w sposób prawidłowy, zgodnie z literackim językiem, musi fachowiec. To są duże pieniądze. I nie wierzę, że fundusze resortowe okażą się tu satysfakcjonujące. Mam w swoim dorobku naukowym obszerną 500 stronicową książkę o Prusach ogłoszoną po niemiecku. Jej wydanie zajęło mi kilka lat. Niemcy wzięli na siebie koszty tłumaczenia i druku, ja musiałem zrezygnować z honorarium… To była cena satysfakcji zaistnienia na międzynarodowym rynku nauki. - Jest Pan nauczycielem akademickim ale także wieloletnim pracownikiem naukowym Polskiej Akademii Nauk a od początku lat dziewięćdziesiątych ubiegłego wieku członkiem Polskiej Akademii Umiejętności. Formuła, w jakiej PAN ze swoimi instytutami finansowanymi z budżetu państwa działa, budzi kontrowersje. Tak emocjonalne, że w marcu br Zgromadzenie Ogólne PAN wprawdzie wybrało nowe władze, ale sam fakt, że zrobiono to w ostatniej chwili, uciekając przed widmem zarządu komisarycznego, dowodzi spadku prestiżu i sceptycyzmu środowiska pracowników nauki wobec sensowności działania tej instytucji. Jest Pan zwolennikiem likwidacji PAN? - PAN, moim zdaniem, na wzór PAU powinna pozostać korporacją uczonych. W pełni niezależną od władz państwowych. Instytuty powinny się przekształcić w samodzielne jednostki naukowo-badawcze. Z całym szacunkiem dla ich historii i dorobku. - Ponad 1000 prac naukowych i popularno-naukowych, w tym 30 książek i ponad 150 publikacji w językach komunikacji międzynarodowej - tak bardzo preferowanych przez Ministerstwo Nauki - to imponujący dorobek. A jednak... Kiedy robi Pan wieczorem, przed snem, naukowy „rachunek sumienia” czego – po stronie „ma” - Panu brakuje? Czego nie zdążył Pan zrobić? - Bardzo żałuję, że nie udało mi się zrealizować projektu (żaden z wydawców nie chciał się tego podjąć) napisania i wydania historii europejskiego prawa karnego i nauki prawa karnego od antyku po współczesność. Takiej książki nie ma. Szkoda. Chciałem zaprosić do współpracy kilkoro autorów, przede wszystkim zależało mi na obecności prof. Katarzyny Sójki-Zielińskiej. Wiem też, że już nie zdążę napisać syntezy procesów o czary w Europie. Tym tematem również w swoim życiu wielokrotnie się zajmowałem. -Dziękuję za rozmowę
- Autor: red.
- Odsłon: 7259
O bibliometrii i jej pułapkach mówi dr hab. Zbigniew Osiński
z Instytutu Bibliotekoznawstwa i Informacji Naukowej UMCS w
Lublinie
Redakcja: Jakie są zalety i wady bibliometrii?Nie tyle sama bibliometria, czyli zbiór statystycznych metod i narzędzi służących ilościowej analizie piśmiennictwa naukowego ma jakiekolwiek wady i zalety, lecz praktyka wykorzystywania tej subdyscypliny, która może przynosić przydatne wyniki lub narażać na ryzyko wyciągania błędnych wniosków (jak w przypadku oceny jakości pracy badaczy).
Jeżeli chodzi o zalety bibliometrii, to sprowadzają się one do dostarczania informacji pomocnych w planowaniu, organizowaniu i prowadzeniu badań. Oferowane przez bibliometrię metody i narzędzia umożliwiają uzyskanie odpowiedzi na pytania, które każdy naukowiec powinien stawiać, zwłaszcza na etapie planowania pracy badawczej oraz szukania kontaktów naukowych.
Można wymienić szereg problemów, na które bibliometria pomaga znaleźć rozwiązanie: - Jakie badania prowadzi określony naukowiec/zespół/instytut? - Gdzie i kto prowadzi badania na określony temat? - Jakie obszary badawcze wyróżniamy w poszczególnych dyscyplinach i kto się nimi zajmuje?
- Kto z kim współpracuje przy określonych badaniach? - Kto, kiedy i gdzie opublikował wyniki badań na określony temat? Kogo cytował? - Ile osób zajmuje się określonymi badaniami?
- Ile pojawiło się publikacji na ten temat? Które badania są bardziej lub mniej popularne? - Jak zmienia się w czasie aktywność badawcza osób i instytucji? Jak zmieniają się zainteresowania badawcze? - Jakie istnieją nisze badawcze? Jakie są najmodniejsze i najnowsze tematy badawcze? - Które obszary badawcze przenikają się lub uzupełniają? - W którym czasopiśmie lub wydawnictwie możemy publikować wyniki badań na określony temat? Jakość i wiarygodność odpowiedzi na powyższe pytania zależy nie tylko od poprawnego stosowania metod i narzędzi oferowanych przez bibliometrię, lecz także od prawdziwości i kompletności danych bibliograficznych i zbiorów cytowań, które poddajemy analizie i przetwarzaniu.
W przypadku danych bibliograficznych sytuacja badaczy jest dosyć komfortowa, gdyż poza tradycyjnymi źródłami, dysponują licznymi internetowymi zasobami pozwalającymi na pozyskanie kompletnych i wiarygodnych informacji. Mogą korzystać z katalogów bibliotecznych on-line, internetowych baz bibliograficznych, serwisów czasopism, wydawnictw i księgarni, informacji o dorobku naukowym poszczególnych badaczy dostępnych na stronach uczelni lub uczelnianych bibliotek oraz wyników podawanych przez wyszukiwarki wyspecjalizowane w przeszukiwaniu zasobów naukowych (np. Google Scholar i Google Books).
W przypadku cytowań sytuacja jest dużo trudniejsza. Ogólnoświatowe, multidyscyplinarne bazy indeksujące cytowania (Web of Science i Scopus), opierają się na ograniczonym korpusie czasopism (różny stopień kompletności - zależnie od dyscypliny), uznanych z różnych powodów przez prowadzące je redakcje za najbardziej wartościowe.
W Web of Science występuje zdecydowana nadreprezentacja czasopism amerykańskich, a w obu bazach pomijane są wartościowe czasopisma, wydawane nie tylko w innych językach narodowych (co jest typowe i całkowicie zrozumiałe w przypadku większości dyscyplin z nauk humanistycznych i społecznych), lecz często także po angielsku.
Dużym problemem, w przypadku wspomnianych obszarów nauki, jest ograniczenie indeksowania dorobku naukowego prawie wyłącznie do czasopism z pominięciem monografii i książkowych prac zbiorowych, uznawanych przecież za wartościową formę prezentacji wyników badań humanistycznych i społecznych (od kilku lat polityka redakcji Web of Science w tej sprawie zaczyna ulegać zmianie, jednakże na razie polega ona na uwzględnianiu cytowań jedynie w nielicznych, angielskojęzycznych wydawnictwach konferencyjnych i seriach monografii).
Pomijając problem, na ile prawdziwa jest teza, iż w Web of Science i Scopus indeksowane są najwartościowsze czasopisma, to niepodważalnym jest fakt, że w przypadku większości dyscyplin i państw indeksowaniu podlega jedynie nieznaczna część dorobku naukowego. W związku z tym, analiza cytowań w czasopismach obecnych w obu bazach nie pozwala najczęściej na uzyskanie wiarygodnych odpowiedzi na przytoczone powyżej pytania.
Sytuacji nie poprawiają inicjatywy polegające na tworzeniu baz cytowań uwzględniających np. czasopisma z jednej dyscypliny wydawane w jednym państwie (często przestają być rozwijane po zakończeniu grantu). Także te bazy charakteryzują się niekompletnością danych, bo nie uwzględniają najczęściej czasopism multidyscyplinarnych oraz książek. Tak więc badacz, który chciałby przeprowadzić rzetelne analizy bibliometryczne najczęściej skazany jest „ręczne” wyszukiwanie cytowań występujących w pracach z interesującego go obszaru badań. - Czy open access jest lepszym rozwiązaniem w systemach oceny? - Open access, czyli udostępnianie w Internecie prac naukowych bez dodatkowej opłaty (badania opłacili przecież podatnicy, tak więc z ich efektami powinni zapoznawać się bez kolejnych opłat), może przyczynić się do stworzenia nowych rozwiązań w zakresie oceny jakości pracy badaczy. Przede wszystkim, pojawia się szansa na stworzenie rozproszonej, internetowej bazy prac naukowych, pozwalającej na indeksowanie cytowań, która będzie dużo bardziej kompletna niż Web of Science i Scopus.
Weźmy pod uwagę takie fakty jak ten, że spośród recenzowanych artykułów opublikowanych w latach 2008-2011 w czasopismach indeksowanych w bazie Scopus, ok. 40% jest już dostępnych bezpłatnie w Internecie (od 64% z indeksu General Science & Technology, 61% Biomedical Research do 21% Communication & Textual Studies, 13% Visual & Performing Arts), a liczba wszystkich czasopism udostępniających bezpłatnie większość artykułów opublikowanych w minionych latach szybko rośnie.
Obecnie zdecydowana większość czasopism z listy ministerialnej (A, B i C) udostępnia bezpłatnie opublikowane artykuły już od daty publikacji lub po okresie karencji trwającym nie dłużej niż rok lub dwa lata.
Coraz więcej uczelni wymaga od swoich pracowników udostępniania prac naukowych na zasadzie open access w uczelnianych repozytoriach lub bibliotekach cyfrowych. Popularność zyskują także ogólnoświatowe repozytoria multidyscyplinarne.
Przykładowo, repozytorium Academia.edu we wrześniu 2013 r. udostępniało bezpłatnie ponad 1,6 mln artykułów naukowych. Moment, w którym program Publish or Perish liczący cytowania w pracach dostępnych w Internecie będzie tworzył zbiory danych dużo bardziej kompletne, a przez to i bardziej wiarygodne niż wymienione dwie bazy komercyjne, jest już bliski.
Dalszy rozwój open access zależy od przemiany mentalnej u badaczy. Muszą oni zrozumieć, że w XXI wieku odbiorcami ich naukowych studiów są już nie tylko inni badacze, lecz także coraz liczniejsze zastępy specjalistów, którzy do swojej pracy potrzebują najnowszych wyników badań, i którzy swojej działalności zawodowej nie mogą opierać na akademickich podręcznikach i różnych formach wiedzy popularno-naukowej. W związku z tym zapewnienie takim grupom łatwego i taniego dostępu do najnowszych artykułów i książek naukowych staje się problemem kluczowym z punktu widzenia rozwoju społeczno-gospodarczego.
Jeżeli w Internecie dostępne będą prawie wszystkie prace naukowe z ostatnich kilkunastu lat, to pojawią się dużo większe możliwości obiektywnej i sprawiedliwej oceny badaczy, gdyż obok rzeczywistej cytowalności danej publikacji będzie można uwzględnić jej pobieralność z Internetu.
Pojawiły się już pierwsze badania tego wskaźnika. Ronald Snijder dokonał analizy różnorodnych aspektów pobieralności książek udostępnianych przez Open Access Publishing in European Networks Library (http://www.oapen.org/home). Ustalił, że powiązanie danych dotyczących odsetka pobrań dla każdego typu dostawcy książek (autor, uczelnia, wydawnictwo) ze średnią liczbą pobrań dla grup tytułów pozwala na ocenę wpływu i użyteczności badanych prac (Snijder R., Measuring monographs: A quantitative method to assess scientific impact and societal relevance, „First Monday”, 2013, Vol. 18, nr 5 - http://firstmonday.org/ojs/index.php/fm/article/view/4250/3675).
W ten sposób bibliometria uzupełniana jest webometrią (mierzenie zjawisk ilościowych występujących w Internecie).
Jeszcze większą rewolucję we wskaźnikach wykorzystywanych do oceny badaczy może przynieść zjawisko webometryczne zwane społecznościowym indeksem cytowań. Polega ono na zliczaniu recenzji, cytowań, wzmianek i opinii na temat określonego artykułu lub książki pojawiających się w naukowych i ogólnych serwisach społecznościowych, forach dyskusyjnych, blogach, serwisach zarządzających bibliografią, platformach dzielenia się prezentacjami oraz repozytoriach naukowych.
Służą do tego takie narzędzia jak Altmetric (http://www.altmetric.com/) i Total Impact (http://impactstory.org/). Potrafią zbierać informacje z wymienionych obszarów Internetu o książkach i artykułach, które w Sieci umieszczono z dodatkiem identyfikatora DOI (digital object identifier – cyfrowy identyfikator dokumentu elektronicznego). W ten sposób mierzona jest popularność prac danego autora wśród użytkowników określonych zasobów Internetu oraz ich wpływ na innych badaczy i specjalistów.
Ale chyba najbardziej rewolucyjnym rozwiązaniem, bazującym na open access i przydatnym dla oceny jakości pracy naukowej, może stać się społecznościowe recenzowanie. Jeżeli czasopisma open access, biblioteki cyfrowe i repozytoria naukowe wyposażą swoje witryny w funkcjonalność polegającą na tym, że zarejestrowany pod własnym nazwiskiem i zalogowany czytelnik będzie mógł dodawać recenzje poszczególnych prac (pamiętajmy, że będą to głównie inni badacze lub specjaliści wykorzystujący daną dziedzinę wiedzy w pracy zawodowej), to obok wskaźnika typu pobieralność uzyskamy zbiór wartościowych opinii o jakości i przydatności danej pracy. Dzięki temu ocena jakości pracy badacza będzie w większym stopniu merytoryczna i bardziej obiektywna niż w przypadku kierowania się głównie wskaźnikami bibliometrycznymi. Od Redakcji: poprzednie odcinki Autora zamieszczaliśmy w Nr 12/13 SN – Bożek miary naukowców oraz w Nr1/14 SN - Mierzenie umysłów

