Nauka i gospodarka (el)
- Autor: Anna Leszkowska
- Odsłon: 1793
Z prof. Piotrem Perlinem z Instytutu Wysokich Ciśnień PAN rozmawia Anna Leszkowska
- Panie Profesorze, jeden z portali ostatnio podał, iż konsorcjum MEADS International przedstawiło MON swoją ofertę dla programu obrony powietrznej „Wisła”. Propozycje współpracy przemysłowej objęły między innymi transfer do Polski technologii azotku galu (GaN), którą my posiadamy. Jak to więc jest: w Instytucie Wysokich Ciśnień PAN – a później i w firmie Ammono - tę technologię wiele lat temu stworzono i opanowano, a teraz zamierzamy ją kupić od Amerykanów?
- Wątpię w amerykańską propozycję przekazania technologii azotkowych do Polski. Z kontekstu wynikałoby, że chodzi o technologię tranzystorów azotkowych wysokich częstości, technologii o dużym znaczeniu militarnym. Takich technologii Amerykanie z zasady nie transferują. Wiele lat temu, przez jakiś czas negocjowaliśmy formy amerykańskiego wsparcia w offsecie F16. W momencie, gdy doszło do rozmów o transferze istotnych technologii Amerykanie natychmiast się wycofali.
Rzeczywiście, Amerykanie mają u siebie kilka wiodących na świecie firm działających w obszarze tak zwanej elektroniki mikrofalowej (elektronika dla radarów) opartej o azotek galu. Jednak ta branża jest traktowana w USA jako strategiczna. Na marginesie, interesujące wyniki w tej dziedzinie uzyskane były również przez polskie konsorcjum badawcze złożone z IWC PAN, Instytutu Technologii Elektronowej i Politechniki Warszawskiej.
- Ale wojsko nie zwracało się do IWC PAN w tej sprawie?
- Wspomniane wyżej konsorcjum badawcze miało kontakt z polskim przemysłem zbrojeniowym. Mamy nadzieję, że te kontakty będą się rozwijać. Ale polska część historii nie zaczęła się od tranzystorów, ale od kryształów azotku galu. To ta technologia pozwoliła na wytworzenie w Polsce (już prawie 20 lat temu) laserów emitujących światło fioletowe i niebieskie. Ich produkcje do dziś rozwija nasza firma TopGaN.
Jeśli jednak patrzymy na świat, to liczy się przed wszystkim ogromny przemysł wytwarzający diody elektroluminescencyjne (LED) na bazie azotków. Ten wielomiliardowy przemysł produkujący między innymi białe żarówki LED-owe, skupiony jest głównie w Japonii, na Tajwanie, Stanach Zjednoczonych. W Europie to tylko Philips Lumileds i niemiecki Osram. W tym przemyśle nie widzimy polskich akcentów. Jednak w laserach (choć w liczbach bezwzględnych nie jesteśmy potęgą) jesteśmy znani z innowacyjnych produktów TopGaN-u i z wysokiej jakości podłoży GaN wytwarzanych przez podwarszawską firmę Ammono.
- Kiedy powstała u nas technologia tworzenia kryształów GaN, panowała euforia, że oto możemy zawojować nią świat i zdobyć ok. 2% światowego rynku laserów półprzewodnikowych …
- Może i mogliśmy, bo startowaliśmy dość wcześnie w porównaniu z innymi. Trzeba jednak zdać sobie sprawę, że grant strategiczny, który był pierwszym krokiem w stronę praktycznych technologii, był relatywnie skromny. Kwota około 27 milionów złotych rozłożona na 3 lata została przeznaczona na opracowanie detektorów ultrafioletu (Instytut Technologii Materiałów Elektronicznych – ok 12.5 mln zł) i technologii laserów (dzisiejszy IWC PAN 12, 5 mln zł). Mniejsze kwoty otrzymał też Lumel z Zielonej Góry i WAT.
12,5 mln zł to około 3 mln dolarów, kwota niewiele przewyższająca koszty jednego reaktora epitaksjalnego. Umożliwiła ona demonstrację wczesnych prototypów. Koszty prawdziwego wdrożenia są minimum 20 razy większe. Tylko dzięki prywatnemu inwestorowi, który zainwestował w firmę TopGaN (założoną po demonstracji lasera) sporo pieniędzy, była szansa na stopniową komercjalizację tych badań. Warto tu zdać sobie sprawę, że czas rozwoju nowoczesnych technologii jest długi, zwykle kilkanaście lat w sytuacjach, gdy chodzi o oryginalne technologie współczesnej optoelektroniki.
- Po latach od zakończenia tamtego programu jesteśmy mądrzejsi, ale w dalszym ciągu nie mamy tak dużych pieniędzy, ani zespołów badawczych, które umożliwiłyby sukces podobnie nowatorskiej technologii. Czy zatem jest sens startować w wyścigu z najlepszymi?
- Warto przypomnieć, że niestety, w momencie startu projektu niebieskiego lasera w 1999 roku istniały już – i to nienajgorsze - lasery japońskie. Na samym początku mieliśmy do Japończyków ok. 5 lat opóźnienia i za świetny wynik uważamy, to że to późnienie wzrosło tylko trochę przy kilkudziesięciokrotnej różnicy w nakładach na B+R. Firma japońska weszła na rynki masowe, ale to nie zamyka przed nami wiele szans takich jak rynki niszowe i wyłaniające się.
- Ale do ich zajęcia potrzebny jest też przemysł, którego u nas nie ma. Co z tego, że zrobimy unikatową technologię, skoro nie będzie jej gdzie wdrożyć… Gdzie firmy umiejące wytwarzać azotek galu, jak np. Ammono, miałyby to robić na skalę przemysłową?
- Kręcimy się, w jakimś sensie w zaklętym kręgu, pomiędzy skromnymi funduszami badawczymi, nie istniejącym przemysłem wysokich technologii i nieufnymi funduszami venture capital. Mamy kłopoty z kreowaniem ultranowoczesnego przemysłu, casus spółki Ammono wyraźnie to pokazuje.
Nasz wielki nowoczesny (może średnio nowoczesny) przemysł oparty jest na transferze know-how międzynarodowych firm. Ale nikt nie przenosi i nie przeniesie do Polski tego, co najnowocześniejsze, najdroższych i najbardziej opłacalnych technologii. To musimy zrobić sami. Niestety, nie wiemy jak to zrobić. Brakuje nawet mapy możliwości i świadomości, gdzie są nasze szanse. A znalazłoby się na pewno parę dziedzin, być może niszowych, w których moglibyśmy zabłysnąć. Rozwiązaniem mógłby być mechanizm „risk sharing” (podział ryzyka), wspólne inicjatywy inwestycyjne państwowo-prywatne.
- Tymczasem Ammono już nie ma. A była to firma z wszystkimi widokami na sukces: powstała dzięki kapitałowi japońskiemu, rozwijała się i nagle upadła.
- Ammono jest w fazie upadłości likwidacyjnej, ale ciągle istnieje, stąd mamy nadzieję na lepszą przyszłość tej firmy. Upadłość wynikła z braku kapitału i poniekąd z niecierpliwości inwestora nieprzyzwyczajonego do długiego dochodzenia do produktu w firmach technologicznych. Trzeba pamiętać, że hi-tech nie polega na tym, że przynosi natychmiastowe zyski. Tu trzeba długo i cierpliwie inwestować.
Ammono ma przed sobą zarówno bariery jakościowe (podłoże o odpowiednich dla przemysłu rozmiarach) jak i ilościowe – produkcja tysięcy sztuk kryształów. Dla mnie jednak Ammono wiązać się będzie zawsze z widokiem sal konferencyjnych podczas referatów przedstawicieli tej firmy. Zwykle głęboko śpiący Japończycy, budzili się i zaczynali nerwowo notować. Wszystkich nas cieszył ten widok.
Podłoża azotkowe adresowane są obecnie do wąskiego kręgu odbiorców - producentów laserów (dominacja firm japońskich). To była dodatkowa bariera wejścia na ten rynek dla firm takich jak Ammono. Ale sytuacja się zmienia. Świat technologii azotku galu rośnie, a wraz z nim popyt na kryształy azotku galu również dla tranzystorów.
Rozbudowa firm typu Ammono nie jest jednak w Polsce sprawą oczywistą. Lokalny venture capital nie ma na to pieniędzy, a fundusze międzynarodowe uważają inwestowanie w Polsce za ryzykowne ze względu na brak tradycji i infrastruktury.
Azotki uważane są w tej chwili za najbardziej obiecujący system półprzewodnikowy. Wiadomo, że nie wyprą krzemu z zastosowań w zintegrowanej elektronice (mikroprocesory), ale w elementach dyskretnych wysokiej mocy jest duża szansa na masową penetrację rynku przez elektronikę azotkową. Czy tę szansę uda nam się jakoś wykorzystać?
- Ale kto w Polsce ma robić ten azotek galu?
- Podłoża z azotku galu może robić Ammono, jeśli przeżyje. Technologia Ammono współdziała też z innymi technologiami wzrostu opracowanymi w IWC PAN, prowadząc do demonstracji ultrawysokiej jakości materiału. Tak więc szanse są. Trzeba jednak myśleć długofalowo. Wystarczy popatrzeć na Koreę Południową, która kiedyś startowała ze znacznie niższego punktu rozwoju niż Polska. Decyzja stawiająca na przemysł elektroniczny mogła być więc traktowana jako szalona, zwłaszcza, że w Japonii była Sony, Panasonic, Sharp, Toshiba, z którymi trudno było konkurować. Ale była wizja, cierpliwość i ciężka praca, dzięki czemu dziś to Japończycy zielenieją na widok wyrobów Samsunga. Więc może nadszedł czas zainwestowania i u nas w coś nowoczesnego, co mogłoby za 20 lat wynieść nas na szczyty.
- Temu ma służyć plan wicepremiera Morawieckiego.
- Trzeba mieć wizje rozwojowe, nie powinniśmy się ich bać. Kto ma być motorem napędowym rozwoju technologicznego przemysłu w Polsce? Dla naszego przemysłu – takiego jak choćby chemicznego czy surowcowego - takie przedsięwzięcia wysokotechnologiczne są dużym wyzwaniem. Bo to jest decyzja nie do końca tylko ekonomiczna.
- Lotos, Orlen czy KGHM nawet nie zamawiały prac badawczych…
- Rzeczywiście, dlatego jako bardziej naturalny widzę w Polsce rozwój nowych technologii poprzez uczelnie, instytuty i wychodzące z nich start-up-y, którym jednak trzeba zapewnić możliwości przejścia przez trudny początkowy okres. Z samych projektów NCBiR nie przeżyją, muszą mieć też dodatkowe źródła finansowania. Problem w tym, że kapitału na rozwój tych firm prawie nie ma, a istniejący jest bardzo specyficznie ukierunkowany. Jednak w żadnym wypadku nie rezygnowałbym z inicjatyw zmierzających do kreowania dużych przedsięwzięć, gdyż start-upy szybko dochodzą do bariery maksymalnego rozwoju.
- Czy z tego długiego cyklu dochodzenia do pozycji rynkowej i trudności finansowania bierze się opinia, że w Polsce jest niechęć do wdrożeń?
- Myślę, że ludzie z uczelni boją się przedsięwzięć przemysłowych, bo jest to bardzo ryzykowna strategia życiowa i niespecjalnie rokująca materialnie. To jest niezwykle trudna droga, psychologicznie niekonkurencyjna dla konwencjonalnej akademickiej kariery naukowej.
- Czyli lepiej publikować, starać się o granty niż ryzykować niepowodzenie…
- Ludzie zdają sobie sprawę, że jeśli przedsięwzięcie się nie uda, to może przetrącić ich karierę naukową, będą mieć problemy z powrotem na uczelnię. Ponadto u nas ludzie wstydzą się, kiedy ich firma upadnie, czego nie ma np. w USA, gdzie wynalazca, który przeżył upadek nawet kilku firm jest poszukiwanym ekspertem, cenionym za praktyczne doświadczenie, upór i wizję. W dodatku ludzie ci często powracają na uczelnie po odniesieniu sukcesu na polu gospodarczym.
Wydaje mi się, że fundamentalnym problemem sprzężenia polskiej nauki z gospodarką jest pokonanie pewnej wartości krytycznej. Przez ostatnie 20 lat np. rozmawiamy o tym, czy niebieski laser był klęską czy sukcesem, teraz rozmawiamy o Ammono, grafenie i perowskitach. Czyli trzech - czterech przedsięwzięciach z obszaru wysokiej technologii, obiektywnie niewielkich. Podpieramy się jasnym punktem sukcesu warszawskiego Vigo (detektory podczerwieni). Tymczasem takich przedsięwzięć w samej Warszawie winna być ze setka, żeby uczelnie czuły na plecach oddech przemysłu. Bo tak naprawdę uczelniami interesują się przede wszystkim małe firmy, które potrzebują wkładu naukowego, żeby utrzymać się na rynku.
Wydaje mi się, że duży przemysł jeszcze nie potrzebuje nauki akademickiej jako wsparcia, bo kupuje gotowe rozwiązania, technologie pod klucz. Robi tak, gdyż stworzenie prawdziwie innowacyjnej technologii trwa 10-15 lat. Jednak jeśli będziemy się bać perspektywy 15 lat, to nie zrobimy nic poważnego. 2-3 lata to dosyć na niektóre rozwiązania IT, tu Polska nie jest słabeuszem, musimy jednak myśleć w perspektywie długofalowej, inaczej nasze sny o polskiej Nokii nigdy się nie spełnią. Pomagajmy więc start-up-om - to nie są wielkie wydatki i dobrze pasują do naszego ducha oddolnej inicjatywy, ale pomyślmy też jak wykreować przyszłe Nokie lub takie firmy jak niemiecki Infeon.
– Właściwie nie wiadomo, jak postępować przy słabościach gospodarki i braku kapitału. Bo w przypadku jakiegoś odkrycia, dobrego pomysłu, są dwie drogi: albo sprzedać go za granicę i stracić nad tym kontrolę, albo próbować rozwijać u siebie. Obie drogi są niesatysfakcjonujące.
- Nie mając w Polsce wiele przemysłu hi-tech nie mamy też doświadczenia, ani przetartych dróg w jego tworzeniu i konsumpcji innowacji. Ostatnim pomysłem (Ministra Rozwoju) było użycie do tego celu wielkich spółek z udziałem skarbu państwa. Nie mamy, niestety, amerykańskiej DARPA-y, myślącej o postępie w kategoriach dekad, ani odpowiednio bogatej armii. W USA, w przypadku branży półprzewodników, to zamówienia wojskowe odgrywają znaczącą rolę w stymulowaniu prac rozwojowych. Brak tych mechanizmów w Polsce powoduje, że trudno jest pomóc spółce Ammono.
- Czyli w przypadku, gdyby nasze wojsko chciało nawet skorzystać z rodzimych rozwiązań, to i tak w Polsce nie miałby kto takich azotkowych tranzystorów zrobić?
- Nie do końca, bo jak już wspominałem, niedawno z dużym sukcesem zakończył się projekt NCBiR – POLHEMT, dotyczący opracowania tranzystorów azotkowych dla radarów (ITE, IEC PAN, Politechnika Warszawska). Obszarem tranzystorowym zainteresowane jest Centrum Zaawansowanych Materiałów (CEZAMAT). Punkt startowy byłby więc bardzo dobry.
Ale chciałbym tu dorzucić uwagę o medialnych aspektach innowacji. Oczywiście, miło byłoby powiedzieć, że coś jest polską specjalnością, coś wymyśliliśmy, jednak medialny przekaz po niebieskim laserze, grafenie, a i po perowskitach, był dla klimatu innowacyjności w Polsce fatalny. Przekonano ludzi, że to w Polsce narodziły się te urządzenia czy materiały. Trudno było potem wytłumaczyć, dlaczego nie odcinamy kuponów od tych pionierskich wynalazków. A przecież pierwszy laser azotkowy zademonstrowali Japończycy, grafen otrzymano w Wielkiej Brytanii, perowskity syntetyzowane są w wielu miejscach i różnymi metodami.
W każdym z tych obszarów polscy badacze mieli swój udział, zostawili ślad, ale oni tego nie wymyślili pierwsi. Legendy tego typu, chętnie podchwytywane przez media, zawsze prowadzą po roku czy dwóch do rozczarowań i zniechęcenia zarówno opinii publicznej jak i decydentów. Prawda zaś jest taka, że w każdym interesującym obszarze technologii na świecie są setki lub tysiące zespołów próbujących zdobyć wysoką pozycję. Znaczna część z nich ma więcej pieniędzy lub więcej doświadczenia niż zespoły polskie. Łatwo zrozumieć, że wywalczenie pozycji w czołówce jest trudne i nigdy nie jesteśmy tam sami.
Cieszmy się więc z naszych innowacji, ale nastawmy się na to, że w każdym z tych przypadków do końcowego sukcesu komercyjnego jest bardzo daleko i potrzeba nam do tego wiele uporu, determinacji, szczęścia i pieniędzy. Ale przede wszystkim trzeba chcieć, bo koniec końców wszystko jest możliwe!
Dziękuję za rozmowę.
- Autor: Anna Leszkowska
- Odsłon: 456
W 1770 roku niemiecki chemik Carl Wilhelm Scheele przeprowadził eksperyment, w wyniku którego nieoczekiwanie powstał trujący gaz. Badacz uznał go za „utleniony kwas solny”, choć dziś wiemy, że był to chlor. Dwa stulecia później niemiecki chemik Fritz Haber opracował metodę syntezy i masowej produkcji amoniaku, co dało początek nowoczesnemu przemysłowi nawozowemu i zrewolucjonizowało tym samym rolnictwo. Haber otrzymał Nagrodę Nobla w dziedzinie chemii w 1918 roku. Jednakże jego badania, w połączeniu z wcześniejszym odkryciem Scheelego, umożliwiły stworzenie broni chemicznej, którą Niemcy stosowali podczas I wojny światowej.
Jest to doskonały przykład „dylematu podwójnego zastosowania, polegającego na tym, że badania naukowe i techniczne, które mają służyć ogólnemu dobru, mogą też celowo lub przypadkowo zostać wykorzystane do wyrządzenia szkody. Zarówno w chemii, jak i w fizyce dylemat podwójnego zastosowania od dawna stanowi poważny problem i przyczynek do zawierania międzynarodowych traktatów ograniczających najbardziej niepokojące zastosowania kontrowersyjnych badań. Ze względu na konwencję o zakazie prowadzenia badań, produkcji, składowania i użycia broni chemicznej oraz o zniszczeniu jej zapasów (znaną również jako konwencja o zakazie broni chemicznej lub CWC) – traktat podpisany w Paryżu przez 130 państw – wykorzystanie wielu niebezpiecznych chemikaliów w badaniach naukowych lub medycznych musi być monitorowane i ściśle kontrolowane.
Jednym z przykładów jest rycyna, która naturalnie występuje w nasionach rącznika pospolitego i służy do produkcji nieszkodliwego dla ludzi oleju rycynowego, ale sama w sobie jest śmiertelnie toksyczna nawet w najmniejszych dawkach. Już krótka ekspozycja na jej opary lub spożycie żywności skażonej niewielką ilością substancji może doprowadzić do zgonu. Na liście CWC znajduje się również trietanoloamina, która jest stosowana w leczeniu infekcji ucha i w preparatach do usuwania zalegającej woskowiny usznej, a w kosmetyce do zagęszczania kremów do twarzy i równoważenia pH pianek do golenia, ale może być również używana do produkcji gazu musztardowego.
Z podobnymi traktatami, procedurami egzekwowania postanowień i agencjami monitorującymi podwójne zastosowania mamy do czynienia w dziedzinie chemii, fizyki i sztucznej inteligencji. Ale biologia syntetyczna jest tak młodą dziedziną, że nie podlega jeszcze żadnym umowom międzynarodowym, mimo że w społeczności naukowej od dziesięcioleci toczy się dyskusja o tym, jak zapobiegać szkodom.
W latach 2000–2002 zespół naukowców z Uniwersytetu Stony Brook prowadził eksperyment, którego celem było ustalenie, czy można zsyntetyzować żywego wirusa od podstaw, używając wyłącznie publicznych informacji genetycznych, powszechnie dostępnych substancji chemicznych i DNA sprzedawanego drogą wysyłkową. (Projekt kosztował 300 tysięcy dolarów i został sfinansowany przez DARPA w ramach przeciwdziałania wojnie biologicznej).
Naukowcy kupili krótkie odcinki DNA i starannie je poskładali, używając dziewiętnastu dodatkowych markerów, aby odróżnić syntetycznego wirusa od naturalnego szczepu, który próbowali odtworzyć.
Odnieśli sukces. 12 lipca 2002 roku – tuż po tym, jak Amerykanie świętowali pierwszy Dzień Niepodległości po atakach terrorystycznych z 11 września i miliony obywateli odczuły ulgę, że tego dnia nie doszło do kolejnego strasznego wydarzenia – ogłosili, że udało im się odtworzyć wirus polio przy użyciu informacji genetycznych, materiałów i sprzętu, do których każdy, nawet Al-Kaida, miał łatwy dostęp. Ich eksperyment miał być ostrzeżeniem, że terroryści mogą wytwarzać broń biologiczną i nie potrzebują żywego wirusa, aby uczynić śmiertelnie niebezpieczne narzędzie z patogenu, takiego jak wirus ospy czy ebola.
Wirus polio jest prawdopodobnie najintensywniej badanym wirusem w historii, i w czasie, gdy naukowcy ze Stony Brook prowadzili swój eksperyment, próbki patogenu były przechowywane w laboratoriach na całym świecie. Celem eksperymentu nie była reintrodukcja szczepów polio, lecz poznanie metod tworzenia wirusów.
Po raz pierwszy stworzono tego typu wirusa od podstaw, a Departament Obrony uznał to za ogromne osiągnięcie. Umiejętność syntetyzowania wirusowego DNA może pomóc badaczom w Stanach Zjednoczonym lepiej zrozumieć, w jak sposób wirusy mutują, stają się odporne na szczepionki i mogą być przekształcane w śmiercionośną broń.
I chociaż tworzenie wirusa w celu poznania jego potencjalnego użycia jako broni biologicznej może wydawać się dyskusyjne z prawnego punktu widzenia, wspomniany projekt nie naruszył żadnych istniejących traktatów o podwójnym zastosowaniu, nawet traktatu z 1972 roku, wyraźnie zakazującego wytwarzania czynników chorobotwórczych – takich jak bakterie, wirusy i toksyny biologiczne – które mogłyby zostać użyte na niekorzyść ludzi, zwierząt lub roślin.
Niemniej społeczność naukowa była wzburzona. Celowe opracowanie „syntetycznego ludzkiego patogenu” było „nieodpowiedzialne” – powiedział wtedy Craig Venter.
Nie był to jednak odosobniony incydent. W 1979 roku Światowa Organizacja Zdrowia ogłosiła, że wirus ospy prawdziwej, nazywanej również czarną ospą, został całkowicie zwalczony. Było to wielkie osiągnięcie ludzkości, ponieważ ospa prawdziwa jest naprawdę diaboliczną chorobą – niezwykle zakaźną i pozwalającą jedynie na leczenie objawowe. Powoduje wysoką gorączkę, wymioty, silny ból brzucha, czerwoną wysypkę i bolesne, żółtawe, ropne wykwity, które najpierw są umiejscowione na błonie śluzowej gardła, a następnie rozprzestrzeniają się na usta, policzki, oczy i czoło. W miarę jak wirus sieje spustoszenie w organizmie, zmiany pojawiają się na podeszwach stop, wnętrzach dłoni, w okolicy bruzdy międzypośladkowej i na całej powierzchni pośladków chorego. Każdy ruch powoduje ucisk na zmiany chorobowe, aż w końcu pęcherze pękają, wydzielając gęsty płyn złożony z martwej tkanki i wirusa.
Istnieją tylko dwie znane próbki naturalnej ospy prawdziwej: jedna jest przechowywana w CDC, a druga w Państwowym Centrum Wirusologii i Biotechnologii w Rosji. Przez lata eksperci ds. bezpieczeństwa i naukowcy debatowali, czy zniszczyć te próbki. Nikt przecież nie chce kolejnej globalnej pandemii czarnej ospy.
Dyskusja okazała się jednak bezcelowa, kiedy w 2018 roku zespół badawczy z Uniwersytetu Alberty w Kanadzie w zaledwie sześć miesięcy zsyntetyzował wirusa ospy końskiej, wymarłej kuzynki ospy prawdziwej, z DNA, które zamówiono online.
Protokół zastosowany do stworzenia wirusa ospy końskiej z pewnością sprawdziłby się również w przypadku ospy prawdziwej. Zespół opublikował wyczerpujący raport z przebiegu eksperymentu w „PLOS One”, recenzowanym, ogólnodostępnym czasopiśmie naukowym, które każdy może przeczytać online.
Artykuł zawierał opis metod, których użyto do wskrzeszenia ospy końskiej, wzbogacony o najlepsze praktyki dla tych, którzy chcieliby powtórzyć eksperyment we własnych laboratoriach. Na korzyść zespołu przemawia fakt, że przed opublikowaniem wyników główny badacz postępował zgodnie z protokołem, tak jak Yang w przypadku zmodyfikowanych grzybów, i poinformował rząd kanadyjski o planowanej publikacji.
Zespół ujawnił również zaistniały konflikt interesów: jeden z badaczy był również dyrektorem generalnym i prezesem Tonix Pharmaceuticals, firmy biotechnologicznej badającej nowatorskie podejścia do zaburzeń neurologicznych; rok wcześniej Tonix Pharmaceuticals i Uniwersytet Alberty złożyły w amerykańskim urzędzie patentowym wniosek o przyznanie patentu na „syntetyczne chimeryczne pokswirusy”.
Nikt – ani rząd kanadyjski, ani redaktorzy czasopisma – nie wystosował prośby o zaniechanie publikacji wyników. Eksperymenty z wirusem polio i ospy końskiej dotyczyły syntezy wirusów z wykorzystaniem technologii, które powstały w dobrej wierze. Naukowcy i eksperci ds. bezpieczeństwa obawiają się czegoś innego: że terroryści nie tylko zsyntetyzują śmiercionośny patogen, ale też celowo zmutują go, aby stał się silniejszy, odporniejszy i szybszy. Naukowcy prowadzą takie eksperymenty w laboratoriach o najwyższym poziomie bezpieczeństwa biologicznego, próbując przewidzieć najgorsze scenariusze poprzez tworzenie i badanie potencjalnie śmiercionośnych patogenów.
Ron Fouchier, wirusolog z Erasmus Medical Center w Rotterdamie, ogłosił w 2011 roku, że wzmocnił wirusa ptasiej grypy H5N1, aby mógł on przenosić się z ptaków na ludzi, a następnie między ludźmi, jako nowy szczep śmiertelnej grypy. Przed nastaniem COVID-19 H5N1 był najgorszym wirusem, jaki zaatakował naszą planetę od czasu grypy hiszpanki, która siała spustoszenie w latach 1918–1920. W czasie, gdy Fouchier przeprowadzał swój eksperyment, tylko 565 osób było zarażonych H5N1, ale wskaźnik śmiertelności był wysoki: 59% zarażonych zmarło.
Podsumowując, Fouchier sięgnął po jeden z najniebezpieczniejszych naturalnie występujących wirusów grypy, z jakimi kiedykolwiek mieliśmy do czynienia, i uczynił go jeszcze groźniejszym. Powiedział, że dokonał licznych zmian w sekwencji genetycznej H5N1, tak aby wirus unosił się w powietrzu, a zatem był znacznie bardziej zaraźliwy. Nie istniała żadna szczepionka przeciwko H5N1, a dotychczasowy wirus był już odporny na zatwierdzone leki przeciwwirusowe.
Odkrycie Fouchiera, częściowo sfinansowane przez rząd Stanów Zjednoczonych, tak bardzo przeraziło naukowców i ekspertów ds. bezpieczeństwa, że Narodowa Rada Naukowa ds. Bezpieczeństwa Biologicznego (NSABB), działająca w ramach NIH, zwróciła się w bezprecedensowym posunięciu do czasopism „Science” i „Nature” z prośbą o usunięcie fragmentów jego artykułu przed publikacją. Obawiali się, że niektóre szczegóły i dane dotyczące mutacji mogą umożliwić nieuczciwym naukowcom, wrogiemu rządowi lub grupie terrorystów stworzenie własnej, wysoce zaraźliwej wersji H5N1.
Przeżyliśmy globalną pandemię, której nikt nie chce ponownie doświadczyć. Możemy mieć szczepionki przeciw COVID-19, ale nadal współistniejemy z wirusem. W chwili pisania tego tekstu w Stanach Zjednoczonych istnieje kilka niepokojących wariantów, które obejmują szczepy z Wielkiej Brytanii (B.1.1.7), RPA (B.1.351), Brazylii (P.1) i Indii (B.617.2, znany jako wariant Delta).
Zanim wytępimy SARS-CoV-2, tak jak wirusa ospy prawdziwej, pojawi się więcej mutacji i wiele nowych szczepów. Niektóre mogą wpływać na organizm w sposób, jakiego jeszcze nie doświadczyliśmy, albo nawet nie jesteśmy w stanie sobie wyobrazić. Niestety, nie ma najmniejszej pewności co do tego, jak i kiedy wirus może zmutować.
Oczywiście, chciałoby się wierzyć, że badania wirusologiczne są prowadzone w laboratoriach, w których fanatyczne wręcz przestrzeganie standardów bezpieczeństwa i rygorystycznych zasad nadzoru jest bezwzględnie egzekwowane. Tymczasem tuż przed ogłoszeniem przez Światową Organizację Zdrowia, że wirus ospy prawdziwej został eradykowany, u fotografki medycznej Janet Parker, pracującej na wydziale medycznym uniwersytetu w Birmingham w Anglii, nagle pojawiła się gorączka i bóle ciała, a kilka dni później czerwona wysypka. Parker sądziła, że to ospa wietrzna. (Szczepionka wtedy jeszcze nie istniała). Małe, przypominające pryszcze kropki, których się spodziewała, przeszły jednak w znacznie większe zmiany wypełnione mlecznożółtym płynem. Ponieważ stan kobiety się pogarszał, lekarze orzekli, że zaraziła się wirusem ospy prawdziwej, pochodzącym zapewne z niedbale zarządzanego laboratorium badawczego, które znajdowało się piętro niżej od jej miejsca pracy. Tuż po postawieniu tej druzgocącej diagnozy główny badacz laboratorium popełnił samobójstwo. Parker niestety zmarła. Jest ostatnią znaną śmiertelną ofiarą ospy prawdziwej.
Czy korzyści płynące z możliwości precyzyjnego przewidywania mutacji wirusów przewyższają ryzyko publiczne, jakie niosą badania typu gain-of-function (GoF), tj. badania obejmujące umyślne wywoływanie mutacji wirusów w celu uczynienia ich silniejszymi, bardziej zaraźliwymi i groźniejszymi? To zależy, kogo zapytasz. A raczej, do której agencji zwrócisz się z tym pytaniem.
NIH wydało w 2013 roku serię zaleceń dotyczących bezpieczeństwa biologicznego badań nad H5N1 i innymi wirusami grypy, ale zakres tych wytycznych był stosunkowo wąski i nie obejmował innych wirusów. W 2014 roku Biuro Polityki Naukowej i Technicznej Białego Domu ogłosiło nowe procedury oceny ryzyka i korzyści płynących z eksperymentów GoF, obejmujące grypę oraz wirusy MERS i SARS. Te nowe zasady wstrzymały jednak trwające badania nad nowymi szczepionkami przeciw grypie.
Rząd zmienił kurs w 2017 roku, po tym, jak Narodowa Rada Naukowa ds. Bezpieczeństwa Biologicznego ustaliła, że takie badania nie stanowią zagrożenia dla bezpieczeństwa publicznego. W 2019 roku rząd USA ogłosił, że wznawia finansowanie – uwaga – nowej serii eksperymentów GoF, mających na celu ponowne zwiększenie transmisyjności wirusa ptasiej grypy H5N1.
Jednak niezależnie od tego, w którą stronę przechyla się ta huśtawka decyzyjna, osoby o niegodziwych zamiarach wciąż mają dostęp do szczegółowych artykułów naukowych i materiału genetycznego sprzedawanego drogą wysyłkową.
Jeśli chodzi o biologię syntetyczną, eksperci ds. bezpieczeństwa są szczególnie zaniepokojeni zagrożeniami, jakie mogą wyniknąć z problemu podwójnego zastosowania w przyszłości. Tradycyjne strategie obrony ludności nie zadziałają w starciu z wrogiem, który zaadaptował produkty genetyczne lub specjalnie zaprojektowane molekuły do użycia w formie broni biologicznej.
W artykule opublikowanym w sierpniu 2020 roku w czasopiśmie naukowym „CTC Sentinel”, które koncentruje się na współczesnych zagrożeniach terrorystycznych, dr Ken Wickiser, biochemik i prodziekan ds. badań w akademii wojskowej West Point, napisał: „Ponieważ narzędzia inżynierii molekularnej dostępne biologom syntetycznym stają się coraz potężniejsze i bardziej rozpowszechnione, prawdopodobieństwo pojawienia się przynajmniej jednego z tych zagrożeń graniczy z pewnością. (…) Ze skalą zmian, jakie ten rozwój wnosi do krajobrazu zagrożeń, może konkurować jedynie budowa bomby atomowej”.
Amy Webb, Andrew Hessel
Jest to fragment książki Projekt Genesis autorstwa Amy Webb i Andrew Hessela wydanej w Wydawnictwie Prześwity. Jej recenzję zamieszczamy w tym numerze.
Tytuł i wyróżnienia pochodzą od Redakcji SN.
- Autor: Wojciech Cellary
- Odsłon: 6487
„Od zawsze" prowadzi się w Polsce dyskusje w najróżniejszych gremiach, jak poprawić innowacyjność, bo w rankingach Polska plasuje się daleko za światową czołówką. Nie jest to bynajmniej dyskusja o znaczeniu wyłącznie akademickim, tylko wynika z troski o to, w jaki sposób polska gospodarka będzie konkurować na rynkach światowych.
- Autor: Anna Leszkowska
- Odsłon: 1083
Ważnym elementem drogi do społeczeństwa informacyjnego, czy społeczeństwa wiedzy, będzie technika cyfrowa, której jednak nie należy rozumieć w sensie sztucznej inteligencji. Taka nazwa wprowadza w błąd sugerując, że komputer może dorównać inteligencją człowiekowi czy nawet go przewyższać.
Tymczasem to, co popularnie (a błędnie) nazywane jest sztuczną inteligencją, to inteligencja cyfrowa, logiczna, zaś pełna inteligencja człowieka opiera się w decydującym stopniu na inteligencji emocjonalnej, obejmującej m.in. intuicję, empatię, itp.
To inteligencja emocjonalna jest głównym źródłem innowacyjności i wynalazczości i dlatego też inteligencja cyfrowa nie uczyniła dotąd żadnego wynalazku.
Tym niemniej, technika cyfrowa będzie - tak jak ostatnio - decydowała nie tylko o potencjale ekonomicznym, lecz także o stosunkach społecznych w nowym społeczeństwie informacyjnym, czy też społeczeństwie wiedzy. Trzeba przy tym pamiętać, że droga do społeczeństwa wiedzy wynikać będzie z zasadniczego ograniczenia pracy wytwórczej oraz usługowej na skutek powszechnego zastosowania automatyzacji i robotyzacji.
To nie technika jest przy tym odpowiedzialna za te zmiany, tylko podstawowy mechanizm kapitalizmu: zastępowanie pracy przez kapitał, czy raczej maszyny i urządzenia za ten kapitał kupione w dążeniu do większych zysków.
Mechanizm ten działa już od ponad dwustu lat, ale ostatnio znacznie przyspieszył ze względu na podaż technik automatyzacji i robotyzacji, a także na dodatnie sprzężenie zwrotne zawarte w tym mechanizmie (im więcej przedsiębiorca zyska na wdrożeniu nowych technik, tym bardziej jest skłonny ponownie w nie inwestować).
O ile dwieście lat temu wystarczało raz w życiu nauczyć się nowego zawodu, dzisiaj przedstawiciele technik informacyjnych twierdzą, że nowego zawodu trzeba się uczyć siedem razy w życiu.
Wprawdzie trend ten nie wyeliminuje całkowicie pracy człowieka (pozostaną zawody wymagające inteligencji emocjonalnej i pracy twórczej), ale utrata miejsc pracy może wywołać znaczne napięcia społeczne. Dlatego też w najbliższych dekadach konieczna będzie zmiana społecznych wymagań wobec przedsiębiorcy: nie wystarczy, że wytworzy on zysk, ale wymagane będzie, aby kreował on także miejsca pracy, ograniczając mechanizm zastępowania pracy przez kapitał.
Istnieją przy tym proste a niezawodne wskaźniki ekonomiczne (jak stosunek funduszu płac pracowniczych do całkowitego dochodu przedsiębiorstwa, który dla przedsiębiorstw produkcyjnych w Polsce zmalał w latach 1990-2010 od ok. 50% do ok. 10%), od których można uzależnić opodatkowanie przedsiębiorcy tak, by był on fiskalnie umotywowany do kreowania miejsc pracy i ograniczenia trendu zastępowania pracy przez kapitał*.
Andrzej P. Wierzbicki
Instytut Łączności, Państwowy Instytut Badawczy
*p. A.P. Wierzbicki, Przyszłość pracy w społeczeństwie informacyjnym, Komitet Prognoz PAN „Polska 2000 Plus” oraz Instytut Łączności, PIB, Warszawa 2015.