Naukowa agora (el)
- Autor: Anna Leszkowska
- Odsłon: 4154
Ponad 270 tys zł będzie musiała zapłacić Szkoła Główna Handlowa w Warszawie za stosowanie klauzul niedozwolonych oraz nieinformowanie konsumentów o istotnych warunkach umowy - uznała prezes Urzędu Ochrony Konkurencji i Konsumentów.
- Autor: al
- Odsłon: 2899
Właściwie trudno się dziwić tej zmianie oblicza szkoły, skoro mieści się ona tuż obok Bazyliki Najświętszego Serca Jezusowego na Pradze, duszpasterstwa Salezjanów. Toteż na Duszpasterza Akademickiego WSM rektor WSM powołał proboszcza pobliskiej parafii.
Wyrazem obowiązującego w szkole światopoglądu są też życzenia rektora szkoły, dr. Pawła Stanisława Czarneckiego, jakie złożył studentom i wykładowcom z okazji świąt Bożego Narodzenia. Czytamy w nich:
Dzień narodzin Jezusa, przeżywany i wspominany jako centralne wydarzenie Świąt Bożego Narodzenia zmienił świat. Od tego dnia czas i historia zyskały nowe oblicze. Historia osobista i społeczna wskazuje, że nie zawsze Człowiek może być dumny ze swoich dokonań. W czasie Świąt Bożego Narodzenia wszystko co należy do przestrzeni codzienności, cichnie oraz maleje. W tych dniach wszyscy stajemy przed wielką Prawdą, której tajemnica i ogrom przytłaczają nas, ale także napawają wielką radością i nadzieją. Narodziny Boga-Człowieka pokazują społeczności ludzkiej jak wielką wartość mają życie i miłość, tolerancja i empatia, wzajemny szacunek i niezbywalna wartość godności człowieka. W tym świątecznym czasie szczególnie mocno dostrzegamy wartość Prawdy, której in principio poszukiwaniem zajmuje się Społeczność Akademicka – każdy z nas.**
W sytuacji, kiedy szkolnictwo prywatne zaczyna odczuwać kłopoty z niżem demograficznym, tylko patrzeć, jak szkoła wystąpi o finansowanie z budżetu państwa na równi z innymi szkołami wyznaniowymi! A może i inne pójdą w jej ślady, bo kto w Polsce odważy się nie dać pieniędzy na szkolnictwo katolickie? (al.)
*http://www.kaweczynska.pl/home/duszpasterstwo-akademickie-wsm/o-duszpasterstwie
** http://www.kaweczynska.pl/uczelnia/wladze-uczelni/rektor/listy-rektora/1141-list-j-m-rektora-wsm-z-okazji-swiat-i-nowego-roku
- Autor: Anna Leszkowska
- Odsłon: 833
Oszustwa Fauciego związane z maseczkami były tylko jednymi z wielu „szlachetnych kłamstw”, które ujawniły jego skłonność do manipulacji. Jak skarżyli się jego krytycy, nie są to cechy, które powinny charakteryzować bezstronnego urzędnika publicznej służby zdrowia. Fauci wyjaśnił w „New York Timesie”, że podniósł swoje szacunki dotyczące zakresu szczepień potrzebnego do zapewnienia „odporności stadnej” z 70 procent w marcu do 80–90 procent we wrześniu nie na podstawie badań naukowych, ile raczej w odpowiedzi na sondaże, które wskazywały na rosnącą akceptację szczepień.
Regularnie wyrażał przekonanie, że odporność poinfekcyjna jest bardzo prawdopodobna, chociaż publicznie zajął stanowisko, że naturalna odporność nie przyczynia się do ochrony populacji. Popierał szczepienia osób, które przeszły covid, przeciwstawiając się tym samym przytłaczającym dowodom naukowym, że były one zarówno niepotrzebne, jak i niebezpieczne. Gdy pytano go o to 9 września 2021 roku, Fauci przyznał, że nie może podać żadnego naukowego uzasadnienia dla tej polityki.
We wrześniu 2021 roku, w wystąpieniu uzasadniającym szczepienie dzieci w wieku szkolnym, z nostalgią wspominał szczepienia przeciwko odrze i śwince, które miał przyjmować w szkole podstawowej, co jest mało prawdopodobne, ponieważ szczepionki te były dostępne dopiero w 1963 i 1967 roku, a Fauci uczęszczał do szkoły podstawowej w latach czterdziestych. Drobne kłamstewka dotyczące maseczek, odry, świnki, odporności stadnej i naturalnej odporności świadczą o jego niebezpiecznej tendencji do manipulowania faktami w celu realizacji swojego programu politycznego.
Pandemia COVID-19 nauczyła nas, że urzędnicy odpowiedzialni za zdrowie publiczne oparli wiele swoich katastrofalnych dyrektyw dotyczących walki z chorobą na niepewnych i pozbawionych podstaw naukowych przekonaniach. Liczne niesprawdzone teorie na temat maseczek, lockdownów, wskaźników infekcji i śmiertelności, bezobjawowej transmisji – jak również bezpieczeństwa i skuteczności szczepionek – wywołały zamieszanie, podziały i polaryzację wśród społeczeństwa i ekspertów medycznych.
Swobodne podejście doktora Fauciego do faktów mogło przyczynić się do tego, co było dla mnie najbardziej niepokojące i irytujące we wszystkich reakcjach urzędników zdrowia publicznego na COVID-19. Rażące i bezlitosne manipulowanie danymi w celu realizacji programu szczepień ukoronowało rok oszałamiających nadużyć regulacyjnych. Wysokiej jakości przejrzyste dane naukowe, jasno udokumentowane i publicznie udostępnione w odpowiednim czasie, są warunkiem sine qua non kompetentnego zarządzania zdrowiem publicznym.
Podczas pandemii wiarygodne i wyczerpujące dane mają kluczowe znaczenie dla określenia zachowania patogenu, identyfikacji wrażliwych grup populacji, szybkiego pomiaru skuteczności interwencji, mobilizowania społeczności medycznej do użycia najnowocześniejszych środków do walki z chorobą oraz efektywnej współpracy ze społeczeństwem.
Szokująco niska jakość praktycznie wszystkich istotnych danych odnoszących się do COVID-19, jak również szarlataneria, wybiórcze traktowanie faktów i inne rażące zachowania odpowiedzialnych osób, zgorszyłyby i upokorzyły wcześniejsze pokolenia amerykańskich urzędników zdrowia publicznego.
Zbyt często doktor Fauci znajdował się w centrum tych systemowych oszustw. Popełniane „pomyłki” zawsze zmierzały w tym samym kierunku – podkreślały zagrożenia związane z koronawirusem oraz bezpieczeństwo i skuteczność szczepionek, co miało na celu podsycanie publicznego strachu przed covidem i doprowadzenie społeczeństwa do masowego posłuszeństwa.
Usprawiedliwienia dla jego błędów obejmują obwinianie społeczeństwa (teraz głównie osób nieszczepionych), polityki i wyjaśnianie ciągłych zmian swoich poglądów słowami: „Musimy ewoluować wraz z nauką”.
Na początku pandemii doktor Fauci zastosował wyjątkowo niedokładne modele, które przeszacowały liczbę zgonów w USA o 525 procent. Ich autorem był oszust zajmujący się fabrykacją danych na temat pandemii, Neal Ferguson z Imperial College w Londynie, który otrzymał dofinansowanie od Bill & Melinda Gates Foundation (Fundacji Billa i Melindy Gatesów, BMGF) w wysokości 148,8 miliona dolarów. Fauci wykorzystał jego modele jako uzasadnienie dla wprowadzenia lockdownów.
Szef NIAID zgodził się na selektywne zmiany protokołu CDC dotyczące wypełniania aktów zgonu, dzięki którym zawyżano liczbę zgonów, a tym samym wskaźnik śmiertelności z powodu covidu. CDC przyznały później, że tylko 6 procent zgonów z powodu covidu wystąpiło u całkowicie zdrowych osób. Pozostałe 94 procent zmarłych cierpiało na średnio 3,8 potencjalnie śmiertelnych chorób współistniejących.
Testy PCR, które CDC z opóźnieniem uznały w sierpniu 2021 roku, nie pomagały odróżnić covidu od innych chorób wirusowych z powodu niewłaściwego ich wykorzystania. Fauci tolerował ich stosowanie przy nieodpowiednio wysokich zakresach cykli, od 37 do 45, mimo że wcześniej powiedział Vince’owi Racaniellowi, że testy wykorzystujące progi powyżej 35 cykli prawdopodobnie nie wykażą obecności żywego wirusa, który mógłby się replikować. W lipcu 2020 roku Fauci sam zauważył, że na tych poziomach pozytywny wynik to „tylko martwe nukleotydy, kropka”, ale nie zrobił nic, aby zmodyfikować testy, by stały się dokładniejsze.
Doktor Fauci, którego można śmiało nazwać carem covidu z powodu niepodzielnej i absolutnej władzy, jaką dysponował, nigdy nie skarżył się na decyzję CDC o pominięciu sekcji zwłok w przypadku zgonów przypisywanych szczepieniom. Ta praktyka pozwoliła uporczywie twierdzić, że wszystkie zgony, które nastąpiły po szczepieniu, nie były „związane ze szczepieniem”. CDC odmówiły przeprowadzenia dalszych badań medycznych osób, które twierdziły, że doszło u nich do powikłań poszczepiennych. Szpitale również przyczyniły się do oszustwa, zainspirowane finansowymi zachętami do sklasyfikowania każdego pacjenta jako ofiary covidu. Medicare płaciło szpitalom 39 tysięcy dolarów za wykorzystanie respiratora podczas leczenia COVID-19 i tylko 13 tysięcy w przypadku innych infekcji dróg oddechowych. Doktor Fauci ponownie przymknął oko na oszustwo.
Niewybaczalnym zaniedbaniem Fauciego była odmowa naprawienia notorycznie dysfunkcyjnego Vaccine Adverse Event Reporting System (Systemu Monitorowania powikłań poszczepiennych, VAERS) stosowanego przez HHS. Badania HHS wskazują, że VAERS może zaniżać obrażenia poszczepienne o ponad 99 procent. Fakty na temat śmiertelności lub ryzyka związanego z covidem z podziałem na wiek nie zostały nigdy przedstawione opinii publicznej na tyle jasno, aby ludzie wraz ze swoimi lekarzami mogli dokonać opartej na dowodach naukowych osobistej oceny ryzyka.
Urzędnicy federalni celowo przedstawiali to w sposób niejasny lub wręcz uciekali się do oszustwa, aby malować w ciemnych barwach zagrożenia związane z covidem w każdej grupie wiekowej. Takie oszustwa widoczne były w praktycznie wszystkich doniesieniach mediów głównego nurtu – zwłaszcza CNN i „New York Timesa” – dając opinii publicznej ogromnie zawyżony i katastrofalnie niedokładny obraz śmiertelności. Badania opinii publicznej wykazały, że widzowie CNN i czytelnicy „New York Timesa” byli poddani dezinformacji w zakresie faktów dotyczących COVID-19 w 2020 roku, podobnie jak publiczność Fox News po zamachach bombowych z 11 września 2001 roku. Kolejne sondaże Gallupa wykazały, że statystyczny demokrata uważał, że 50 procent zakażeń covidem prowadziło do hospitalizacji. Rzeczywista liczba wynosiła mniej niż jeden procent.
Zaufanie do ekspertów
Zamiast domagać się badań naukowych o najwyższych standardach i zachęcać do uczciwej, otwartej i odpowiedzialnej debaty na temat zdobytej w ten sposób wiedzy, poważnie skompromitowani rządowi urzędnicy do spraw zdrowia odpowiedzialni za walkę z pandemią COVID-19 współpracowali z mediami głównego nurtu i mediami społecznościowymi, aby stłumić dyskusję na temat kluczowych kwestii zdrowia publicznego. Uciszali lekarzy proponujących wczesne terapie, które mogłyby konkurować ze szczepionkami, oraz odmawiających bezwarunkowej wiary w przetestowane byle jak eksperymentalne szczepionki, za które nikt nie chciał wziąć odpowiedzialności.
Chaotyczne gromadzenie i myląca interpretacja danych pozwoliły organom regulacyjnym uzasadniać swoje arbitralne dyktaty pod płaszczykiem „konsensusu naukowego”. Aby uzasadnić nakaz noszenia maseczek, wprowadzenie lockdownów i masowych szczepień, władcy naszego systemu zdrowia nie cytowali rzetelnych badań naukowych i nie podawali przejrzystych danych, lecz opierali się na teoriach promowanych przez doktora Fauciego lub podporządkowane mu instytucje, takie jak WHO, CDC, FDA i NIH, równocześnie usprawiedliwiając uzyskanie przez technokrację medyczną nowych, niebezpiecznych uprawnień.
Wielbiciele Fauciego, w tym prezydent Biden oraz prezenterzy wiadomości telewizyjnych i internetowych, radzili Amerykanom, aby „ufali ekspertom”. Rady te były zarówno antydemokratyczne, jak i antynaukowe. Nauka i zdobywanie wiedzy jest procesem dynamicznym. „Eksperci” często nie zgadzają się w wielu kwestiach, a ich opinie mogą się różnić w zależności od zapotrzebowania ze strony polityków, władzy i własnego interesu finansowego. Prawie każdy proces sądowy, w jakim brałem udział, stawiał przeciwko sobie wysoce uznanych ekspertów obu stron, przy czym wszyscy pod przysięgą wygłaszali diametralnie przeciwne stanowiska na podstawie tego samego zestawu faktów. Mówienie ludziom, aby „zaufali ekspertom” jest albo naiwne, albo stanowi manipulację – albo jedno i drugie.
Wszystkie uciążliwe nakazy doktora Fauciego i jego wybiórcze wykorzystywanie danych służyły podsycaniu strachu i pogłębiały desperację opinii publicznej, czekającej na stworzenie szczepionek, które miały przetransferować miliardy dolarów z kieszeni podatników do portfeli członków zarządów koncernów farmaceutycznych i ich akcjonariuszy.
Robert F. Kennedy, Jr.
Jest to fragment książki Roberta F. Kennedy’ego Jr. Prawdziwy Anthony Fauci wydanej przez Wydawnictwo Iluminatio. Jej recenzję - Fauci - "Lekarz Ameryki", symbol bezprawia - zamieszczamy w tym numerze SN.
- Autor: Anna Leszkowska
- Odsłon: 2726
Początek wyścigu
Za motor postępu wszystkie kraje rozwinięte uważają naukę i wynikające z niej innowacje. To dlatego Komisja Europejska w kwietniu 2018 napisała: „Jak maszyna parowa i elektryczność w przeszłości, sztuczna inteligencja zmienia nasz świat, społeczeństwo i przemysł. Jest to jedna z najbardziej strategicznie ważnych technologii XXI wieku. Chodzi o najwyższą stawkę. Sposób, w jaki podejdziemy do sztucznej inteligencji zdefiniuje rzeczywistość, w jakiej będziemy żyć”.
Nie ma wątpliwości, że sztuczna inteligencja (AI), a zwłaszcza uczenie maszynowe, to najważniejsze technologie naszych czasów. Zapowiedziano, że do końca 2020 roku, by sprostać konkurencji Chin, USA i innych krajów, nakłady na rozwój AI i jej zastosowań w Unii Europejskiej powinny osiągnąć 20 mld euro rocznie!
Na spotkaniu w maju 2019 Komisja Europejska ogłosiła powołanie czterech Europejskich Centrów Doskonałości przed końcem roku, każde ma otrzymać na początek 12 mln euro. Skąd ten alarmistyczny ton i tak szybkie działania? Wielu ludzi wciąż uważa, że jesteśmy jeszcze daleko od stworzenia „prawdziwie inteligentnych” maszyn, skupiając się na kontrowersjach wokół definicji inteligencji i futurologicznych rozważaniach o etyce robotów. Nie chodzi jednak o definicje, tylko o określenie, co maszyny już robią, lub w niedalekiej przyszłości będą robić sprawniej niż ludzie. Ta lista robi się coraz dłuższa, a to spowoduje zwiększoną konkurencję, jak i utratę miejsc pracy na dużą skalę, zwłaszcza w biedniejszych krajach.
W dodatku postęp w ostatnich latach pokazał, że naiwne przewidywania dotyczące rozwoju sztucznej inteligencji są błędne. To, że AI czegoś w tej chwili nie potrafi zrobić nie oznacza, że jutro też tak będzie. Przegrana Kasparowa z programem Deep Blue w 1997 roku była szokiem, ale pocieszaliśmy się, że są trudniejsze gry niż szachy, np. go. Postępy były powolne i przewidywano, że zajmie to jeszcze kilkadziesiąt lat. Tymczasem w 2016 roku Lee Sedol, wielokrotnych mistrz świata z Korei, przegrał 4:1 z programem Google AlphaGo. Rok później nowsza wersja Programu, Alpha Go Zero, wygrała z mistrzowskim programem 100:0, ucząc się wszystkiego sama. Ludzka wiedza, gromadzona przez tysiące lat, okazała się zbędna.
Uczenie maszynowe zmieniło reguły gry, komputery nie robią już tego, co im zaprogramujemy, ale potrafią nauczyć się reguł i strategii postępowania. Wygrywają praktycznie we wszystkie gry, w tym złożone zespołowe gry strategiczne takie jak StarCraft czy Dota 2. Roboty nadal grają słabo w piłkę nożną i nie tańczą salsy, ale humanoidalne roboty Boston Dynamics potrafią już zrobić fikołka do tyłu i wykonywać niemal akrobatyczne skoki.
Starcie Lee Seedola z AlphaGo oglądało 280 mln Chińczyków. W ciągu roku entuzjazm inwestorów do AI w Chinach sięgnął zenitu, prawie połowa funduszy kapitału ryzyka na świecie przeznaczona została dla firm rozwijających sztuczną inteligencję i jej zastosowania. Nic dziwnego, że rok później Komisja Europejska uderzyła w alarmowe dzwony. Czy Europa ma szansę w światowym wyścigu wykorzystania i rozwoju sztucznej inteligencji? W połowie listopada byłem na spotkaniu w Trieście zorganizowanym przez SISSA, czyli Międzynarodową Szkołę Studiów Zaawansowanych. To mała uczelnia, specjalizująca się w fizyce, matematyce i neuronaukach na poziomie doktoranckim, uznawana za najlepszą we Włoszech i jedną z najlepszych na świecie. Świadczą o tym choćby 23 granty ERC (European Research Council), najbardziej prestiżowe w Europie - mniej więcej tyle udało się zdobyć wszystkim polskim naukowcom w ciągu całej minionej dekady. Było tylko 10 referatów (w tym mój o tym, jak AI pozwoli naprawiać ludzkie mózgi), a w czasie paneli dyskusyjnych mogliśmy się dowiedzieć, jak wyglądają plany rozwoju badań i programów nauczania sztucznej inteligencji w kilku krajach.
Jedną z najlepszych uczelni brytyjskich jest University College London (UCL). Na 3 magisterskie programy w zakresie uczenia maszynowego i sztucznej inteligencji zgłasza się tam 3000 kandydatów z całego świata, a przyjmowanych jest zaledwie 140.
Kanadyjczycy utworzyli 3 centra badawcze AI (Montreal, Toronto i Edmonton), oraz ufundowali duże projekty dotyczące wybranych zastosowań, np. Scale AI w zakresie logistyki, które ma w ciągu jednej dekady stworzyć 16 tysięcy miejsc pracy i dodać 16.5 mld dolarów do Kanadyjskiego GDP (produktu krajowego brutto).
Jednakże i w tych krajach pojawiają się poważne problemy, bo przemysł (w tym Google DeepMind, twórca AlphaGo) wyciąga z uczelni profesorów, oferując im bardzo atrakcyjne warunki. Gdyby nie imigranci, uczelnie brytyjskie i amerykańskie nie miałyby kogo uczyć w naukach ścisłych i informatyce. Wystarczy popatrzeć na nazwiska autorów publikujących w najlepszych czasopismach związanych z sztuczną inteligencją; ponad 90% to Chińczycy i Hindusi, często pracujący w USA lub Europie. To korzyści z otwarcia się na świat.
Strategia „Plasując AI na czele wizji rozwoju Malty” z marca 2019 roku głosi, że „Malta ma tworzyć przełomowe technologie, a nie tylko być naśladowcą”.
Czesi w swojej strategii za kluczowe uznają przyciąganie talentów i zastosowanie rezultatów badań w praktyce, utworzenie Europejskiego Centrum Doskonałości Badań AI, oraz Europejskich Centrów Testowania i Cyfrowych Innowacji.
Zjednoczone Emiraty Arabskie ogłosiły, że w Abu Dhabi od września 2020 rozpocznie działalność uniwersytet, w którym realizowane będą programy magisterskie i doktoranckie w zakresie sztucznej inteligencji, bo przewidują, iż w 2022 roku globalna wartość różnych firm dzięki AI osiągnie 4 biliony dolarów.
Wszędzie brakuje ekspertów od AI, więc częścią planów wszystkich bogatych krajów jest „brain drain” z biedniejszych krajów. Powinniśmy temu jak najszybciej przeciwdziałać, ale konkurencja jest globalna, więc będzie to kosztowna inwestycja, na którą nas po prostu nie stać.
Francja i Chiny z dużym rozmachem
Francja postawiła sobie ambitny cel: być wśród 5 krajów najbardziej zaawansowanych w rozwoju sztucznej inteligencji. W 2017 roku prezydent Hollande obiecał dodatkowe 1,5 mld euro na ten cel, a po zmianie rządu prezydent Macron podtrzymał te obietnice. Na spotkaniu w SISSA był dr Bertrand Braunschweig, dyrektor odpowiedzialny za wdrażanie planu „Sztuczna inteligencja dla ludzkości” (AI for Humanity Plan) we Francji. Połowa tych pieniędzy przeznaczona będzie na kształcenie i badania (w tym kwestie etyczne i socjologiczne rozwoju AI), a połowa na wdrożenia, w tym cyberbezpieczeństwo i obronność.
Powołano 4 nowe instytuty w Paryżu, Tuluzie, Grenoble i na Uniwersytecie Cote de Azur, każdy z budżetem 300 mln euro, a w nich 130 profesorów z wsparciem ekspertów po doktoracie ściąganych z całego świata. Naucza się tu po angielsku, co we Francji jest rzadkością. Dodatkowo ufundowano 40 nowych katedr związanych z AI, oraz tylko w tym roku 300 stypendiów doktoranckich. Ogłoszono konkursy w czterech obszarach, dotyczących zdrowia, energii, środowiska i obronności, z budżetem 30 mln euro w każdym z nich.
Są też duże inwestycje przemysłu samochodowego w rozwój autonomicznych pojazdów i robotyki, które wymagają dalszych, długoletnich badań w zakresie analizy obrazów i sterowania. Nie ma obecnie takiego sektora gospodarki, który nie zmieni się pod wpływem sztucznej inteligencji. Wpływ na to będą miały też repozytoria dużych danych i kluczowa narodowa infrastruktura superkomputerowa.
Francuzi martwią się utratą ekspertów z narodowych laboratoriów, zatrudnianych przez zagraniczne firmy, dlatego szybko opracowali dobrą strategię (przygotowaną pod kierunkiem znanego matematyka Cedrica Villani) i poczynili odpowiednie inwestycje, by ją urzeczywistnić. Mogli rozdać pieniądze na cele socjalne i uspokoić zamieszki żółtych kamizelek, zwiększając poparcie dla rządu, ale realizują długofalowe cele strategiczne. W swojej strategii podkreślają, że nie ma szans by wynagrodzenia w rządowych laboratoriach było porównywalne z oferowanym przez takie firmy jak Google czy Apple, ale różnice są teraz tak duże, że bez znacznego podniesienia płacy nie będzie szans na zatrzymanie zdolnych informatyków na uczelniach i w instytutach badawczych.
Największe wsparcie dla rozwoju sztucznej inteligencji ogłosiły Chiny, stawiając sobie za cel dominację w tym obszarze do 2030 roku. Eksperci nie mają wątpliwości, że się im to uda. Już od paru lat smartfony wyposażone w aplikację WeChat, chińską „aplikację do wszystkiego”, umożliwiają dostęp do elektronicznej bankowości, robienia zakupów, zamawiania usług, komunikacji i dostępu do sieci społecznościowych, są używane na wielką skalę. Obecnie z tej aplikacji korzysta ponad miliard użytkowników, a firma Tencent, która ją rozwija, działa już w 49 krajach poza Chinami.
Jeśli ktoś ma wątpliwości, że czeka nas nowa era globalnej dominacji Chin, powinien przeczytać książkę Kai-Fu Lee Inteligencja sztuczna, rewolucja prawdziwa. Chiny, USA i przyszłość świata. Autor zrobił doktorat ze sztucznej inteligencji na Uniwersytecie Carnegi Mellon, pracował dla Apple, Silicon Graphics, zakładał Microsoft Research Asia w Pekinie, a następnie Google China, by w 2009 roku utworzyć firmę „Sinovation Ventures”, inwestującą w projekty AI, wartą obecnie miliardy dolarów.
Początkowo inwestycje rządowe, a następnie firmy prywatne, stworzyły w Chinach niesłychanie konkurencyjne środowisko dla rozwoju badań i usług związanych ze sztuczną inteligencją. Tamtejsi eksperci mają dostęp do ogromnej ilości danych dotyczących zachowań konsumentów, finansów i danych medycznych, a chińskie firmy potrafią je wykorzystać (my mamy RODO, które to skutecznie utrudnia i ciągle nie mamy żadnych repozytoriów na większą skalę).
Stworzyć wyszukiwarkę usług, np. restauracji w pobliżu, jest łatwo, ale zbudować ekosystem dostarczania posiłków z dowolnej restauracji, czyli połączyć usługi w sieci z dostarczaniem żywności, potrafili jak dotąd tylko Chińczycy. Skoro każda restauracja może sprzedawać swoje produkty „na dowóz”, którego nie musi sama organizować, klienci mniej sami gotują, a więcej kupują. Zatrudnienie w firmach dowożących i restauracjach wzrasta, a duża konkurencja wpływa na poprawę jakości posiłków, bo trzeba się starać, by klient wrócił.
Taka „pionowa integracja” usług, od wyszukiwania po dostarczenie produktu, pozwala dużym firmom na umocnienie swojej pozycji rynkowej, gdyż trudno jest zbudować podobne konkurencyjne systemy. Na tej zasadzie działa też chiński konkurent Amazona, czyli AliBaba, z którego usług korzysta już ponad 5 mln ludzi w Polsce.
AI a sprawa Polska
Polska poparła działania Komisji Europejskiej i przy końcu 2018 roku wydawało się, że jest szansa, by szybko opracować strategię rozwoju AI, podobnie jak zrobiły to różne kraje Unii. W sierpniu 2018 roku na prośbę Ośrodka Przetwarzania Informacji (to Państwowy Instytut Badawczy podległy MNiSW) środowisko naukowe zorganizowało seminarium, przygotowując różne opracowania dotyczące rozwoju i zastosowań AI (dostępne na stronie www.sztucznainteligencja.org.pl), a następnie - w październiku - dwudniową konferencję na Politechnice Poznańskiej.
Udało się na niej utworzyć Polskie Porozumienie na rzecz Rozwoju Sztucznej Inteligencji (PP-RAI), organizację zrzeszającą kilka polskich towarzystw (sieci neuronowych, sztucznej inteligencji, systemów uczących się, oddziały IEEE towarzystw inteligencji obliczeniowej i cybernetyki). Rok później odbyła się druga konferencja na Politechnice Wrocławskiej.
Inicjatywę opracowania polskiej strategii sztucznej inteligencji powierzono Ministerstwu Cyfryzacji (MC), które współpracuje z Ministerstwem Przedsiębiorczości i Technologii (MPIT), kładąc przede wszystkim nacisk na współpracę z przemysłem. W lutym 2019 powołano międzyresortowy zespół do opracowania strategii, składający się z 12 osób. Pod koniec sierpnia do konsultacji społecznych przedstawiono opracowany przez ten zespół projekt „Polityki Rozwoju Sztucznej Inteligencji w Polsce na lata 2019-2027”.
Dokument skupia się głównie na potencjalnym wpływie sztucznej inteligencji na rozwój społeczno-gospodarczy i pod tym względem spełnia swoje zadanie. W zespole zabrakło doświadczonych naukowców pracujących aktywnie nad AI. Naukę można - jak widać -potraktować podobnie jak hodowlę koni, kompetencje nie są do tego potrzebne.
Pod wieloma względami założenia strategiczne większości krajów są podobne. W Polsce ma powstać lub już utworzono szereg instytucji, które mają wykorzystać sztuczną inteligencję. Nową instytucją powołaną przez rząd jest „Platforma Przemysłu Przyszłości” z siedzibą w Radomiu, wspieraną przez tamtejszy Uniwersytet Technologiczno-Humanistyczny. Planowany jest konkurs dla uczelni wyższych pod nazwą „Akademia Innowacyjnych Zastosowań Technologii Cyfrowych”, wspierający prace magisterskie w zakresie sztucznej inteligencji, uczenia maszynowego oraz cyberbezpieczeństwa.
Projekt rozpocznie się w 2021 roku, a planowany budżet to 100 mln zł. Lider tej Akademii będzie pomagał tworzyć „Wirtualne Instytuty Badawcze” zrzeszające ekspertów z różnych ośrodków w interdyscyplinarnych zespołach badawczych. Ma to być szansą na zachęcenie polskich naukowców do powrotu z ośrodków zagranicznych, jak i nawiązanie współpracy z wiodącymi ośrodkami zagranicznymi. Ma też powstać „Obserwatorium AI dla Rynku Pracy” oraz „Obserwatorium Międzynarodowej Polityki Sztucznej Inteligencji i Transformacji Cyfrowej”.
Zainteresowanych powstaniem takich instytucji jest kilka resortów. W projekcie polityki rozwoju AI poświęcono wiele miejsca aspektom etycznym, planując powstanie „Wirtualnej Katedry Etyki i Prawa”, której zadaniem będzie doradztwo, udział w debacie publicznej oraz poszukiwanie sposobów rozwiązania problemów prawnych i etycznych, jakie mogą się pojawić z powodu rozwoju inteligentnych technologii. Na razie są to jednak tylko wstępne projekty, forma prawna takich instytucji nie jest jasna. Raczej nie ma szans na uruchomienie proponowanych programów przed 2021 rokiem, a więc w stosunku do krajów przodujących, w których już istnieją liczne centra badawcze, czekają nas dodatkowe lata opóźnień.
Kilka inicjatyw już udało się uruchomić. Program GovTech Polska pozwala na zgłaszanie różnym ministerstwom, urzędom, instytucjom samorządowym i prywatnym firmom na przedstawienie istotnych społecznych wyzwań, które można rozwiązać za pomocą technologii informatycznych, w tym sztucznej inteligencji.
Na stronie programu jest sporo wyzwań wymagających budowy systemów z wykorzystaniem sztucznej inteligencji. Jak AI może przechytrzyć potencjalnych cyberprzestępców? Jak zbudować system zobrazowania skomplikowanych sytuacji w cyberprzestrzeni? Jak pomóc pracownikom biura wsparcia klienta w dotarciu do potrzebnych informacji w trakcie konwersacji z klientem? Jak rozpoznać podejrzane oferty sprzedaży? Jak automatycznie zweryfikować wiek gracza maszyn hazardowych?
Rozwiązanie takich problemów wymagać będzie wysokich kompetencji. Służyć temu mają doktoraty wdrożeniowe przy współpracy uczelni, bądź instytutów badawczych, z przedsiębiorcami nad rozwiązaniami konkretnych problemów. Jest to rozwiązanie stosowane w wielu krajach z dobrym skutkiem, ale wymaga od przedsiębiorców pewnej wyobraźni, by sformułować ambitne, ale realistyczne, zadania.
Projekty formułowane przez nowo powstające Szkoły Doktorskie też często związane są z zastosowaniami sztucznej inteligencji. Dobrym przykładem jest tu Szkoła Doktorska Technologii Informacyjnych i Biomedycznych (TIB PAN), w której uczestniczy 6 instytutów Polskiej Akademii Nauk i Państwowy Instytut Badawczy NASK. Na razie na inne działania związane z rozwojem sztucznej inteligencji nie widać funduszy.
Gdybyśmy mieli w Polsce być kreatorami nowych rozwiązań, należałoby najpierw zdefiniować wyzwania, jakie stoją przed sztuczną inteligencją i stworzyć centra badawcze, które by nad nimi pracowały. O tym jednak w omawianym dokumencie nie ma ani słowa. Można odnieść wrażenie, że sztuczna inteligencja to rzemiosło i wystarczy zająć się wdrożeniami na licencji zagranicznych firm oferujących odpowiednie narzędzia.
Nasze możliwości finansowe są znacznie skromniejsze niż przodujących krajów; korzystając z grantów europejskich nie możemy płacić ludziom nawet połowy tego, co Francuzi czy Niemcy. Koszty wejścia Polski do grupy 20–25% wiodących krajów w tworzeniu rozwiązań AI oceniane są we wspomnianym dokumencie na temat polityki rozwoju na prawie 10 mld zł. Rozłożone na 4-5 lat to nie tak wiele dla budżetu zorientowanego na rozwój kraju, ale czy naprawdę można na to liczyć?
Chociaż strategie rozwoju sztucznej inteligencji skupiają się na potencjalnych korzyściach, zastosowaniach, aspektach prawnych i etycznych, trzeba pamiętać, że jest to gałąź informatyki wymagająca dalszego rozwoju. Stosowane w AI algorytmy są coraz bardziej wyrafinowane, a ich zrozumienie i właściwe wykorzystanie wymaga głębokiej wiedzy.
Czy obecny system oceny nauki zachęca do takiego rozwoju? Niestety, ostatnie działania MNiSW raczej w tym nie pomogą. Ustawa 2.0, czyli reforma nauki ministra Gowina, pozwala na dość radykalne zmiany systemowe w sposobie organizacji uczelni wyższych, ale też tworzy bardzo zbiurokratyzowany sposób ewaluacji osiągnięć naukowych. Nie ma wątpliwości, że chęci były dobre, zamierzenia ambitne, szeroko konsultowane, ale skutki mogą być opłakane. W praktyce ocena indywidualna naukowca sprowadza się do podsumowania punktów za jego publikacje, czyli najważniejszy element wkładu danej osoby do oceny jednostki naukowej, w której pracuje. Konieczny jest wybór dyscypliny, do której trzeba przypisać każdą publikację, co w przypadku zastosowań sztucznej inteligencji w różnych dziedzinach będzie trudne.
Czy zastosowania AI mamy przypisać do informatyki technicznej, czy może medycyny, psychologii, ekonomii lub prawa? Pomimo starań, nie udało się uwzględnić badań międzyobszarowych na liście oficjalnych dyscyplin naukowych. Efektem będzie handel publikacjami pomiędzy różnymi dyscyplinami naukowymi, które będą potrzebować punktów by dobrze wypaść w ewaluacji. Tożsamość środowiska ekspertów od AI, rozproszonego w różnych dyscyplinach, zupełnie się rozmyje.
Podobnie jak kilku innych polskich ekspertów, dostałem zaproszenie do udziału w konkursach na kierowanie grupami badawczymi we Francji. Dostałem też zaproszenie do szkoły doktorskiej w Heidelbergu w ramach niemieckiej „Inicjatywy Doskonałości”. Ludzie, którzy coś w tej dyscyplinie już zrobili z Polski po prostu wyjadą. Rząd nawet nie próbował wykorzystać ich wiedzy, powołując zespoły, do których każdy mógł się zgłosić, w których nie było ani jednej osoby działającej w międzynarodowych organizacjach związanych z sztuczną inteligencją. Brak konkretnych działań, wieloletnie opóźnienia w stosunku do innych krajów i trudności w prowadzeniu interdyscyplinarnych badań w tak strategicznym obszarze może nas w przyszłości drogo kosztować.
Włodzisław Duch
UMK Toruń
Wyróżnienia w tekście pochodzą od Redakcji SN.
O sztucznej inteligencji wypowiadali się ostatnio w SN:
- prof. Robert Gałązka, fizyk – Sztuczna inteligencja okiem fizyka – SN 11/19
- prof. Tomasz Downarowicz, matematyk – Sztuczna inteligencja okiem matematyka – SN 10/19
- Martyna Czapska, prawnik – Sztuczna inteligencja a prawo – SN 8-9/19
- dr Małgorzata Suchacka, socjolog – Od człowieka do robota – SN8-9/19
- prof. Ryszard Piotrowski, prawnik – Robot sędzią? – SN 3/18
- prof. Andrzej Wierzbicki, automatyk – Czym się zająć? – SN 1/18
- prof. Wiesław Sztumski, fizyk i filozof – Wykluczanie człowieka – SN 3/18