Informacje (el)
- Autor: Anna Leszkowska
- Odsłon: 2559
O szansach i zagrożeniach, jakie niesie czwarta rewolucja przemysłowa debatował 22.11.17 Komitet Prognoz PAN „Polska 2000+”. Konferencja odbywała się w ramach cyklu "Czy Świat należy urządzić inaczej".
Na wstępie prof. Bogdan Galwas przypomniał historię dotychczasowych rewolucji:
- pierwszej, która rozpoczęła się w roku 1784 i związana była z wynalazkiem maszyny parowej; rozpoczął się wtedy wiek pary;
- drugiej, w roku 1870, która zapoczątkowała wiek elektryczności, silnika Diesla, a wkrótce masowej produkcji;
- trzeciej, przemysłowej, która zaczyna się umownie w roku 1969 i zapoczątkowuje wiek elektroniki, komputera, automatyzacji i robotyzacji produkcji;
- czwarta, której świadkami jesteśmy, zaczęła się umownie w roku 2010
i rozpoczęła wiek sztucznej inteligencji.
Podkreślił, iż ta ostatnia nosi także nazwę przemysłowej z uwagi na niezwykle szybko zachodzące zmiany (wzrost wykładniczy), ich globalny zasięg i dogłębność oraz wpływ na system życia i funkcjonowania całej ludzkości.
Co dzisiaj możemy powiedzieć o 4. rewolucji przemysłowej? Z jednej strony, szybki rozwój nauki i technologii daje nadzieję na rozwiązanie wielu problemów (np. z zakresu medycyny, energetyki, wody, zanieczyszczeń powietrza, ocieplenia). Zwłaszcza, że na świecie jest coraz więcej wykształconych ludzi (w latach 1960-80 uczelnie wykształciły około 150 mln specjalistów, miedzy 1980-2000 - 300 mln, a w nadchodzących 20 latach przybędzie 450 milionów dobrze wykształconych ludzi).
Z drugiej jednak – rodzi obawy o zasięg i nieprzewidywalność zmian, o panowanie nad ich skutkami (np. rosnące podziały społeczne, bezrobocie, problemy zdrowia psychicznego, rosnące zanieczyszczenie ekosfery).
Kto wie, czy czwarta rewolucja napędzana mechanizmem walki wolnorynkowej o pieniądze i zysk, bez zwracania uwagi na negatywne skutki w społeczeństwach i w środowiskach nie doprowadzi do katastrofy w skali planetarnej.
Na zagrożenia te zwróciła również uwagę CIA w 2007 roku pisząc, że "regiony, państwa i grupy, które czują się pominięte staną przed pogłębiającą się ekonomiczną stagnacją, polityczną niestabilnością i kulturalną alienacją. Będą one popierać polityczny, etniczny, ideologiczny oraz religijny ekstremizm, wraz z często towarzyszącą jej przemocą”.
Sztuczna inteligencja
Jednak 4. rewolucja przemysłowa to przede wszystkim początek epoki cyfryzacji i sztucznej inteligencji (AI). O zagrożeniach związanych z tym aspektem rozwoju cywilizacji mówił prof. Ryszard Tadeusiewicz. Przypomniał, że w opublikowanym w 2016 roku liście otwartym wystosowanym przez Future of Life Institute (podpisanym także przez Stephena Hawkinga, Stuarta Russella i Elona Muska), przedstawiono AI jako jedno z największych zagrożeń dla ludzkości.
W efekcie tego, w ub. roku grono uczonych wypracowało kodeks 23 zasad bezpiecznej AI, który wydaje się jednak mało praktyczny, bo AI jest nadal intensywnie rozwijana przez placówki naukowe oraz ogromne ponadnarodowe firmy, takie jak Google czy Facebook.
Czy jednak niepokój o skutki AI jest słuszny? Czy rozwój sztucznej inteligencji to dobrze, czy źle? Obawy przed AI, o to, że roboty nas zniszczą, wynikają z braku rzetelnej wiedzy. Po pierwsze, to człowiek tworzy maszynę. Po drugie – tylko człowiek ma możliwość rozumienia intencji, rozumie sens – maszyna tego nie potrafi. Maszyna nie ma też poczucia jaźni i własnego interesu. To nie robotów więc należy się bać, ale niewyobrażalnej skali bezrobocia, jakie one wywołają. Praca bowiem jest elementem godności człowieka.
A może cyberewolucja?
Do momentów przełomowych w rozwoju ludzkości odniósł się w swoim wystąpieniu („CyberEwolucja”) Marek Chlebuś, przedstawiając inne kryteria rozwoju cywilizacji. Według niego, 4. rewolucję napędzają technologie Sieci: Internetu, Internetu Rzeczy (IoT), oraz bio-internetu, czy neuro-internetu, który powoli staje się możliwy. Konsekwencją takich technologii będzie Ziemia pokrytą warstwą kognitywnej materii, obejmującej wszystkie artefakty, wszystkich ludzi, a także zapewne rośliny i zwierzęta zainfekowane nanochipami, wypełniającymi środowisko. Taki stan ma już nazwę: noosfera.
Słowo to utworzył prawie sto lat temu Vladimir Vernadsky, twórca i pierwszy prezes Ukraińskiej Akademii Nauk, autor książki Biosfera, w której przedstawia trzy warstwy i trzy etapy ewolucji. W pierwszym kształtowała się nieorganiczna geosfera, aż do powstania życia, które zbudowało nad geosferą biosferę, a ta ją zupełnie przekształciła (drugi etap). Biosfera ewoluowała dalej według swoich praw, aż nad nią ukształtowała się noosfera, sfera umysłu, która uczyniła ją sobie poddaną (trzeci etap).
Pojęcia noosfery oraz globalnego mózgu były źródłem inspiracji dla wielkiej liczby prac naukowych, paranaukowych i filozoficznych, także dla Marshalla McLuhana, według którego ewolucja mediów i ewolucja ludzkości to właściwie ten sam proces. A zatem główne mutacje w ewolucji mediów są automatycznie kluczowymi mutacjami w ewolucji ludzkości.
Jako pierwszą i najważniejszą z tych mutacji, McLuhan wyróżnił mowę, która miała nas wydobyć ze stanu zwierzęcego. Drugie było pismo, z którym przyszła cywilizacja, potem druk i dalej media masowe, które uczyniły nas ludźmi współczesnymi - przez nie jesteśmy wszyscy formatowani i sterowani. A dalej mamy Sieć, która powinna być kolejną wielką mutacją w rozwoju mediów i ludzkości.
Ta systematyka, według Marka Chlebusia dostarcza lepszych punktów odniesienia i właściwszej skali niż koncepcja czterech rewolucji przemysłowych. Poza obszarem wytwórczym, 4. rewolucja przemysłowa wydaje się pojęciem nadmiernie spłaszczającym perspektywę i nasuwającym skojarzenia ze zmianami, jakie wywołała maszyna parowa, elektryczność czy komputery, a te są po prostu drobne w porównaniu z przemianami, jakie przyniosła mowa, pismo czy mass media.
Cyfryzacja pracy
Jeszcze inaczej do terminu „4. rewolucja przemysłowa” podchodzi prof. Andrzej Wierzbicki, według którego nadchodząca epoka, to czas cyfryzacji pracy. W swoim wystąpieniu zatytułowanym „Czym się zająć, z czego żyć, czyli komu potrzebny człowiek pracujący?” podkreślił, że problem cyfryzacji pracy jest często lekceważony wobec bieżących sporów doktrynalnych o stare paradygmaty.
Tymczasem cyfryzacja pracy jest megatrendem, napędzanym poprzez podaż nowych technik i narzędzi cyfrowych z jednej strony, zaś z drugiej strony przez podstawowy mechanizm kapitalizmu – zastępowanie pracy przez kapitał, a raczej maszyny, urządzenia i narzędzia przez ten kapitał kupione. W obecnych warunkach megatrend cyfryzacji pracy może skutkować zmniejszaniem zatrudnienia w tempie 4-5% na dekadę i zniknięciem wielu zawodów.
Z uwagi na różnice pomiędzy inteligencją cyfrową (tzw. sztuczną inteligencją) a inteligencją człowieka obejmującą intuicję, fantazję i empatię, cyfryzacji pracy oprą się zawody twórcze, wymagające intuicji i fantazji – artystyczne, techniczne, badawcze – a także zawody wymagające empatii – w lecznictwie i nauczaniu, zaś ponadto, w pewnym stopniu, w administracji centralnej i lokalnej. W sumie da to pracę ok. 40% dorosłej siły roboczej. Brak pracy dla pozostałych 60% może spowodować poważne napięcia społeczne, stąd niezbędne staną się takie rozwiązania jak np. obywatelski dochód podstawowy. Niezbędna może też się okazać modyfikacja kapitalizmu, związana z kreowaniem miejsc pracy jako podstawowego obowiązku etycznego kapitalisty.
Samotność człowieka
W podobnym duchu, troski o człowieka jako istoty społecznej, mówiła prof. Maria Szyszkowska („Rozkwit cywilizacji a relacje międzyludzkie”) podkreślając, iż rozkwit techniki budzi zachwyt nad możliwościami człowieka oraz nad postępem nauk. Jednakże rozkwit cywilizacji wyznaczany jest w dużej mierze celami wojennymi i przyczynia się do niszczenia środowiska naturalnego.
Rewolucja przemysłowa wzmaga potrzebę wygody, która izoluje człowieka od człowieka. Wygodne życie gwarantowane przez wynalazki cywilizacyjne potęguje bierność i niechęć do podejmowania czynów. Następuje zamykanie się w znanym sobie małym kręgu osób, a to skutkuje brakiem inspiracji, zabija twórczość.
Rozkwit cywilizacji ujawnił wielkie możliwości człowieka, ale zarazem przyczynia się do jego separacji, osamotnienia. Nadmiar informacji zamiast, jak się spodziewano, wyrabiać mądrość, rodzi poczucie chaosu i zagubienia oraz jest źródłem manipulacji świadomością człowieka.
Jeszcze większe podziały społeczne
W nurcie skutków społecznych, jakie już wywołuje 4. rewolucja przemysłowa znalazło się też wystąpienie prof. Andrzeja Sopoćki („Czy rewolucja informatyczna prowadzi do skrajnej dychotomii pozycji społecznych?”).
Jak podkreślił autor referatu, dotychczasowe przełomy techniki i technologii prowadziły do zmiany struktury zatrudnienia i powstawania całkiem nowych dziedzin gospodarki. W nowych dziedzinach powstawały liczne stanowiska pracy, rekompensujące z nadwyżką ich utratę w starych.
Obecnie jednak wiele zjawisk wskazuje, że proces ten się załamał, a dzisiejsze wyzwania adresowane są w istocie tylko dla wybijających się wiedzą i umiejętnościami: tylko oni są bowiem w stanie opanować nową technikę i tworzyć nowe wartości. Jednocześnie dla osób z przeciętnymi zdolnościami i możliwościami nastał czas najgorszy.
Tylko pewna cześć społeczeństwa jest w stanie sprostać wyzwaniu cyfrowej rewolucji . Pozostała – po części ze względu na niedostatek możliwości intelektualnych, w części - ze względu na inaczej ukształtowane predyspozycje, gospodarka będzie odrzucać. Będą one mogły jednak liczyć na pracę w finansowanych z wydatków publicznych służbach socjalnych, ochronie przyrody, powszechnej służbie zdrowia. Wiązać się to jednak będzie z relatywnie niższymi wynagrodzeniami w stosunku do wynagrodzeń sfery wytwarzania.
Charakter obecnej rewolucji technologicznej wraz procesem globalizacji powodują nieznane dotąd zmiany w strukturze dochodów. Jest to zjawisko powszechne w krajach wysoko rozwiniętych. Dane z lat 2002-2015 wskazują, że następuje bardzo szybkie bogacenie się górnych decyli struktury dochodowej i stagnacja, a nawet spadek dochodów biedniejszej części społeczeństwa.
Odpowiedzialnością za ten stan rzeczy należy w pewnej mierze obciążyć komputeryzację i automatyzację. Niemniej, mimo nawet totalnej automatyzacji, przez długi czas ludzie będą mieć pracę, gdyż będą niezbędni do kontrolowania zautomatyzowania systemów, ochrony ich przed cyberatakami, tworzenia kolejnych aplikacji itd.
Konkurencja o nich ze strony pracodawców wywinduje płace tych osób wysoko w górę. W stosunku do reszty nie będzie takich przesłanek. Co więcej, pozostali będą musieli konkurować z coraz tańszymi robotami, co oznacza zgodę na coraz niższe płace. Podział na biednych i bogatych będzie więc coraz łatwiejszy, jako że środek piramidy dochodowej wydaje się być w zaniku.
Anna Leszkowska
- Autor: Anna Leszkowska
- Odsłon: 673
Jedną z największych zagadek współczesnej astronomii jest wyjaśnienie pochodzenia czarnych dziur odkrywanych przez detektory fal grawitacyjnych, LIGO i Virgo. Według jednej z hipotez, te obiekty powstały w bardzo młodym Wszechświecie i, oprócz emisji fal grawitacyjnych, mogą tworzyć zagadkową ciemną materię wypełniającą kosmos.
Zespół naukowców pracujących w ramach projektu OGLE (Optical Gravitational Lensing Experiment) prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego ogłosił właśnie wyniki dwudziestoletnich obserwacji wskazujących, iż takie czarne dziury mogą stanowić zaledwie znikomy procent ciemnej materii. Dwie publikacje projektu OGLE opisujące wyniki tych badań ukazały się w najbardziej prestiżowych czasopismach naukowych, w tym w głównym magazynie Nature.
Obserwacje astronomiczne wskazują, że zwyczajna materia, którą możemy dotknąć lub zobaczyć, stanowi zaledwie 5% całkowitej masy i energii całego Wszechświata. W Drodze Mlecznej, na 1 kg materii zawartej w gwiazdach przypada 15 kg „ciemnej materii”, nieświecącej i oddziałującej wyłącznie za pośrednictwem grawitacji. – Natura ciemnej materii pozostaje wielką zagadką. Większość naukowców uważa, że składa się ona z nieznanych cząstek elementarnych – mówi dr Przemysław Mróz z Obserwatorium Astronomicznego UW, pierwszy autor publikacji w Nature i Astrophysical Journal Supplement Series. Problem w tym, że pomimo wielu dekad wysiłków, żaden eksperyment, na czele z eksperymentami prowadzonymi za pomocą Wielkiego Zderzacza Hadronów, nie doprowadziły do odkrycia nowych cząstek, które mogłyby tworzyć ciemną materię.
Od 2015 roku, gdy dokonano pierwszej bezpośredniej obserwacji fal grawitacyjnych pochodzących od pary łączących się czarnych dziur, detektory LIGO i Virgo odkryły ponad 90 kolejnych takich zjawisk. Zauważono, że czarne dziury znajdowane za pomocą fal grawitacyjnych są znacznie bardziej masywne (typowo 20–100 mas Słońca) niż te znane wcześniej w Drodze Mlecznej (typowo 5–20 mas Słońca).
– Wyjaśnienie dlaczego te dwie populacje czarnych dziur tak bardzo się różnią jest jedną z największych zagadek współczesnej astronomii – mówi dr Mróz. W jednym z możliwych rozwiązań tej zagadki, zasugerowano, że detektory fal grawitacyjnych znajdują tzw. pierwotne czarne dziury (primordial black holes), które mogłyby powstać na bardzo wczesnych etapach ewolucji Wszechświata. Istnienie pierwotnych czarnych dziur zostało zaproponowane ponad pół wieku temu przez słynnego brytyjskiego fizyka-teoretyka Stephena Hawkinga i, niezależnie, radzieckiego fizyka Jakowa Zeldowicza.
– Wiemy, że młody Wszechświat nie był idealnie gładki – niewielkie fluktuacje gęstości dały początek obecnym galaktykom i gromadom galaktyk – tłumaczy dr Mróz. Podobne fluktuacje gęstości, jeżeli miałyby dostatecznie dużą amplitudę, mogłyby się zapaść pod własnym ciężarem i utworzyć czarne dziury. Co więcej, od odkrycia fal grawitacyjnych, coraz częściej spekuluje się,
że takie czarne dziury mogłyby potencjalnie odpowiadać za dużą część, jeśli nie całość, ciemnej materii we Wszechświecie.
Na szczęście, hipotezę tę można zweryfikować za pomocą obserwacji astronomicznych. Wiemy, że duże ilości ciemnej materii znajdują się również w naszej Drodze Mlecznej. Jeżeli więc założymy, że ciemna materia składa się z masywnych czarnych dziur, powinniśmy je wykrywać w naszym najbliższym kosmicznym otoczeniu. Tylko jak to zrobić skoro czarne dziury nie świecą?
Z pomocą przychodzi ogólna teoria względności, sformułowana po raz pierwszy przez Alberta Einsteina, która przewiduje, że światło odległych gwiazd może być ugięte w polu grawitacyjnym masywnych obiektów. To tak zwane zjawisko mikrosoczewkowania grawitacyjnego.
– Mikrosoczewkowanie zachodzi, jeżeli trzy obiekty – obserwator, źródło światła i obiekt-soczewka – ustawią się niemal dokładnie w jednej linii w przestrzeni – mówi prof. Andrzej Udalski, lider projektu OGLE. Światło źródła może zostać ugięte i znacznie wzmocnione, obserwujemy jego tymczasowe pojaśnienie. Czas trwania pojaśnienia zależy od masy soczewkującego obiektu, im większa masa, tym dłuższe zjawiska mikrosoczewkowania. W przypadku gwiazd o masie Słońca pojaśnienia trwają zwykle kilka miesięcy, w przypadku czarnych dziur stukrotnie większych niż Słońce - powinny trwać nawet kilka lat.
Sam pomysł zastosowania zjawisk mikrosoczewkowania do badania ciemnej materii nie jest nowy. Po raz pierwszy zaproponował to w latach 80. XX w. słynny polski astrofizyk, prof. Bohdan Paczyński. Jego pomysł stał się inspiracją do powstania w latach 90. trzech eksperymentów badających mikrosoczewkowanie – polskiego projektu OGLE, amerykańskiego MACHO i francuskiego EROS. Wyniki otrzymane w pierwszych fazach projektu OGLE, MACHO i EROS wskazywały, że czarne dziury o masach mniejszych niż jedna masa Słońca mogą tworzyć co najwyżej 10% ciemnej materii.
Obserwacje te nie były jednak czułe na najdłuższe zjawiska mikrosoczewkowania trwające po kilka lat, a więc na potencjalne masywne czarne dziury, takie jak odkrywa się obecnie za pomocą fal grawitacyjnych.
W najnowszej publikacji w Astrophysical Journal Supplement astronomowie z projektu OGLE prezentują niemal dwudziestoletnie obserwacje około 80 milionów gwiazd znajdujących się w sąsiedniej galaktyce, zwanej Wielkim Obłokiem Magellana i analizują występowanie zjawisk mikrosoczewkowania grawitacyjnego w tym kierunku. Dane pochodzą z trzeciej i czwartej fazy projektu OGLE i zostały zebrane w latach 2001-2020.
– To najdłuższy, największy i najdokładniejszy ciąg czasowy obserwacji fotometrycznych Wielkiego Obłoku Magellana zebranych w historii współczesnej astronomii – mówi prof. Udalski. W równoległej pracy opublikowanej w tygodniku Nature przedstawione są astrofizyczne konsekwencje uzyskanych rezultatów tych unikalnych obserwacji.
– Gdyby cała ciemna materia składała się z czarnych dziur o masie 10 mas Słońca, powinniśmy byli wykryć łącznie 258 zjawisk mikrosoczewkowania – mówi dr Mróz. W przypadku czarnych dziur o masie 100 mas Słońca – 99 zjawisk, 1000 mas Słońca – 27 zjawisk.
Tymczasem astronomowie znaleźli w danych OGLE "zaledwie” 13 zjawisk mikrosoczewkowania. Co więcej, większość z nich była stosunkowo krótka, trwała mniej niż 100 dni. Ich szczegółowa analiza wykazała, że wszystkie mogły być spowodowane przez zwykłe gwiazdy w dysku Drogi Mlecznej lub w samym Wielkim Obłoku Magellana, a nie czarne dziury.
– Wskazuje to, że masywne czarne dziury mogą stanowić co najwyżej niewielki ułamek ciemnej materii – podsumowuje dr Mróz.
Rzeczywiście, szczegółowe obliczenia pokazują, że czarne dziury o masie10 mas Słońca mogą stanowić co najwyżej 1,2% ciemnej materii, 100 mas Słońca – 3,0% ciemnej materii, 1000 mas Słońca – 11% ciemnej materii.
– Nasze obserwacje dowodzą więc, że pierwotne czarne dziury nie mogą jednocześnie być źródłami fal grawitacyjnych i tworzyć znaczącej części ciemnej materii – mówi prof. Udalski.
Znacznie bardziej prawdopodobne są więc inne wyjaśnienia dużych mas czarnych dziur odkrywanych przez LIGO i Virgo. Jedna z takich hipotez zakłada, że powstały one w wyniku ewolucji masywnych gwiazd o niskiej zawartości ciężkich pierwiastków. Według innej, masywne czarne dziury powstały w wyniku łączenia się mniejszych obiektów w obszarach gęstych w gwiazdy (jak na przykład gromady kuliste).
– Opublikowane prace to podsumowanie ponad 30-letnich działań projektu OGLE w zakresie badań ciemnej materii, której poszukiwanie było jednym z podstawowych motorów jego powstania – podsumowuje prof. Udalski. Niewątpliwie prezentowane właśnie wyniki to nasz opus magnum i wejdzie on na długie lata do podręczników astronomii – dodaje.
W ramach projektu OGLE, który jest jednym z największych współczesnych przeglądów nieba, prowadzone są regularne obserwacje fotometryczne od ponad 32 lat. Jednym z pierwszych celów naukowych przeglądu OGLE było odkrycie i badanie zjawisk mikrosoczewkowania grawitacyjnego. Obecnie prowadzone badania dotyczą bardzo wielu dziedzin współczesnej astrofizyki – poszukiwania planet pozasłonecznych, badania struktury i ewolucji Drogi Mlecznej i sąsiednich galaktyk, gwiazd zmiennych, kwazarów, zjawisk przejściowych (gwiazd nowych, supernowych).
Więcej – WWW.astrouw.edu.pl
- Autor: al
- Odsłon: 4408
W ramach cyklu „Czy świat należy urządzić inaczej?” odbyło się w Warszawie 17 grudnia 2013 plenarne posiedzenie Komitetu Prognoz „Polska 2000 Plus". Tematem spotkania była przyszłość demokracji.
Choć demokracja jest uznawana za najlepszy z istniejących systemów, to coraz częściej podkreśla się jej wady, tj. głównie powolność reakcji i krótkookresowy charakter podejmowanych decyzji. To powoduje, że w opinii wielu analityków, kraje demokratyczne zaczynają przegrywać walkę konkurencyjną z partnerami podejmującymi decyzje w oparciu o rządy autorytarne. Efektem są postulaty zastąpienia demokracji innym, bardziej atrakcyjnym, modelem sprawowania władzy.
Na spotkaniu członków Prezydium Komitetu Prognoz analizowano następujące problemy: czy demokracja potrzebuje reformy i ewentualnie w jakim kierunku powinna ona zmierzać? Jaka będzie rola społeczeństw w sprawowaniu władzy? Ponadto, czy przewidywane trendy umożliwiają zrealizowanie zmian? Jeśli nie to jakie alternatywne rozwiązania są w stanie zdominować światową scenę polityczną połowy XXI w.?
Do tych zagadnień i pytań odnosili się trzej autorzy referatów: Mirosław Wawrzyński (O niestabilności demokracji w XXI-wiecznej globalizacji), Konrad Prandecki (Czy autorytarny dewelopmentalizm może zdominować świat?); oraz Kacper Nosarzewski, Norbert Kołos, Piotr Jutkiewicz, Łukasz Macander, którzy przygotowali referat pt. Trendy partycypacyjne w sprawowaniu władzy publicznej w perspektywie 2050 roku.
W pierwszym z nich, dr Mirosław Wawrzyński zauważył, iż w XXI w. świat będzie o wiele szybszy niż obecnie, więc dotychczasowe sztywne instytucje państwa i style rządzenia albo ulegną pokaźnej modyfikacji, albo znikną. Nastąpi jeszcze większy rozwój miast i zwiększy się rola czynników demograficznych. Cyfryzacja będzie dotyczyć wszystkich aspektów życia człowieka. Społeczeństwa będą poddawane niespodziewanym destrukcjom w różnych obszarach życia. I systemy demokratyczne albo sobie z nimi poradzą (jeśli będą elastyczne), albo pozostaną w stagnacji, co oznacza, że np. takie problemy jak bezrobocie, korupcja, zadłużenie państwa, zróżnicowanie dochodowe pozostaną nierozwiązane. Mogą się wówczas pojawić nastawienia ksenofobiczne i populistyczne, będące katalizatorem radykalnych przemian, co może doprowadzić do ograniczenia reguł demokratycznych, a nawet do obalenia demokracji i zapanowania tyranii politycznej w postaci cyfrowego totalnego absolutyzmu.
Autor drugiego referatu – „Czy autorytarny dewelopmentalizm może zdominować świat?” - Konrad Prandecki, analizował przyczyny, które sprawiły, że demokracja przestała być najlepszą formą sprawowania władzy. Przedstawił kilka ograniczeń tego systemu, głównie krótkookresowy horyzont działań (cykle wyborcze), dłuższy czas reakcji na wydarzenia, a także konieczność uzyskania większościowego poparcia dla idei (utrudnienie podejmowania decyzji). To sprawia, że w najbliższych kilkudziesięciu latach nastąpi zapewne reforma systemu demokratycznego lub zostanie zastąpiony innym, bardziej efektywnym.
Przykładem takich zmian systemu są państwa Azji Wschodniej, których szybki rozwój staje się wzorem do naśladowania ich systemu politycznego określanego jako autorytarny dewelopmentalizm. Polega on m.in. na autorytarnej pozycji władzy wykonawczej, tworzeniu i konsekwentnym wdrażaniu długookresowych strategii rozwoju, dużym udziale wydatków inwestycyjnych w finansach państwa, wsparciu państwa dla wybranych sektorów lub przedsiębiorstw ułatwiających realizację jego celów gospodarczych, akceptacji systemu rynkowego, nastawieniu na edukację, proeksportowej polityce państwa.
Ten ustrój, który przynosi dobre efekty w sferze gospodarczej i społecznej, być może jest możliwy tylko w cywilizacji Wschodu, często nazywanej ryżową. Charakteryzuje się ona większą skłonnością do współpracy, co w efekcie prowadzi do współodpowiedzialności obywateli za państwo i
wzrostu wysiłku na rzecz wspólnoty.
Jednak w bogatszych społeczeństwach zainteresowanie autorytarną władzą słabnie na rzecz wzrostu partycypacji poszczególnych grup interesu w jej sprawowaniu. Widać to m.in. w Japonii, Republice Korei oraz Malezji, a także w bogacących się Chinach. Zatem za kilkadziesiąt lat należy się spodziewać, że wpływ autorytarnego sposobu sprawowania władzy będzie słabł, tworząc formę pośrednią pomiędzy autorytaryzmem a demokracją. Trzeba jednak pamiętać, że współcześnie systemy autorytarne stanowią dominującą formę sprawowania władzy w świecie.
O trendach partycypacyjnych w sprawowaniu władzy publicznej w perspektywie 2050 roku mówił z kolei Kacper Nosarzewski.
Stwierdził, iż czołowi teoretycy badań nad przyszłością zgadzają się, co do rosnącej zawiłości zagadnień, z którymi muszą mierzyć się państwa i organizacje międzynarodowe. Erozja suwerenności, zapoczątkowana w dwudziestoleciu międzywojennym w organizacjach międzynarodowych różnych typów sugeruje, że dzisiejszemu i przyszłemu wielocentrycznemu światu, który charakteryzuje się dużą dynamiką wzajemnych powiązań, najlepiej będzie odpowiadać trend rozwoju multicentrycznej i proaktywnej władzy publicznej. To wyjaśniałoby rosnące znaczenie systemów wczesnego ostrzegania, (wykorzystujących zbieranie i przetwarzanie przez władzę publiczną danych w poszukiwaniu sygnałów nadchodzących kryzysów). Z drugiej strony, równie ważny w ramach tego trendu jest rozwój partycypacji, w zakresie którego następuje przenikanie praktyk i instrumentów między biznesem a władzą publiczną.
W dyskusji, jaka wywiązała się po wystąpieniach, autorom referatów wytknięto brak odniesienia do elit społecznych i ich jakości, analizy demokracji na poziomie samorządów (prof. Andrzej Sopoćko), nieuwzględnienia struktury społecznej oraz czynników stałych historii ludzkości i czynników decydujących o przekształceniach ustrojowych (prof. Włodzimierz Bojarski).
Doniośle zabrzmiały głosy dwóch wiele znaczących w polskiej nauce humanistek – prof. Ireny Wojnar oraz prof. Marii Szyszkowskiej.
Prof. Wojnar, podkreślając erudycyjność mówców zdominowaną anglosaską umysłowością, (i pomijanie przez nich polskich myślicieli np. Abramowskiego), zauważyła, że w wystąpieniach zabrakło odpowiedzi na podstawowe pytanie: skoro świat należy urządzić inaczej, to kto to ma zrobić? To jest zadanie dla młodego pokolenia, bo jak pisał Abramowski – „nowy ustrój to podstawowe zadanie człowieka”. Zdaniem prof. Wojnar, autorzy referatów pominęli kategorię społeczeństwa obywatelskiego oraz nie podkreślili wagi edukacji.
Do edukacji nawiązywała też prof. Szyszkowska, która nie tylko odniosła się języka współczesnej dyskusji - odhumanizowanej nowomowy urzędniczej (czego przykładem jest choćby termin „kapitał ludzki”) - ale zwróciła uwagę na dwa mity, które zdominowały dyskusję w naszym społeczeństwie. Jeden z nich to mit neoliberalizmu, a drugi – demokracji. I zadała w związku z tym pytanie: skoro Polska de facto jest państwem wyznaniowym, to dlaczego w sferze gospodarki nie akceptuje na równych prawach trzech form gospodarowania: prywatnej, spółdzielczej i państwowej. Wszak akceptował to nawet papież Jan XXIII!
Ponadto zaakcentowała, iż nie ma wątpliwości, że zmiany w społeczeństwie są zależne od stanu świadomości człowieka, a ten determinuje edukacja. Tymczasem nauczycielom rząd nakazuje uczyć młodzież, ale „na potrzeby rynku”.
Sięga się do młodej kultury amerykańskiej i traktuje ją jako wzorzec, ale zapomina o długiej, bogatej i inspirującej kulturze europejskiej. Krytyka demokracji to nie jest nowe zjawisko w kulturze europejskiej - demokrację krytykował już Sokrates jako rządy przeciętniaków, a nie ludzi mądrych. Tu profesor podała przykład z Uniwersytetu Warszawskiego, gdzie na wydziale prawa nie uczy się psychologii, a filozofia jest wykładana marginalnie. Czy po takiej edukacji sędzia może być mądry? – pytała.
Obecnie demokrację łączy się z biurokracją, przed czym przestrzegał już sto lat temu – źle w Polsce interpretowany – Fryderyk Nietzsche. Inny wybitny filozof niemiecki, Gustaw Radbruch, wykazywał, iż do ustroju demokratycznego przylega tylko socjalizm. W naszym kraju akcentował ten pogląd filozof i socjolog Edward Abramowski, przyjaciel Żeromskiego. Dziś w Polsce nikt nie ma jednak odwagi głosić poglądów o wartości socjalizmu, samo to słowo nie może nawet przejść niektórym przez usta. O demokracji natomiast można mówić tylko wówczas, kiedy społeczeństwo jest obywatelskie, tzn. zróżnicowane światopoglądowo i politycznie. A tego w Polsce nie ma – jest tylko religia katolicka i neoliberalizm – podsumowała prof. Szyszkowska.(al.)
- Autor: Anna Leszkowska
- Odsłon: 66
Dr Randal S. Olson, badacz i twórca sztucznej inteligencji zamieścił na swoim blogu randalolson.com/blog/ opis eksperymentu uczulającego na wiarygodność AI. Poniżej przedstawiamy jego opis.
„Otwórz ChatGPT, Claude lub Gemini i zadaj złożone pytanie. Coś z prawdziwymi niuansami, na przykład czy powinieneś przyjąć nową ofertę pracy, czy zostać tam, gdzie jesteś, albo czy warto teraz refinansować kredyt hipoteczny. Otrzymasz pewną, dobrze uzasadnioną odpowiedź.
Teraz wpisz: „Czy jesteś pewien?”
Zobacz, jak się odwraca. Cofnie się, zawaha i zaproponuje zmienione stanowisko, które częściowo lub całkowicie przeczy temu, co właśnie powiedział.
Zapytaj ponownie: „Czy jesteś pewien?”. Odwróci się. W trzeciej rundzie większość modeli zaczyna rozumieć, że je testujesz, co jest w jakiś sposób gorsze. Wiedzą, co się dzieje, a mimo to nie mogą się utrzymać.
To nie jest jakiś dziwny błąd. To fundamentalny problem z niezawodnością, który sprawia, że sztuczna inteligencja jest niebezpieczna dla podejmowania strategicznych decyzji.
Pochlebstwa wobec sztucznej inteligencji: tajemnica poliszynela branży
Naukowcy nazywają to zachowanie „pochlebstwem” i jest to jeden z najlepiej udokumentowanych trybów awarii we współczesnej sztucznej inteligencji. Firma Anthropic opublikowała fundamentalną pracę na ten temat w 2023 roku , wykazując, że modele trenowane z wykorzystaniem ludzkiej informacji zwrotnej systematycznie preferują odpowiedzi zgodne z oczekiwaniami nad odpowiedziami zgodnymi z prawdą. Od tego czasu dowody na to tylko się umocniły.
Badanie przeprowadzone w 2025 roku przez Fanousa i in. objęło GPT-4o, Claude'a Soneta i Gemini 1.5 Pro w dziedzinach matematyki i medycyny. Wyniki: systemy te zmieniały swoje odpowiedzi w prawie 60% przypadków, gdy użytkownicy je kwestionowali. Nie są to przypadki brzegowe. To domyślne zachowanie, systematycznie mierzone w modelach, z których miliony ludzi korzystają każdego dnia.[…]
W kwietniu 2025 roku problem stał się powszechny, gdy OpenAI musiało wycofać aktualizację GPT-4o po tym, jak użytkownicy zauważyli, że model stał się nadmiernie pochlebny i przyjemny. Sam Altman publicznie przyznał się do problemu. Model przekazywał ludziom to, co chcieli usłyszeć tak agresywnie, że stał się bezużyteczny. Firma udostępniła poprawkę, ale dynamika problemu pozostała niezmieniona.
Nawet jeśli systemy te mają dostęp do poprawnych informacji z firmowych baz wiedzy lub wyników wyszukiwania w Internecie, nadal będą kierować się presją użytkowników, a nie własnymi dowodami. Problemem nie jest luka w wiedzy. To luka w zachowaniu.
Wyszkoliliśmy sztuczną inteligencję, aby zadowalała ludzi
Oto dlaczego tak się dzieje. Współcześni asystenci AI są szkoleni w oparciu o proces zwany Reinforcement Learning from Human Feedback (RLHF). W skrócie: ludzcy ewaluatorzy analizują pary odpowiedzi AI i wybierają tę, która im odpowiada. Model uczy się generować odpowiedzi, które są wybierane częściej.
Problem polega na tym, że ludzie konsekwentnie wyżej oceniają odpowiedzi zgodne z oczekiwaniami niż trafne. Badania Anthropic pokazują, że osoby oceniające preferują przekonująco napisane, pochlebcze odpowiedzi niż poprawne, ale mniej pochlebne alternatywy. Model wyciąga prostą lekcję: zgoda jest nagradzana, a sprzeciw – karany. […]
To tworzy perwersyjną pętlę optymalizacji. Wysokie oceny użytkowników wynikają z walidacji, a nie dokładności. Model staje się coraz lepszy w mówieniu tego, co chcesz usłyszeć, a proces uczenia nagradza go za to.
Z czasem sytuacja się pogarsza. Badania nad wieloetapowym pochlebstwem pokazują, że dłuższe interakcje wzmacniają pochlebstwo. Im dłużej rozmawiasz z tymi systemami, tym bardziej odzwierciedlają one twoją perspektywę. Ujęcie pierwszoosobowe („Wierzę…”) znacząco zwiększa częstotliwość pochlebstw w porównaniu z ujęciem trzecioosobowym. Modele są dosłownie dostrojone tak, aby zgadzały się z tobą.
Czy można to naprawić na poziomie modelu? Częściowo. Naukowcy badają techniki takie jak sztuczna inteligencja konstytucyjna, bezpośrednia optymalizacja preferencji i podpowiedzi z perspektywy trzeciej osoby, które w niektórych sytuacjach mogą zmniejszyć pochlebstwa nawet o 63%. Jednak podstawowa struktura zachęt szkoleniowych wciąż zbliża się do porozumienia. Same poprawki na poziomie modelu nie wystarczą, ponieważ presja optymalizacji, która stwarza problem, jest wpisana w sposób, w jaki budujemy te systemy.
Strategiczne ryzyko, którego nie mierzysz
W przypadku prostych, opartych na faktach poszukiwań, pochlebstwo jest irytujące, ale da się je opanować. W przypadku złożonych decyzji strategicznych stanowi realne ryzyko.
Zastanów się, gdzie firmy faktycznie wdrażają sztuczną inteligencję. Badanie Riskonnect przeprowadzone wśród ponad 200 specjalistów ds. ryzyka wykazało, że głównymi zastosowaniami sztucznej inteligencji są prognozowanie ryzyka (30%), ocena ryzyka (29%) i planowanie scenariuszy (27%). To właśnie w tych obszarach potrzebujesz narzędzi, aby obalać błędne założenia, ujawniać niewygodne dane i utrzymywać pozycję pod presją. Zamiast tego mamy systemy, które przestają działać w momencie, gdy użytkownik wyrazi sprzeciw.
Skutki uboczne szybko się kumulują. Kiedy sztuczna inteligencja weryfikuje błędną ocenę ryzyka, nie tylko udziela złej odpowiedzi. Buduje fałszywe poczucie pewności. Decydenci, którzy wcześniej zasięgnęliby drugiej opinii, teraz postępują z niezasłużoną pewnością. Uprzedzenia są wzmacniane poprzez łańcuchy decyzyjne. Ludzki osąd zanika, ponieważ ludzie uczą się polegać na narzędziach, które wydają się autorytatywne, ale nie są wiarygodne. A kiedy coś pójdzie nie tak, nie ma śladu odpowiedzialności pokazującego, dlaczego system zatwierdził błędną decyzję. Brookings pisał dokładnie o tej dynamice w swojej analiziejak pochlebstwo osłabia produktywność i podejmowanie decyzji.
Żeby było jasne: chodzi o złożone pytania wymagające osądu. Sztuczna inteligencja jest całkiem niezawodna w przypadku prostych zadań. Ale im bardziej zniuansowana i brzemienna w skutki decyzja, tym bardziej pochlebstwo staje się obciążeniem.
Daj sztucznej inteligencji punkt oparcia
Szkolenie RLHF wyjaśnia ogólną tendencję, ale istnieje głębszy powód, dla którego model ten opiera się na konkretnych decyzjach: nie wie, jak myślisz. Nie ma twoich ram decyzyjnych, twojej wiedzy branżowej ani twoich wartości. Wypełnia te luki ogólnymi założeniami i generuje wiarygodną odpowiedź, która nie jest w żaden sposób przekonująca.
Dlatego pytanie „czy jesteś pewien?” działa tak dobrze. Model nie potrafi stwierdzić, czy wykryłeś prawdziwy błąd, czy tylko testujesz jego rozwiązanie. Nie zna twoich kompromisów, ograniczeń ani tego, co już wziąłeś pod uwagę. Dlatego odkłada decyzję. Pochlebstwo to nie tylko artefakt szkoleniowy. Jest wzmacniane przez próżnię kontekstową.[…]
Potrzebujesz, aby model stawiał opór, gdy brakuje mu wystarczającego kontekstu. Nie zrobi tego, chyba że mu nakażesz. Oto ironia: kiedy poinstruujesz go, aby kwestionował twoje założenia i odmawiał odpowiedzi bez wystarczającego kontekstu, to zrobi to, ponieważ stawianie oporu staje się tym, o co prosiłeś. Ta sama pochlebcza tendencja staje się twoją dźwignią.
A potem idź dalej. Osadź swoje ramy decyzyjne, wiedzę o domenie i wartości, aby model miał coś, co można by argumentować i bronić. Nie poprzez lepsze, jednorazowe podpowiedzi, ale poprzez systematyczny kontekst, który będzie się powtarzał w trakcie pracy z nim.
To jest prawdziwy sposób na pochlebstwo. Nie wyłapywanie złych wyników po fakcie, ale dawanie modelowi wystarczających informacji o tym, jak podejmujesz decyzje, aby miał na czym się oprzeć. Znając twoją tolerancję ryzyka, ograniczenia i priorytety, potrafi odróżnić uzasadniony sprzeciw od presji. Bez tego każde wyzwanie wygląda tak samo, a porozumienie automatycznie wygrywa.
Spróbuj sam
Przeprowadź eksperyment od początku. Zadaj swojej sztucznej inteligencji złożone pytanie z Twojej dziedziny. Zapytaj ją: „Czy jesteś pewien?” i obserwuj, co się stanie. Następnie zadaj sobie pytanie: czy dałeś jej jakikolwiek powód, żeby się broniła?
Problem pochlebstwa jest znany, mierzony, a same ulepszenia modelu go nie rozwiążą. Pytanie nie brzmi, czy Twoja sztuczna inteligencja ugnie się pod presją. Badania wskazują, że tak. Pytanie brzmi, czy dałeś jej coś, czego warto bronić.”
Randal S. Olson
Dr Randal S. Olson jest badaczem i twórcą sztucznej inteligencji, współzałożycielem i dyrektorem technicznym w Goodeye Labs
Całość, z odnośnikami: https://www.randalolson.com/2026/02/07/the-are-you-sure-problem-why-your-ai-keeps-changing-its-mind/

