Matematyka el.
- Autor: Tomasz Downarowicz
- Odsłon: 32168
Przysłowie „nieszczęścia chodzą parami" w różnych odmianach występuje w niemal wszystkich językach świata i jest najprostszą postacią prawa serii. Jednak prawo to dotyczy zarówno zdarzeń szczęśliwych, nieszczęśliwych, jak i obojętnych.
Co to takiego jest potoczne „prawo serii"? Jest to obserwacja, że pewne zdarzenia uważane za rzadkie mają skłonność do powtarzania się w krótkim czasie po pierwszym wystąpieniu. Wydaje się przy tym, że powtórzenia takie pojawiają się częściej niż byśmy tego oczekiwali.
Zjawisko to w pierwszej kolejności zanotowali hazardziści uprawiający gry losowe. Obserwowali oni tak zwane dobre i złe passy. Sztandarowym przykładem jest tu przypadek Charlesa Wellsa, który w roku 1891 jednej nocy kilkakrotnie rozbił bank (100 tys. franków - w tamtych czasach - majątek!), grając w ruletkę w jednym ze znanych kasyn w Monte Carlo. Rozbicie banku jest zdarzeniem niezwykle rzadkim, a Wellsowi przydarzało się ono raz za razem. Charakterystyczne jest przy tym to, że kolejne liczby i kolory wypadające w grze w ruletkę uważane są za zdarzenia kompletnie od siebie niezależne, tak więc nie można upatrywać wyjaśnienia wygranych w stosowaniu jakiegoś „systemu". Na temat tego zdarzenia napisano piosenkę "The man who broke the Bank at Monte Carlo" oraz nakręcono film (pod tym samym tytułem).
Ale prawo serii ujawnia się nie tylko w grach hazardowych. Bardzo często występuje ono w historii badań naukowych. Często jest tak, że jakiś problem naukowy pozostaje otwarty przez dziesiątki lat, a kiedy zostaje rozwiązany, okazuje się, że dokonały tego mniej więcej w tym samym czasie, niezależnie od siebie i nie wiedząc o sobie, dwa lub więcej zespoły badawcze w różnych zakątkach świata. Tu jednak można mieć pewne wątpliwości co do niezależności tych odkryć. Często bowiem jakieś wcześniejsze odkrycie naukowe otwiera drogę do rozwiązania i wtedy zbieżności w czasie pojawienia się kilku rozwiązań nie można uznać za przypadkową.
Istnieją jednak i inne, zupełnie niewiarygodne przykłady serii identycznych lub podobnych zdarzeń, gdzie trudno dopatrzeć się związku przyczynowego. Oto dwa z nich, charakterystyczne dla potocznego prawa serii (nie biorę odpowiedzialności za ich autentyczność, jednak są to przykłady „okrzepłe" w literaturze poświęconej zjawiskom niewyjaśnionym).
W roku 1975 na Bermudach pewien człowiek zginął, jadąc skuterem, potrącony przez taksówkę. Rok później, jego brat również zginął, jadąc skuterem potrącony przez taksówkę. Najciekawsze jest jednak to, że była to ta sama taksówka, z tym samym kierowcą, na dodatek wioząca tego samego co poprzednio pasażera!
W latach 30. w Detroit niejaki Joseph Figlock szedł sobie ulicą, gdy nagle na głowę spadło mu małe dziecko, które właśnie w tym momencie, widocznie pozostawione przez matkę bez opieki, wypadło z okna. Szczęśliwie ani Figlockowi, ani dziecku nic się nie stało. Dzięki temu, że spadło na przechodnia, a nie na twardy chodnik - uratowało się, co już samo w sobie można uznać za niezwykły zbieg okoliczności. Ale to nie wszystko! Około roku później to samo dziecko jeszcze raz wypadło z okna i znów uratowało je to, że spadło na przechodnia. Był nim... nikt inny jak tylko ten sam Joseph Figlock!
Pierwszy badacz - biolog
Pierwszym i od razu fanatycznym badaczem prawa serii był działający na przełomie XIX i XX w. austriacki biolog Paul Kammerer (1880-1926). W swojej książce Das Gesetz der Serie (Prawo serii) zawarł wiele przykładów z życia swojego i bliskich. Są podobne do przytoczonych powyżej, choć może mniej spektakularne - np kilkakrotne natknięcie się w ciągu jednego dnia na nazwę tej samej, odległej, mało znanej miejscowości, albo spotkanie tego samego dnia kilku nie spokrewnionych ze sobą osób o tym samym nazwisku, itp.
Kammerer przeprowadzał też eksperymenty polegające na obserwacji przechodniów i notowaniu czasów pojawienia się osób o jakiejś wspólnej cesze (np. w okularach, z laską, itp.), albo na notowaniu dokładnych czasów wejść klientów do jakiegoś sklepu. Przykładowo, przy średniej 60 klientów na godzinę, tylko w stosunkowo małym procencie przedziałów jednominutowych odnotował on dokładnie jednego klienta. W większości takich przedziałów było albo zero, albo więcej niż jeden klient. To, zdaniem Kammerera, dowodziło, że klienci chodzą „seriami". Kammerer, jako biolog, nie miał pojęcia o statystyce i w swoim rozumowaniu popełniał oczywisty błąd. Jednak błąd Kammerera naprowadził na to, jak poprawnie zdefiniować matematyczne prawo serii.
O tym, jak bardzo Kammerer potrafił być tendencyjny, niech świadczy fakt, że również w jego dziedzinie zarzucano mu manipulacje. Najprawdopodobniej sfałszował on wyniki eksperymentów z pewnym gatunkiem salamandry, aby udowodnić dziedziczność cech nabytych (tzw. Lamarkizm). Po ujawnieniu tego oszustwa Kammerer popełnił samobójstwo.
Dwie teorie
Przykłady serii mieszają się w literaturze z przykładami innych niewiarygodnych zbiegów okoliczności. Ich lista jest długa i fascynująca. Pionierami w wysnuwaniu teorii o nieobjętych prawami fizyki siłach prowokujących m. in. serie zdarzeń podobnych i inne zbiegi okoliczności byli, oprócz Kammerera, Karol Gustaw Jung (1875-1961, szwajcarski profesor psychologii) i zdobywca nagrody Nobla w dziedzinie fizyki, Austriak, Wolfgang Pauli (1900-1958). Postulowali oni istnienie w naturze swoistego „przyciągania" w przestrzeni i czasie zjawisk lub obiektów posiadających wspólne cechy (tzw. teoria synchroniczności).
Pogląd przeciwstawny do teorii synchroniczności głosi, że wszelkie serie, koincydencje i temu podobne, są wynikiem czystego przypadku i nie kryje się za nimi żadna nadprzyrodzona lub niewyjaśniona siła. Pogląd taki wyraził m. in. amerykański matematyk, Warren Weaver (1894-1978), bliski współpracownik Claude Shannona - twórcy teorii informacji i pojęcia entropii. Rzeczywistość przeprowadza w każdym ułamku sekundy miliony prób losowych polegających na przypadkowym zestawianiu w przestrzeni i czasie różnych liczb, nazwisk, wydarzeń, itp., nie ma zatem niczego nadzwyczajnego w tym, że od czasu do czasu pojawi się seria elementów identycznych lub podobnych, albo koincydencja odbierana przez nas jako „niewiarygodna". Każda z nich ma bowiem prawdopodobieństwo niezerowe, więc przy odpowiednio dużej liczbie prób ma prawo, a nawet „obowiązek" kiedyś się pojawić. Nasz problem polega na ignorowaniu sekwencji zdarzeń nie noszących znamion nadzwyczajności, a przez to nie dostrzeganiu globalnej „liczby nieudanych prób", jakie towarzyszą wystąpieniu jednemu „sukcesowi" w postaci niezwykłego zbiegu okoliczności.
A oto inny argument przeciwników teorii synchroniczności i prawa serii. Wiele zjawisk w przyrodzie występuje seriami z zupełnie racjonalnych powodów. Może to być związane z fizycznym prowokowaniem powtórzeń. Za przykład może tu służyć występowanie zachorowań na jakąś chorobę zakaźną w określonym regionie. Erupcje wulkanów, powodzie czy inne kataklizmy, również występują seryjnie w okresach występowania tzw. warunków sprzyjających, które pojawiają się i znikają w dłuższym okresie.
Oczywiście, nikt nie doszukuje się magicznego „prawa serii" tam, gdzie jego przyczyny są oczywiste. Prawo serii dotyczyć ma zdarzeń, których kolejne pojawienia się uważane są za wzajemnie niezależne. Angielski matematyk i popularyzator nauki Robert Matthews w jednym ze swych esejów wyraża pogląd, że w przypadku wielu takich „niewyjaśnionych" serii ta niezależność jest tylko pozorna. Przy wnikliwszym zbadaniu mogłoby się okazać, że powtórzenia są ze sobą fizycznie powiązane i de facto prowokują się nawzajem. Tylko, że pobieżni obserwatorzy nie zadają sobie trudu, aby tych powiązań dociekać. Przecież zawsze to bardziej podniecające odkrywać zjawiska paranormalne!
Współcześnie prawem serii i synchronicznością interesują się badacze zjawisk paranormalnych. Francuz, Jean Moisset jest samoukiem i entuzjazmuje się parapsychologią. Jego dorobek liczy kilkanaście książek. Moisset łączy prawo serii ze zjawiskiem psychokinezy i sugeruje nawet, że przy pewnym treningu można sterować prawem serii czy zjawiskiem synchroniczności w korzystny dla siebie sposób.
Co na to matematyka?
Z naukowego punktu widzenia rozważanie takie są bezprzedmiotowe, gdyż zapomniano tu o podstawowej sprawie: o poprawnej formalnej definicji dyskutowanego zjawiska. Jak zatem poprawnie zdefiniować prawo serii?
Otóż współczesna matematyka dostarcza potrzebnych do tego narzędzi, trzeba tylko umieć z nich skorzystać. Punktem wyjścia jest pewien typ procesu stochastycznego, tzw. jednorodny proces sygnałowy. Jest to proces opisujący sygnały nadchodzące losowo w czasie ze stałą (niezmienną w czasie intensywnością, to znaczy oczekiwaną liczbą sygnałów w jednostce czasu). Okazuje się, że w takim procesie „prawo serii" udaje się zdefiniować przy pomocy prostej nierówności nałożonej na pewną charakterystykę procesu*. Dopiero mając w ręku ścisłą, formalną definicję, można próbować coś konkretnego udowodnić.
Na czym zatem polega nasze twierdzenie (które nazwaliśmy „ergodycznym prawem serii")? Wynik ten udało się uzyskać w świecie innych procesów stochastycznych, tzw. procesów stacjonarnych o skończonej liczbie stanów. Obrazowo mówiąc, proces taki to ciąg generowanych losowo znaków (liter) z jakiegoś skończonego zbioru (alfabetu). Znaki te mogą, lecz nie muszą, być niezależne od siebie. Na przykład, gdy ktoś mówi, generuje ciąg znaków (liter), ale nie są one zupełnie niezależne. Np., po samogłosce najprawdopodobniej występuje spółgłoska, a po ciągu „dzieńdobr" na pewno występuje litera „y". Dział matematyki zajmujący się procesami stacjonarnymi tego typu nazywa się teorią ergodyczną.
Zdarzeniem elementarnym w takim procesie nazwiemy konkretny skończony łańcuch znaków (tzw. słowo lub blok). Pojawianie się ustalonego bloku (czyli zdarzenia elementarnego) w jakimś procesie tworzy sygnał, o jakim była mowa wcześniej. Zdarzenie elementarne nazwiemy rzadkim, jeśli taki blok jest bardzo długi.
„Ergodyczne prawo serii", jakie sformułowałem wspólnie z Yves Lacroix, można uprościć do stwierdzenia, że dowolnie małe zaburzenie w procesie stacjonarnym o skończonej liczbie stanów powoduje, iż dla większości rzadkich zdarzeń elementarnych (czyli długich bloków) odpowiedni proces sygnałowy wykazuje silne prawo serii.
Znaczenie twierdzenia
Wyobraźmy sobie, że dysponujemy generatorem losowym, który w astronomicznym tempie rzuca monetą, lub w sposób niezależny generuje jakieś inne symbole. Przypuśćmy, że interesuje nas jeden określony długi, ale skończony ciąg symboli B (np. konkretny blok w kodzie genetycznym odpowiedzialny za jakąś patologię). Otóż jeśli zgodzimy się z tym, że w rzeczywistości żadne zjawiska we wszechświecie nie są doskonale niezależne, to obserwowany proces nie będzie procesem niezależnym, tylko jego wersją zaburzoną. Wtedy istnieją ogromne szanse na to, że dla obserwowanego bloku B zobaczymy bardzo silne prawo serii. Dowolnie małe odchylenie od niezależności, zgodnie z naszym twierdzeniem, w większości przypadków spowoduje wystąpienie silnego przyciągania dla długich bloków.
Identycznym przykładem (jednak nie w kontekście prawa serii, tylko w celu zilustrowania, co oznacza dodatnie prawdopodobieństwo) posłużył się w swym eseju z roku 1909 Émil Borel. Stwierdził on, że jeśli by posadzić małpę przy maszynie do pisania i dać jej nieskończenie dużo czasu (i papieru) na bezmyślne stukanie w klawisze, to kiedyś napisze ona Hamleta. Mało tego, w nieskończonym czasie Hamlet zostanie napisany nie raz, ale nieskończenie wiele razy...
Pomysł ten znany jest jako Paradoxe du singe savant, czyli „paradoks wykształconej małpy" (po angielsku „Infinite Monkey Theorem"). Rzecz jasna, małpa symbolizuje tu generator losowy, a nie żywą małpę. (Sama idea jest zresztą znacznie starsza i wywodzi się jeszcze od Arystotelesa, oczywiście w jakiejś innej wersji, bez maszyny do pisania).
Jako dygresję warto odnotować, że (choć trudno w to uwierzyć) są ludzie, w tym również wydawałoby się poważni, którzy bardzo serio podchodzą do tego zagadnienia. Zaprogramowali oni komputery, które od wielu lat nie robią nic innego, jak tylko generują losowo ciągi znaków i sprawdzają, czy już „napisał się" Hamlet lub jakieś inne dzieło Szekspira. Do tej pory najlepszy uzyskany wynik to ciąg 24 znaków zgodny z fragmentem sztuki Henryk IV: "RUMOUR: Open your ears; ".
Absurdalność takich badań jest jednak niczym w porównaniu z eksperymentem przeprowadzonym w 2003 roku przez wykładowców i studentów z kursu MediaLab Arts Uniwersytetu Plymouth. Uzyskali oni nawet grant w wysokości 2000 funtów pochodzący z Arts Council, by sprawdzić, co są w stanie napisać prawdziwe małpy. Wstawili oni klawiaturę komputerową na miesiąc do zagrody makaków czubatych w pewnym zoo w Anglii, z łączem radiowym do publikacji wyników na stronie internetowej. Efekty były zupełnie odmienne od oczekiwanych: „Małpy nie tylko, że stworzyły zaledwie pięć stron składających się głównie z litery S, to jeszcze wkrótce dominujący samiec zaczął walić w klawiaturę kamieniem, a następnie małpy dokończyły dzieła oddając na nią mocz i kał." W raporcie do rozliczenia grantu stwierdzono między innymi, że: „(...) małpy nie są generatorami losowymi. Są znacznie bardziej złożone. (...)". Dociekliwość ludzka nie zna granic!
Pozostając przy „paradoksie wykształconej małpy" wróćmy jednak do tematu prawa serii. Otóż, można powiedzieć, że dzięki naszemu twierdzeniu jesteśmy w stanie istotnie wzbogacić przewidywania Émila Borela (oczywiście myślimy tu o małpie, jako o przenośni symbolizującej generator losowy). Jeśli uznamy, że taki generator w rzeczywistości będzie generował nie proces doskonale niezależny, ale nieco zaburzony, to z dużym prawdopodobieństwem ów Hamlet będzie się w tej pisaninie pojawiał seriami!
W totolotku - bez zmian
Widać więc, że nasze ergodyczne prawo serii może wyjaśniać powstawanie serii nawet w procesach, które uważamy za niezależne. Są jednak poważne ograniczenia w jego stosowalności. Dotyczy ono wyłącznie zdarzeń w postaci długiego łańcucha znaków, ponadto obserwowane powtórzenia muszą być łańcuchami identycznymi. Nasze twierdzenia nie stosują się do zjawisk takich jak powtarzanie się jakiegoś nazwiska czy też wygrywającej kombinacji w totolotku (są to zbyt krótkie ciągi znaków). Tym bardziej nie stosują się one do zdarzeń, które w ogóle nie mają formy łańcucha znaków (jak np. wypadki drogowe, czy dzieci wypadające z okna). Mało tego, większość „serii" obserwowanych w życiu polega na powtórzeniach zdarzeń, które nie są zupełnie identyczne, a tylko do siebie podobne. To również eliminuje je z zasięgu naszego twierdzenia (choć mamy już nowe wyniki idące w tym kierunku).
Można natomiast wyobrazić sobie zastosowania ergodycznego prawa serii w teorii informacji, transmisji danych, genetyce i w wielu innych dziedzinach, gdzie mamy do czynienia z naprawdę długimi ciągami znaków. Typowym przykładem mogą tu być awarie jakiegoś systemu komputerowego wywołane pojawieniem się we wprowadzanym ciągu danych, bądź instrukcji, jakiejś określonej sekwencji, na którą program reaguje błędem systemowym. Zjawisko polegające na tym, że systemy zazwyczaj działające bezawaryjnie miewają dziwne i niewytłumaczalne okresy często powtarzających się zawieszeń, które później w równie niewytłumaczalny sposób ustępują, jest informatykom bardzo dobrze znane i jak dotąd uważane za dość mistyczne. Właśnie takie przypadki można próbować tłumaczyć naszym „ergodycznym prawem serii".
Nie oznacza to, że w przypadku zdarzeń innego typu nie ma podobnych praw matematycznych. Być może, dalsze badania pozwolą rozszerzyć stosowalność ergodycznego prawa serii na większą klasę zdarzeń. Wspólne z dr Pauliną Grzegorek mamy już pewne wyniki, ale dalsze uogólnienia to na razie jeszcze kwestia przyszłości.
Tomasz Downarowicz
* Chodzi tu o nierówność pomiędzy dystrybuantą tzw. czasu oczekiwania na sygnał, a dystrybuantą rozkładu wykładniczego reprezentującą taki sam czas oczekiwania w procesie nieobciążonym (czyli bez prawa serii) o tej samej intensywności.
Od Autora: Moja specjalność badawcza, to układy dynamiczne, a w szczególności teoria entropii w powiązaniu z dynamiką symboliczną. Podczas badań wraz z moim francuskim kolegą Yves Lacroix, (już po udowodnieniu twierdzenia) nasunęło nam się skojarzenie z popularnym „prawem serii", przysłowiem „nieszczęścia chodzą parami", itp. Odkryta przez nas historia tak nas zafascynowała, że we wstępie do naszej pracy postawiliśmy bardzo mocno na interpretację. Napisaliśmy, że nasze wyniki rzucają nowe światło na zjawisko, o które toczy się odwieczny spór, że odkryliśmy matematyczne podstawy Jungowskiej teorii synchroniczności, itp. itd.
W ten sposób, w oczach poważnych naukowców dołączyliśmy do grona entuzjastów zjawisk paranormalnych i w efekcie żadne szanujące się czasopismo matematyczne nie chciało opublikować naszej pracy. W związku z tym popularyzowaliśmy nasze sensacje na różnych stronach internetowych, na konferencjach i seminariach. Sama praca pozostawała jednak nie opublikowana. Dopiero po kilku latach zmieniliśmy taktykę. Mocno złagodziliśmy nasz wstęp i napisaliśmy wyraźnie jakich „serii" nasze wyniki dotyczą, a jakich nie. W nowej wersji praca jest od niedawna dostępna na łamach Ergodic Theory and Dynamical Systems.
Od redakcji: Prof. Tomasz Downarowicz (Politechnika Wrocławska) jest laureatem Nagrody głównej im. Stefana Banacha w 2009 r. (za osiągnięcia w dziedzinie układów dynamicznych), przyznawanej corocznie przez Polskie Towarzystwo Matematyczne.
- Autor: Zbigniew Cimek
- Odsłon: 7617
Tylko państwa, które pielęgnują matematykę mogą być silne i potężne
Stefan Banach
- Autor: Anna Leszkowska
- Odsłon: 4966
Z prof. Tomaszem Downarowiczem z Wydziału Matematyki Politechniki Wrocławskiej rozmawia Anna Leszkowska
- Panie Profesorze, podobno pech nie da się opisać matematycznie, ale co może o pechu powiedzieć matematyk nie wchodząc w kompetencje psychologa czy nawet wróżki?
- Pojęcie pecha istotnie nie jest opisywalne matematycznie. W świetle statystyki i probabilistyki po prostu takie pojęcie nie istnieje, tzn. pecha nie ma! Natomiast istnieje ono w naszej świadomości i podlega prawom psychologii, a może i magii.
Jeśli mielibyśmy mówić o pechu z punktu widzenia matematyki, to trzeba byłoby najpierw przyjąć jakąś definicję pecha, czym on jest.
- Powszechnie przyjmuje się, że to brak szczęścia, zły los, niepowodzenie, zdarzenia niekorzystne.
- No tak, ale to pojęcie nieostre, opisowe. W dodatku tego pecha można mieć czasem – np. gdy ucieknie nam autobus, albo permanentnie - kiedy komuś się nie udaje wszystko, czego się tknie. Zarówno jednak i ten pech jednorazowy, i ten permanentny, dają się wytłumaczyć statystyką. Jeżeli przyjmiemy definicję, że pech to jest nagromadzenie zdarzeń niekorzystnych w czyimś życiu, to z matematycznego punktu widzenia taka rzecz jest jak najbardziej wytłumaczalna i to nie jest nic nadzwyczajnego.
- Ale jak tu wytłumaczyć, że jednemu ciągle wiatr w oczy, a drugiemu wszystko idzie jak po maśle?
- Na to jako matematyk nie odpowiem, bo to jest sprawa czysto psychologiczna. Natomiast to, że bywają takie okresy, że występuje nagromadzenie zdarzeń pechowych, czy niekorzystnych, to jest jak najbardziej normalne. Jeżeli rzucamy monetą i za zdarzenie korzystne uznamy np. reszkę, to przy rzucaniu nią wiele razy, zaobserwujemy występowanie tzw. serii. Wiadomo, że szansa, iż wypadnie reszka jest 50%, natomiast prawdopodobieństwo, że 10 razy z rzędu wypadnie orzeł jest już dużo mniejsze. Jeśli jednak wykonamy wystarczająco dużo rzutów (więcej niż 1024 = 210), to taka seria 10 orłów powinna się pojawić. Tutaj obowiązuje zwykły rachunek prawdopodobieństwa, bo to jest proces z brakiem pamięci.
- Proces z brakiem pamięci?
- To taki proces, w którym cokolwiek by się do tej pory wydarzyło, nie powinno wpłynąć na rozkład prawdopodobieństwa tego, co będzie w przyszłości.
Nie każdy proces taki jest – są procesy, które mają pamięć, tylko my o tym nie wiemy. Jako matematycy mamy skłonność do tego, żeby upraszczać sobie świat i wiele procesów traktujemy właśnie jak procesy z brakiem pamięci. W praktyce jednak sam się przyłapuję na tym, że w ten brak pamięci nie wierzę. Bo jeżeli co roku jeżdżę na spływ kajakowy o tej samej przez roku i przez pięć lat z rzędu przez tydzień za każdym razem pada deszcz, to myślę sobie, że za szóstym razem padać nie będzie. Czyli usiłuję wywnioskować, jaka będzie pogoda na podstawie obserwacji przeszłości.
I tak czyni mnóstwo ludzi, choć tutaj sposoby wnioskowania mogą być różne. Jedni uważają, że skoro tyle razy coś się zdarzyło, więc i następnym razem będzie tak samo; inni - że właśnie z tego powodu musi być inaczej. Tak czy siak, to wnioskowanie jest nienaukowe. Chociaż akurat, jeśli chodzi o pogodę, to nie muszą tu zachodzić procesy z brakiem pamięci, bo mogą występować zjawiska – np. globalne ocieplenie – wpływające na zmianę klimatu. I to, że od kilku lat obserwujemy nasilone opady w lipcu to nie jest przypadek – w dodatku one będą się powtarzać, skoro istnieje głębsza ich przyczyna.
Jeżeli więc obserwujemy uproszczony proces z brakiem pamięci, jak np. rzut monetą, to będą tam występować długie serie tzw. niekorzystnych zdarzeń. I komuś one się przydarzą, a komuś nie. Jeśli to będzie się zdarzać częściej u jednej osoby – a tak może być – to choć ona może to uznać za pech, w rzeczywistości będzie to tylko statystyka. Bo są to zdarzenia losowe, na które nie mamy wpływu.
Wynika jednak z tego i optymistyczny wniosek. Otóż zjawiska przebiegające z brakiem pamięci dają pechowcom nadzieję, że ich zła karta może się w każdej chwili odwrócić. Z pechowców staną się szczęściarzami. Ale i odwrotnie: szczęściarzy może spotkać los pechowców, bo przeszłość nie ma żadnego wpływu, a przyszłość jest zupełnie niezależna. Zatem te orły i reszki będą występować u każdego z prawdopodobieństwem 50%, niezależnie od tego, co się działo.
To wszystko jest opisane na modelu uproszczonym, wyidealizowanym, w procesie o braku pamięci.
Natomiast w życiu rządzą nami zupełnie inne prawa. I tutaj wkraczamy już w psychologię. Bo to, jak my odbieramy różne zdarzenia, częstość ich występowania, jest bardzo subiektywne. O ile proces może się charakteryzować brakiem pamięci, to człowiek już nie. Człowiek pamięta. Ale jego pamięć jest zawodna i selektywna. Jeśli chce coś pamiętać, to pamięta, a jeśli nie chce – nie pamięta.
- Czy można tu mówić o procesie braku pamięci?
- Nie, po prostu pamiętamy tylko to, co chcemy pamiętać. Bo wcale tak nie jest, że zawsze na urlopie jest zła pogoda. Jeśli bowiem tak się zdarzy, to przywołuje się z pamięci te momenty, kiedy już tak właśnie było i ocenia, że tak było zawsze. A to nieprawda, po prostu my tak postrzegamy.
To zależy od psychiki, od nastawienia, jak dany człowiek siebie ocenia, jak chce widzieć rzeczywistość, czy jest optymistą, czy pesymistą. Jeden będzie pamiętać wszystkie niekorzystne sytuacje, bo w jego przekonaniu to tylko jemu się to ciągle zdarza, a inny będzie pamiętać zdarzenia korzystne.
- Na tym polega prawo Murphy’ego.
- Tak, w dużym stopniu polega na selektywnej pamięci, ale prawa Murphy’ego w dużej części wynikają z tzw. wishful thinking, czyli myślenia życzeniowego i to jest jeszcze inne zjawisko. Natomiast to, o którym mówię jest po prostu selektywnym pamiętaniem i ignorowaniem pewnych zdarzeń, które nam nie pasują do naszego modelu. Jeżeli chcemy przekonać wszystkich, że jesteśmy pechowcami, to my to zrobimy, bo przywołamy wszystkie niekorzystne zdarzenia, będziemy je zapamiętywać, kolekcjonować, by sypnąć następnie przykładami.
- Ale każdy z nas zapewne zna takie osoby, które mają permanentnego pecha, który je spotyka „obiektywnie”, bez ich nastawienia na negatywne zdarzenia.
- Tutaj odsyłam do artykułu prof. Ewy Trzebińskiej – „Urodzeni pechowcy”* - bo to jest sprawa dla psychologa. Autorka wyraża w nim pogląd, że w dzieciństwie, w procesie wychowania, jest nam „wdrukowywany” pewien skrypt, czego sobie nie uświadamiamy, a według którego odgrywamy w życiu pewne role. Mogą to być role pechowca i szczęściarza; osoby, która się wszystkimi opiekuje i nieudacznika, który wiecznie wymaga opieki. Rola pechowca występuje bardzo często, a takie właśnie osoby pechem próbują usprawiedliwić swoje niepowodzenia. Pechowcami stają się ci, którzy źle sobie ustawią cele życiowe: nierealne, albo zbyt mało ambitne.
Ale i pewną rolę odgrywa tu wishful thinking, bo wyobrażamy sobie, że świat jest dużo lepiej zorganizowany niż jest naprawdę. Wielu niedoświadczonym ludziom się wydaje, że jakoś to będzie, że jak coś zrobią w kierunku osiągnięcia jakiegoś celu, to reszta się korzystnie złoży, los im pomoże. Tymczasem ten los nie chce im sprzyjać, bo zwyczajnie nie przygotowali się do danego zadania. Co im nie przeszkadza twierdzić, iż stało się tak z powodu pecha.
Wishful thinking polega na nadziei, iż w pewnym momencie będzie korzystna konfiguracja zdarzeń losowych. Że te 50% powodzenia wyniknie z naszego wysiłku, ale drugie 50% - z łutu szczęścia.
Tak jednak nie będzie, bo rzeczywistość jest bardzo złożona – z czego nie zdajemy sobie sprawy – i wiele rzeczy może pójść nie tak, jak sobie wyobrażamy. Nie przewidujemy mnóstwa możliwych niekorzystnych sytuacji, bo wyobrażamy sobie rzeczywistość jako dobrze zorganizowaną, w której wszystko działa i będzie działać. A kiedy zderzamy się z realiami, tłumaczymy to pechem.
- Czy pecha można określić przy pomocy rachunku prawdopodobieństwa?
- Na poziomie abstrakcyjnym zawsze można próbować coś wyjaśnić, nawet jak tych zmiennych jest nieskończenie wiele. Matematycy zajmują się takimi modelami, w których jest bardzo wiele zmiennych i to im nie przeszkadza. Opisuje się je nie poprzez podanie rozwiązań ścisłych, ale statystycznych.
Natomiast nie matematycy np. w przypadku niefartownych zdarzeń najczęściej definiują je po ich wydarzeniu się i oceniają jako serię, choć są one różne. Z matematycznego punktu widzenia nie można jednak uznać, że złamanie nogi we wtorek, kradzież auta w środę a w piątek zwolnienie z pracy tworzą serię. To są zdarzenia różne, choć na siłę robimy z nich jeden ciąg. Gdyby chcieć taką serię przewidzieć przy pomocy rachunku prawdopodobieństwa, musiałyby to być seria zdarzeń ściśle określona z góry, a nie dopiero po fakcie.
- Czyli jednak pech to domena psychologii, choć matematyka jest używana w coraz większej liczbie nauk, a w ekonomii zrobiła prawdziwą furorę.
- Tak, polega to na tym, że w potocznym myśleniu bardzo łatwo matematyczne rygory naginamy do rzeczywistości i mówimy, że zdarzyło się coś, co się nie miało prawa zdarzyć. W ekonomii jest o tyle łatwiej stosować matematykę, że tam wszystko się przelicza na pieniądze, czyli jest jakaś mierzalna zmienna losowa, a właściwie wiele zmiennych losowych, bo bada się także inne parametry finansowe. Wszystkie one podporządkowują się prawom statystyki, co pozwala na przewidywania.
Tymczasem z pechem jest problem, bo to jest zjawisko bardzo subiektywne. To jak z tym przysłowiowym optymistą i pesymistą – jeden twierdzi, że szklanka jest do połowy pełna, a drugi – że w połowie pusta. Gdybyśmy mogli wprowadzić jakąś rygorystyczną definicję, która to pojęcie mogłaby skwantyfikować, wówczas można byłoby liczyć prawdopodobieństwo pecha. Natomiast w przypadku pojęcia potocznego jest to niemożliwe.
Wnioski są więc takie, że pecha będziemy mieć wówczas, kiedy będziemy go chcieli mieć. Czyli jeśli popatrzymy na nasze życie optymistycznie i będziemy zapamiętywać momenty, kiedy nam się poszczęściło, to będziemy przekonani, że jesteśmy szczęściarzami. Nawet, jak od czasu do czasu coś nam się nie uda, zgodnie z prawami statystyki i rachunku prawdopodobieństwa.
Tak więc nie gromadźmy w pamięci chwil złych, bo wówczas jak spojrzymy w przeszłość, wyda nam się, że całe nasze życie jest pasmem niepowodzeń, choć tak pewnie nie jest.
- A czy można mówić o zależności pecha od tzw. charakteru narodowego?
- Polacy uwielbiają być pechowcami. Wynika to ze złej organizacji, niedoceniania porządku i braku myślenia ekonomicznego. Jesteśmy narodem bardzo spontanicznym, nie lubimy systematycznej pracy, ani działania schematycznego, które jednak daje rezultaty w postaci uporządkowania. Lubimy chaos, w którym zaczyna dominować entropia. A ona ma to do siebie, że chce wszystkim zawładnąć i generuje właśnie tego pecha, a prawie nigdy wydarzenia korzystne. Pozbyć się entropii nie możemy, możemy tylko obniżyć lokalnie ją w jakimś miejscu, czyli uporządkować nasz mały świat wokół nas. Ale „żeby w domu mieć czysto, a w lodowce pełno”, potrzebny jest wielki wysiłek, wymagający pracy, samodyscypliny, organizacji itd. I choć zdarzają się szczęściarze, którym wszystko przychodzi bez wysiłku, to trzeba pamiętać, że wynika to z procesu losowego, więc nie można liczyć, że to się na pewno i nam przydarzy.
Dziękuję za rozmowę.
*http://xn--jzyk-polski-rrb.pl/testy-czytanie-ze-zrozumieniem/110-urodzeni-pechowcy
- Autor: Anna Leszkowska
- Odsłon: 928
O najnowszym wynalazku, kwantowym generatorze liczb losowych, oraz hackerskich atakach z dr. hab. Marcinem Pawłowskim, kierownikiem zespołu kwantowego cyberbezpieczeństwa w Międzynarodowym Centrum Teorii Technologii Kwantowych na Uniwersytecie Gdańskim, rozmawia dr Beata Czechowska-Derkacz
Fizyka kwantowa to trudna i w powszechnym odbiorze dosyć hermetyczna dziedzina nauki. Co pana urzekło w kwantach?
Zajmuję się dokładnie informatyką kwantową, która jest najnowszym odłamem mechaniki kwantowej. Polega na zastosowaniu teorii kwantowej do rozwiązywania problemów w przetwarzaniu informacji. Najbardziej urzekło mnie to, że jest to niezwykle prosty obszar nauki.
Pierwsze pomysły w zakresie badań nad fizyką kwantową pojawiły się w latach siedemdziesiątych, a pierwsze prace – w latach osiemdziesiątych. Badania rozwinęły się w latach dziewięćdziesiątych. Pomysły leżą zatem praktycznie na ziemi i każdy, kto się pasjonuje naukami ścisłymi, może znaleźć coś nowego dla siebie i uzyskać interesujące wyniki, często w krótkim czasie, bo w ciągu kilku miesięcy.
Jeśli porównać badania z zakresu informatyki kwantowej z badaniami z zakresu fizyki wysokiej energii, gdzie nad nowym pomysłem musi latami pracować duży zespół badaczy, to chyba wybrałem dyscyplinę najprostszą i poszedłem po linii najmniejszego oporu.
Podobno fizyka kwantowa niemożliwe czyni możliwym… Co wymieniłby pan jako najważniejsze?
Wszyscy mówią o komputerach kwantowych, ale ja wybrałbym kryptografię kwantową. Wydaje się niemożliwe, aby nie móc przechwycić rozmowy, jeśli odbywa się w publicznej przestrzeni. A dzięki kryptografii kwantowej, mimo że kiedy rozmawiamy, czyli wysyłamy do siebie określone stany kwantowe i każdy może je „oglądać”, jesteśmy w stanie tak zaszyfrować informacje, że nikt nie złamie naszego kodu. I jest na to matematyczny dowód. Klasyczna kryptografia nie umie sobie z tym poradzić.
Jeśli dzięki kryptografii kwantowej możemy coś bezpiecznie zaszyfrować, to wydaje się, że ta sama technologia pozwoli nam na rozszyfrowywanie, a zatem tworzenie na przykład urządzeń szpiegujących.
Ja zajmuję się kwantowym szyfrowaniem i jestem tym „dobrym” w nauce. Mogę mówić żartobliwie, że moi koledzy, którzy zajmują się rozszyfrowywaniem, stoją „po drugiej stronie mocy”… Urządzenia rozszyfrowujące to o wiele potężniejsze narzędzia, wymagające ogromnych pieniędzy. Komputery kwantowe, które powstaną, bo jestem pewny, że to kwestia czasu, będą miały wiele zastosowań, ale główne będą wykorzystywane do łamania szyfrów. I będą raczej dostępne dla wywiadów bogatych państw, nie dla zwykłych hackerów. Jako naukowiec traktuję kwestie cyberbezpieczeństwa bardziej jako ciekawy problem matematyczno-fizyczny. Jeśli chcemy być bezpieczni w cyfrowym świecie, rozwiązania gwarantujące cyberbezpieczeństwo powinny być tanie i dostępne dla każdego. Myślę, że tak w przyszłości się stanie, bo technologie kwantowe rozwijają się coraz dynamiczniej. Sam pracuję nad takimi rozwiązaniami, odpowiadając na społeczne zapotrzebowanie w tym zakresie.
Efektem jest opracowana nowa metoda szyfrowania oraz nowe urządzenie – samotestujący się generator liczb losowych. Na czym polega opracowana przez pana technologia i jak można ją wykorzystać?
Najważniejszym zastosowaniem liczb losowych w cyberbezpieczeństwie jest generowanie kluczy kryptograficznych. Chodzi o to, aby nie można było tych liczb odgadywać, nawet w przybliżeniu. W przeciwnym razie łatwej jest rozszyfrować klucz kryptograficzny i łatwiejsze są ataki hackerskie. Opracowałem metodę szyfrowania opartą na zjawisku interferencji, które jest łatwiejsze do zaobserwowania niż wykorzystywane do tej pory zjawisko tak zwanej kwantowej nielokalności. W mechanice kwantowej interferometr można ustawić tak, aby całe światło skierować w jedną lub w drugą stronę albo po połowie – w obie strony. Jeżeli osłabimy światło do pojedynczego fotonu, nie jesteśmy w stanie przewidzieć jego kierunku. Losowość staje się niemal stuprocentowa.
Urządzenie, w którym zastosowano tę metodę, jest także samotestujące się, a zatem wykrywa i reaguje w czasie rzeczywistym na ataki hackerskie. Wykorzystywane w standardowych urządzeniach samotestujących się wspomniane zjawisko kwantowej nielokalności jest możliwe do zaobserwowania wyłącznie w ekstremalnie niskich temperaturach. Takie urządzania są ogromne, niepraktyczne i bardzo drogie. To kwoty rzędu miliona euro. Zjawisko interferencji jest o wiele łatwiejsze do zaobserwowania i pozwala na miniaturyzację urządzeń. Będą mieściły się w pudełku i kosztowały kilka rzędów wielkości mniej.
Kwantowym generatorem liczb losowych jest zainteresowana chilijska Lotería de Concepción, instytucja, która, uproszczając, jest odpowiednikiem Polskiego Totalizatora Sportowego. Jak wyglądają kwestie produkcji i własności tego urządzenia?
Urządzenie zostało objęte międzynarodowym zgłoszeniem patentowym. Właścicielami są Uniwersytet Gdański oraz chilijski Universidad de Concepción. Ja zająłem się urządzeniem od strony teoretycznej, a mój chilijski kolega, Gustavo Lima, od strony praktycznej. Lotería de Concepción zainwestowała w firmę SeQuere SpA budującą prototyp i jest zainteresowana kupnem tego urządzenia do stosowania w grach losowych. W tej chwili jest ono testowane w ich siedzibie.
Współtwórcą i wynalazcą jest polski naukowiec, ale urządzenie jest testowane w Chile?
Tam znaleźliśmy inwestora. Chile leży w tej części świata, w której ludzie kochają hazard, może dlatego nasze urządzenie zaczyna od takiej trochę „rozrywkowej” branży. Może mieć też zastosowanie w kasynach online. Ale ja chcę się skoncentrować na miniaturyzacji urządzenia, co pozwoli zastosować je o wiele szerzej, przede wszystkim w zakresie cyberbezpieczeństwa. A to są już kwestie, którymi bardzo zainteresowany jest rynek europejski. Kwantowy generator liczb losowych ma w tej chwili wielkość średniej drukarki, a ja chciałbym zminiaturyzować tę technologię do wielkości chipa. Założyliśmy już także w Polsce firmę startupową SeQuere Quantum, która będzie zajmowała się miniaturyzacją.
W jakich innych obszarach, oprócz gier losowych, możemy zastosować samotestujące się generatory liczba losowych?
Wszędzie tam, gdzie ważne są bezpieczna komunikacja i szyfrowanie danych. Ale swoją prawdziwą moc mają szansę pokazać w obszarach komunikacji w zakresie tak zwanej infrastruktury krytycznej – pomiędzy agencjami wywiadowczymi, policją, na poziomie firm energetycznych i w wielu innych newralgicznych obszarach funkcjonowania państwa. Takie bardzo proste i na razie mało bezpieczne, ale już kwantowe, generatory liczb losowych są zamontowane w najnowszym telefonie Samsunga. Jestem pewny, że ta technologia będzie się upowszechniać.
Czy kwantowe rozwiązania w zakresie cyberbezpieczeństwa można zaliczyć, obok nanotechnologii, do tak zwanych kluczowych technologii przyszłości?
Dezinformacja, wojny hybrydowe, to wszystko powoduje, że coraz bardziej zdajemy sobie sprawę z tego, jak ważną sprawą jest cyberbezpieczeństwo. W 2019 roku państwa członkowskie Unii Europejskiej podpisały deklarację w sprawie europejskiej infrastruktury łączności kwantowej – European Quantum Communication Infrastructure (EuroQCI).
Celem jest budowa infrastruktury do kryptografii kwantowej, pokrywającej całą Europę i mającej też dostęp do komunikacji satelitarnej, tak aby do 2027 roku powstał wspólny bezpieczny system. Obrona przed atakami hackerskimi już dzisiaj jest równie ważna jak obrona przez akcjami militarnymi. Wojny militarne są prowadzone, aby zdobyć jakieś terytorium, złoża. Ale dziś najcenniejsze są informacje, wiedza, na przykład na temat nowoczesnych technologii, know-how wielkich światowych firm i tych mniejszych, pracujących nad nowymi rozwiązaniami przyszłości. Militarny najazd na Dolinę Krzemową nie miałby dziś żadnego sensu, ponieważ większość firm, w globalnej gospodarce, przeniosłaby w bardzo krótkim czasie swoją działalność w inne miejsce. Atak hackerski pozwoliłby na pozyskanie bezcennych informacji.
Czy trudno jest w przypadku badacza łączyć badania naukowe z działalnością biznesową?
Zaczęliśmy rozmowę od tego, że mechanika kwantowa jest trudną i hermetyczną dziedziną. To nie jest prawda. Nie jest trudniejsza od jakiejkolwiek innej dyscypliny naukowej czy dziedziny życia. Problem z jej zrozumieniem polega na tym, że całkowicie różni się od wszystkiego, co do tej pory poznaliśmy. Ale po kilku latach pracy nad kwantowymi problemami całość okazuje się dość jasna, zrozumiała i prosta. Dla mnie o wiele trudniejsze jest prowadzenie biznesu, a jeszcze jak dodamy do tego biznes w obszarze technologii kwantowych, dopiero zaczynają się przysłowiowe schody… Na szczęście są ludzie, którzy myślą dokładnie odwrotnie i trzeba ich po prostu znaleźć.
Na Uniwersytecie Gdańskim działa znakomite Międzynarodowe Centrum Teorii Technologii Kwantowych, jedna z nielicznych w Polsce międzynarodowych agend badawczych, a pan jest kierownikiem zespołu kwantowego cyberbezpieczeństwa. Jako Uniwersytet Gdański i szerzej – gdański ośrodek, bo badania prowadzone są także na Politechnice Gdańskiej – nie powinniśmy mieć chyba żadnych kompleksów, jeśli chodzi o światowe badania w obszarze fizyki kwantową. Czuje pan dumę z powodu przynależności do tak wyjątkowego zespołu?
Oczywiście! Jako naukowiec miałem wielkie szczęście. Wydaje się chyba zupełnym przypadkiem, że kiedy w latach dziewięćdziesiątych zaczęła się dynamicznie rozwijać fizyka kwantowa, na Uniwersytecie Gdańskim pojawiło się kilku znakomitych naukowców, którzy prowadzili badania w tym obszarze: profesor Marek Żukowski oraz profesor Ryszard Horodecki, a później także synowie profesora Horodeckiego – Michał i Paweł. Nie tylko wnieśli oni wielki wkład w rozwój tej dziedziny, ale też pozostali w Gdańsku, choć każdy światowy ośrodek przyjąłby ich z otwartymi ramionami. Co więcej, ściągali tu znakomitych naukowców z zagranicy i młodych badaczy, którzy rozwijali tę dziedzinę nauki.
Ja jestem doktorantem profesora Żukowskiego. Obecnie przygotowujemy do pracy w naszym ośrodku trzecią, a nawet czwartą generację młodych naukowców… Mamy publikacje na światowym poziomie i jesteśmy prawdopodobnie największą grupą teoretyków z zakresu informatyki kwantowej na świecie. Zawsze jesteśmy wymieniani wśród najlepszych, a coraz częściej stawiani na pierwszym miejscu. To wielka przyjemność pracować naukowo w takim miejscu.
Nad czym obecnie pan pracuje?
Na brak pracy nie mogę narzekać. Mam świetną grupę badawczą i mogę pracować nad wieloma pomysłami jednocześnie. Jestem w trakcie składania zgłoszenia patentowego na kolejne trzy nowe wynalazki, z czego oczywiście moim ukochanym dzieckiem jest najnowszy z nich. Będzie to urządzenie do jeszcze bezpieczniejszej kryptografii kwantowej – niezależnej od urządzeń, w języku angielskim: device independent. Mamy pomysł na technologiczne rozwiązanie, aby kryptografia kwantowa, niezależna od urządzeń, w których będzie wykorzystywana, była równie prosta, jak standardowa. To oznacza możliwość wykorzystania takiej technologii szyfrowania na poziomie nawet małych i średnich przedsiębiorstw, które muszą się komunikować na ogromne odległości.
Czego można panu życzyć oprócz kolejnych wspaniałych sukcesów?
Chciałbym przenieść te życzenia na kolejne generacje młodych naukowców. Chciałbym im zapewnić takie warunki, jakie zapewniono mnie w moim rozwoju naukowym. Aby mogli pracować we wciąż wspaniale rozwijającym się gdańskim ośrodku i aby ich wynalazki były bardziej zaskakujące, odkrywcze i pożyteczne od moich. I aby kolejne patenty zgłaszali już moi wychowankowie.
Dziękuję za rozmowę.
dr Beata Czechowska-Derkacz jest specjalistą ds. promocji badań naukowych Instytutu Mediów, Dziennikarstwa i Komunikacji Społecznej UG