Kryptografia kwantowa, czyli szyfry nie do złamania
- Autor: Anna Leszkowska
- Odsłon: 869
O najnowszym wynalazku, kwantowym generatorze liczb losowych, oraz hackerskich atakach z dr. hab. Marcinem Pawłowskim, kierownikiem zespołu kwantowego cyberbezpieczeństwa w Międzynarodowym Centrum Teorii Technologii Kwantowych na Uniwersytecie Gdańskim, rozmawia dr Beata Czechowska-Derkacz
Fizyka kwantowa to trudna i w powszechnym odbiorze dosyć hermetyczna dziedzina nauki. Co pana urzekło w kwantach?
Zajmuję się dokładnie informatyką kwantową, która jest najnowszym odłamem mechaniki kwantowej. Polega na zastosowaniu teorii kwantowej do rozwiązywania problemów w przetwarzaniu informacji. Najbardziej urzekło mnie to, że jest to niezwykle prosty obszar nauki.
Pierwsze pomysły w zakresie badań nad fizyką kwantową pojawiły się w latach siedemdziesiątych, a pierwsze prace – w latach osiemdziesiątych. Badania rozwinęły się w latach dziewięćdziesiątych. Pomysły leżą zatem praktycznie na ziemi i każdy, kto się pasjonuje naukami ścisłymi, może znaleźć coś nowego dla siebie i uzyskać interesujące wyniki, często w krótkim czasie, bo w ciągu kilku miesięcy.
Jeśli porównać badania z zakresu informatyki kwantowej z badaniami z zakresu fizyki wysokiej energii, gdzie nad nowym pomysłem musi latami pracować duży zespół badaczy, to chyba wybrałem dyscyplinę najprostszą i poszedłem po linii najmniejszego oporu.
Podobno fizyka kwantowa niemożliwe czyni możliwym… Co wymieniłby pan jako najważniejsze?
Wszyscy mówią o komputerach kwantowych, ale ja wybrałbym kryptografię kwantową. Wydaje się niemożliwe, aby nie móc przechwycić rozmowy, jeśli odbywa się w publicznej przestrzeni. A dzięki kryptografii kwantowej, mimo że kiedy rozmawiamy, czyli wysyłamy do siebie określone stany kwantowe i każdy może je „oglądać”, jesteśmy w stanie tak zaszyfrować informacje, że nikt nie złamie naszego kodu. I jest na to matematyczny dowód. Klasyczna kryptografia nie umie sobie z tym poradzić.
Jeśli dzięki kryptografii kwantowej możemy coś bezpiecznie zaszyfrować, to wydaje się, że ta sama technologia pozwoli nam na rozszyfrowywanie, a zatem tworzenie na przykład urządzeń szpiegujących.
Ja zajmuję się kwantowym szyfrowaniem i jestem tym „dobrym” w nauce. Mogę mówić żartobliwie, że moi koledzy, którzy zajmują się rozszyfrowywaniem, stoją „po drugiej stronie mocy”… Urządzenia rozszyfrowujące to o wiele potężniejsze narzędzia, wymagające ogromnych pieniędzy. Komputery kwantowe, które powstaną, bo jestem pewny, że to kwestia czasu, będą miały wiele zastosowań, ale główne będą wykorzystywane do łamania szyfrów. I będą raczej dostępne dla wywiadów bogatych państw, nie dla zwykłych hackerów. Jako naukowiec traktuję kwestie cyberbezpieczeństwa bardziej jako ciekawy problem matematyczno-fizyczny. Jeśli chcemy być bezpieczni w cyfrowym świecie, rozwiązania gwarantujące cyberbezpieczeństwo powinny być tanie i dostępne dla każdego. Myślę, że tak w przyszłości się stanie, bo technologie kwantowe rozwijają się coraz dynamiczniej. Sam pracuję nad takimi rozwiązaniami, odpowiadając na społeczne zapotrzebowanie w tym zakresie.
Efektem jest opracowana nowa metoda szyfrowania oraz nowe urządzenie – samotestujący się generator liczb losowych. Na czym polega opracowana przez pana technologia i jak można ją wykorzystać?
Najważniejszym zastosowaniem liczb losowych w cyberbezpieczeństwie jest generowanie kluczy kryptograficznych. Chodzi o to, aby nie można było tych liczb odgadywać, nawet w przybliżeniu. W przeciwnym razie łatwej jest rozszyfrować klucz kryptograficzny i łatwiejsze są ataki hackerskie. Opracowałem metodę szyfrowania opartą na zjawisku interferencji, które jest łatwiejsze do zaobserwowania niż wykorzystywane do tej pory zjawisko tak zwanej kwantowej nielokalności. W mechanice kwantowej interferometr można ustawić tak, aby całe światło skierować w jedną lub w drugą stronę albo po połowie – w obie strony. Jeżeli osłabimy światło do pojedynczego fotonu, nie jesteśmy w stanie przewidzieć jego kierunku. Losowość staje się niemal stuprocentowa.
Urządzenie, w którym zastosowano tę metodę, jest także samotestujące się, a zatem wykrywa i reaguje w czasie rzeczywistym na ataki hackerskie. Wykorzystywane w standardowych urządzeniach samotestujących się wspomniane zjawisko kwantowej nielokalności jest możliwe do zaobserwowania wyłącznie w ekstremalnie niskich temperaturach. Takie urządzania są ogromne, niepraktyczne i bardzo drogie. To kwoty rzędu miliona euro. Zjawisko interferencji jest o wiele łatwiejsze do zaobserwowania i pozwala na miniaturyzację urządzeń. Będą mieściły się w pudełku i kosztowały kilka rzędów wielkości mniej.
Kwantowym generatorem liczb losowych jest zainteresowana chilijska Lotería de Concepción, instytucja, która, uproszczając, jest odpowiednikiem Polskiego Totalizatora Sportowego. Jak wyglądają kwestie produkcji i własności tego urządzenia?
Urządzenie zostało objęte międzynarodowym zgłoszeniem patentowym. Właścicielami są Uniwersytet Gdański oraz chilijski Universidad de Concepción. Ja zająłem się urządzeniem od strony teoretycznej, a mój chilijski kolega, Gustavo Lima, od strony praktycznej. Lotería de Concepción zainwestowała w firmę SeQuere SpA budującą prototyp i jest zainteresowana kupnem tego urządzenia do stosowania w grach losowych. W tej chwili jest ono testowane w ich siedzibie.
Współtwórcą i wynalazcą jest polski naukowiec, ale urządzenie jest testowane w Chile?
Tam znaleźliśmy inwestora. Chile leży w tej części świata, w której ludzie kochają hazard, może dlatego nasze urządzenie zaczyna od takiej trochę „rozrywkowej” branży. Może mieć też zastosowanie w kasynach online. Ale ja chcę się skoncentrować na miniaturyzacji urządzenia, co pozwoli zastosować je o wiele szerzej, przede wszystkim w zakresie cyberbezpieczeństwa. A to są już kwestie, którymi bardzo zainteresowany jest rynek europejski. Kwantowy generator liczb losowych ma w tej chwili wielkość średniej drukarki, a ja chciałbym zminiaturyzować tę technologię do wielkości chipa. Założyliśmy już także w Polsce firmę startupową SeQuere Quantum, która będzie zajmowała się miniaturyzacją.
W jakich innych obszarach, oprócz gier losowych, możemy zastosować samotestujące się generatory liczba losowych?
Wszędzie tam, gdzie ważne są bezpieczna komunikacja i szyfrowanie danych. Ale swoją prawdziwą moc mają szansę pokazać w obszarach komunikacji w zakresie tak zwanej infrastruktury krytycznej – pomiędzy agencjami wywiadowczymi, policją, na poziomie firm energetycznych i w wielu innych newralgicznych obszarach funkcjonowania państwa. Takie bardzo proste i na razie mało bezpieczne, ale już kwantowe, generatory liczb losowych są zamontowane w najnowszym telefonie Samsunga. Jestem pewny, że ta technologia będzie się upowszechniać.
Czy kwantowe rozwiązania w zakresie cyberbezpieczeństwa można zaliczyć, obok nanotechnologii, do tak zwanych kluczowych technologii przyszłości?
Dezinformacja, wojny hybrydowe, to wszystko powoduje, że coraz bardziej zdajemy sobie sprawę z tego, jak ważną sprawą jest cyberbezpieczeństwo. W 2019 roku państwa członkowskie Unii Europejskiej podpisały deklarację w sprawie europejskiej infrastruktury łączności kwantowej – European Quantum Communication Infrastructure (EuroQCI).
Celem jest budowa infrastruktury do kryptografii kwantowej, pokrywającej całą Europę i mającej też dostęp do komunikacji satelitarnej, tak aby do 2027 roku powstał wspólny bezpieczny system. Obrona przed atakami hackerskimi już dzisiaj jest równie ważna jak obrona przez akcjami militarnymi. Wojny militarne są prowadzone, aby zdobyć jakieś terytorium, złoża. Ale dziś najcenniejsze są informacje, wiedza, na przykład na temat nowoczesnych technologii, know-how wielkich światowych firm i tych mniejszych, pracujących nad nowymi rozwiązaniami przyszłości. Militarny najazd na Dolinę Krzemową nie miałby dziś żadnego sensu, ponieważ większość firm, w globalnej gospodarce, przeniosłaby w bardzo krótkim czasie swoją działalność w inne miejsce. Atak hackerski pozwoliłby na pozyskanie bezcennych informacji.
Czy trudno jest w przypadku badacza łączyć badania naukowe z działalnością biznesową?
Zaczęliśmy rozmowę od tego, że mechanika kwantowa jest trudną i hermetyczną dziedziną. To nie jest prawda. Nie jest trudniejsza od jakiejkolwiek innej dyscypliny naukowej czy dziedziny życia. Problem z jej zrozumieniem polega na tym, że całkowicie różni się od wszystkiego, co do tej pory poznaliśmy. Ale po kilku latach pracy nad kwantowymi problemami całość okazuje się dość jasna, zrozumiała i prosta. Dla mnie o wiele trudniejsze jest prowadzenie biznesu, a jeszcze jak dodamy do tego biznes w obszarze technologii kwantowych, dopiero zaczynają się przysłowiowe schody… Na szczęście są ludzie, którzy myślą dokładnie odwrotnie i trzeba ich po prostu znaleźć.
Na Uniwersytecie Gdańskim działa znakomite Międzynarodowe Centrum Teorii Technologii Kwantowych, jedna z nielicznych w Polsce międzynarodowych agend badawczych, a pan jest kierownikiem zespołu kwantowego cyberbezpieczeństwa. Jako Uniwersytet Gdański i szerzej – gdański ośrodek, bo badania prowadzone są także na Politechnice Gdańskiej – nie powinniśmy mieć chyba żadnych kompleksów, jeśli chodzi o światowe badania w obszarze fizyki kwantową. Czuje pan dumę z powodu przynależności do tak wyjątkowego zespołu?
Oczywiście! Jako naukowiec miałem wielkie szczęście. Wydaje się chyba zupełnym przypadkiem, że kiedy w latach dziewięćdziesiątych zaczęła się dynamicznie rozwijać fizyka kwantowa, na Uniwersytecie Gdańskim pojawiło się kilku znakomitych naukowców, którzy prowadzili badania w tym obszarze: profesor Marek Żukowski oraz profesor Ryszard Horodecki, a później także synowie profesora Horodeckiego – Michał i Paweł. Nie tylko wnieśli oni wielki wkład w rozwój tej dziedziny, ale też pozostali w Gdańsku, choć każdy światowy ośrodek przyjąłby ich z otwartymi ramionami. Co więcej, ściągali tu znakomitych naukowców z zagranicy i młodych badaczy, którzy rozwijali tę dziedzinę nauki.
Ja jestem doktorantem profesora Żukowskiego. Obecnie przygotowujemy do pracy w naszym ośrodku trzecią, a nawet czwartą generację młodych naukowców… Mamy publikacje na światowym poziomie i jesteśmy prawdopodobnie największą grupą teoretyków z zakresu informatyki kwantowej na świecie. Zawsze jesteśmy wymieniani wśród najlepszych, a coraz częściej stawiani na pierwszym miejscu. To wielka przyjemność pracować naukowo w takim miejscu.
Nad czym obecnie pan pracuje?
Na brak pracy nie mogę narzekać. Mam świetną grupę badawczą i mogę pracować nad wieloma pomysłami jednocześnie. Jestem w trakcie składania zgłoszenia patentowego na kolejne trzy nowe wynalazki, z czego oczywiście moim ukochanym dzieckiem jest najnowszy z nich. Będzie to urządzenie do jeszcze bezpieczniejszej kryptografii kwantowej – niezależnej od urządzeń, w języku angielskim: device independent. Mamy pomysł na technologiczne rozwiązanie, aby kryptografia kwantowa, niezależna od urządzeń, w których będzie wykorzystywana, była równie prosta, jak standardowa. To oznacza możliwość wykorzystania takiej technologii szyfrowania na poziomie nawet małych i średnich przedsiębiorstw, które muszą się komunikować na ogromne odległości.
Czego można panu życzyć oprócz kolejnych wspaniałych sukcesów?
Chciałbym przenieść te życzenia na kolejne generacje młodych naukowców. Chciałbym im zapewnić takie warunki, jakie zapewniono mnie w moim rozwoju naukowym. Aby mogli pracować we wciąż wspaniale rozwijającym się gdańskim ośrodku i aby ich wynalazki były bardziej zaskakujące, odkrywcze i pożyteczne od moich. I aby kolejne patenty zgłaszali już moi wychowankowie.
Dziękuję za rozmowę.
dr Beata Czechowska-Derkacz jest specjalistą ds. promocji badań naukowych Instytutu Mediów, Dziennikarstwa i Komunikacji Społecznej UG
Zdradzać czy nie?
- Autor: Anna Leszkowska
- Odsłon: 1829
Z prof. Tomaszem Downarowiczem z Wydziału Matematyki Politechniki Wrocławskiej rozmawia Anna Leszkowska
- Panie Profesorze, wydaje się, że teorią gier, która tłumaczy optymalne zachowania ludzi w przypadku konfliktu interesów, można wyjaśnić każde zachowanie społeczne. Jednym z takich przypadków jest spotkanie towarzyskie np. z okazji urodzin, na które nie wypada przyjść z pustymi rękami. To klasyczny przypadek tzw. dylematu więźnia*, bo jeśli goście się wcześniej nie umówili, kto przyniesie tort, to albo go przyniesie każdy, albo nikt, albo jakaś część zaproszonych, co zwykle się dzieje.
Zgodnie z teorią gier, najlepszą strategią dla zaproszonego jest zatem przyjść bez tortu, licząc na to, że ktoś z zaproszonych go kupi. Czy aspołeczne zachowania są najkorzystniejsze?
- Poruszone przez panią zagadnienie jest wielowątkowe, a zachowania społeczne można analizować na wielu płaszczyznach. Według podejścia matematycznego, przykład z dylematem więźnia jest bardzo specyficzny, Ma on bowiem na celu pokazanie, że tzw. stan równowagi Nasha nie zawsze oznacza rozwiązanie najkorzystniejsze dla wszystkich graczy. Choć to brzmi paradoksalnie, w przykładzie tym, każdemu z więźniów opłaca się donosić, niezależnie od tego, co zrobi drugi. Mimo to, jeśli obaj będą donosić, poniosą większe kary niż gdyby obaj milczeli.
Pamiętać jednak trzeba, że ta gra jest wymyślona, a parametry tak dobrane, aby pokazać ten fenomen przewagi (indywidualnej dla każdego gracza) strategii „egoistycznej” nad korzystniejszą dla obu graczy strategią „współpracy”.
Te wszystkie gry mają jeden mankament, jeśli chodzi o modelowanie zjawisk społecznych, czy zjawisk zachodzących w rzeczywistości. W całej teorii gier przyjmuje się bowiem istnienie jakiejś dobrze zdefiniowanej jednoparametrycznej funkcji wartości (tzw. funkcji wypłaty). W przypadku dylematu więźnia chodzi o długość wyroku skazującego (0,5 roku, 5 lub 10 lat), przy czym przyjmujemy, iż im wyrok krótszy, tym korzystniejszy.
To jest bardzo uproszczona sytuacja, bo jeden parametr liczbowy jest wykładnią tego, czy ta strategia jest lepsza czy gorsza. W życiu, w zjawiskach społecznych tak nie jest, czego można dowieść na podanym przez panią przykładzie z tortem. Tutaj już wykraczamy poza matematykę.
Rozważmy sytuację, kiedy zaproszony na imieniny Ignacy zastanawia się, czy kupić tort w prezencie, czy nie i kalkuluje: jeśli nie przyniosę tortu, to pewnie ktoś inny przyniesie i dostanę jeden kawałek tortu nic nie wnosząc, czyli czysty zysk. Jeśli nikt nie przyniesie tortu, to przynajmniej nic nie stracę. Natomiast jeżeli kupię tort, to wydam sporo pieniędzy, ale też dostanę z niego jeden kawałek, ewentualnie dwa, jeśli jeszcze ktoś inny też przyniesie tort. W każdym razie tracę na tym. Dochodzi więc do wniosku, że najkorzystniej będzie nie kupić tortu.
Rozważanie tych strategii zakłada jednak bardzo uproszczony model, kiedy funkcją wartościującą jest wielkość konsumpcji tortu i ewentualny wydatek z tym związany. A przecież Ignacy nie musi iść na urodziny tylko z powodu apetytu na tort. Zjawiska społeczne zależą bowiem od znacznie większej liczby parametrów i związanych z nimi funkcji wartościujących. W dodatku wiele z nich jest liczbowo nieuchwytna.
Kiedy ludzie idą na imprezę, wielu z nich jednak przyniesie tort – co nimi w takim razie kieruje? Z pewnością nie kalkulacja związana z konsumpcją tortu - tutaj do głosu dochodzą inne wartości. Być może ktoś lubi piec torty i sprawia mu satysfakcję, gdy inni go zajadają ze smakiem – to jest wartość, której nie można przeliczyć na pieniądze. Ponadto, być może ten, który przyniesie tort zostanie zauważony przez najpiękniejszą dziewczynę na tej imprezie. Tego też na pieniądze ani kawałki tortu przeliczyć nie sposób!
Te motywacje działań można podzielić na kilka grup. Jedną będzie ta, która wynika z teorii gier i ta najczęściej dotyczy pieniędzy – ludzie wszystko przeliczają na pieniądze i zachowują się tak, aby jak najmniej wydać, a jak najwięcej zyskać.
Ale istnieje też druga sfera, w której zaczynają odgrywać rolę jakieś wartości niefinansowe, niematerialne, np. pozyskanie przyjaciół, szacunku w społeczeństwie, czy znalezienie sobie partnera życiowego, co trudno przełożyć na pieniądze. Stąd często opłaca się zmniejszyć swój zysk finansowy, świadomie coś stracić, aby zyskać szacunek z tego powodu, że np. postąpiło się uczciwie.
- Jak zatem takie sytuacje modelują matematycy? Czy można matematycznie przewidzieć takie zachowania?
- To jest problem, bo jak się przyjrzeć różnym modelom teorii gier, to są one oparte na tej dość prymitywnej funkcji wartościującej. Bez konkretnej funkcji wartościującej nie da się nic obliczyć. Nie można zaprząc matematyki do prowadzenia obliczeń na wartościach, które nie są sprecyzowane. Matematyka wymaga pewnego sformalizowania.
Trzeba też pamiętać, że w zachowaniach ludzi mają udział także emocje, np. chęć zemsty – mnóstwo czynników, motywacji niewymiernych. Część z nich wynika z pobudek szlachetnych, część z niskich, a zachowania ludzkie są ich wypadkową. Pełny ich opis jest chyba możliwy tylko w języku statystycznym. Badania zachowań społeczeństw są właśnie badaniami statystycznymi, gdzie analizuje się, jaki procent ludzi w danej sytuacji podejmie taką decyzję, a jaki procent – inną. I statystyka to jest taki dział matematyki, który nie wgryza się za bardzo w przyczyny, jeśli nie bardzo je można ustalić. Nie wiadomo np. co kierowało ludźmi, kiedy głosowali na tych, a nie na drugich, natomiast można zanalizować, jaki procent głosował i przy następnej podobnej sytuacji, analizując przeszłość, można przewidzieć, jak się ludzie zachowają tym razem.
Tak się przewiduje pogodę, która jest tak skomplikowanym układem dynamicznym, że nie ma szans dojść rozumowaniem przyczynowo-skutkowym do opisania jej ewolucji, a tym bardziej ją przewidzieć. Prognozy się opracowuje na podstawie programów analizujących przeszłość. Komputery gromadzą miliony danych z przeszłości z całego świata, informacje o temperaturze, ciśnieniu, sile wiatru, wilgotności, opadach itd. i kiedy trzeba przewidzieć pogodę na jutro, szuka się takiej sytuacji w przeszłości, kiedy układ pogodowy był podobny do dzisiejszego i patrzy się, co było kiedyś następnego dnia. Oczywiście, to jest tłumaczenie bardzo uproszczone, bo zaawansowane systemy prognozujące pogodę łączą metody statystyczne z najnowszymi osiągnięciami nauki, poznaniem wcześniej nieznanych czynników mających wpływ na rozwój pogody.
- Czy teoria gier sprawdza się w modelowaniu wszystkich zjawisk? Czy też są takie obszary, gdzie nie należy jej stosować?
- Teorię gier stosuje się tam, gdzie mamy do czynienia z graczami, a decyzje podejmowane są przez konkurujących ze sobą graczy – grupy, zespoły. Cały wic polega na tym, że żaden z tych graczy nie wie, co zrobią inni. Jednak nawet wówczas, kiedy mamy sytuację, w której wszystko się dzieje w sposób zdeterminowany, albo wręcz przeciwnie - zależy od czynników losowych, którymi nikt nie steruje - też można stosować teorię gier, bo czynnik losowy można traktować jako gracza, tyle że kompletnie nieprzewidywalnego, bo nie dążącego w sposób świadomy do uzyskania jak najwyższej wygranej.
- Skąd się bierze popularność teorii gier w wielu naukach dalekich od ścisłych: społecznych, biologicznych, ekonomicznych, wojskowych– wydawałoby się, że niemożliwych do jej stosowania?
- Jeśli tylko możemy opisać jakieś zjawisko funkcją wartościującą, to możemy stosować teorię gier, natomiast w zjawiskach społecznych będziemy mieć tylko przybliżenia, bo nie jesteśmy w stanie wszystkiego precyzyjnie wartościować. W ostateczności, do celów teoretycznych, można wartościować wszystko jedną miarą, na przykład przy pomocy jakichś sztucznie wprowadzonych punktów, w myśl zasady (z którą wcale nie trzeba się zgadzać), że „wszystko ma swoją cenę”. Przykładowo, jeśli nasz Ignacy idzie na imprezę, to może spekulować tak: jeżeli uda mi się zjeść dwa kawałki tortu to są to dwa punkty, a jeśli jeszcze Zosia się do mnie uśmiechnie, to dam sobie za to trzy punkty, a jeśli jeszcze poznam interesującego kolegę, z którym będę mógł pójść w góry, to mam dodatkowo kolejne dwa punkty.
Wszystko można więc przeliczyć na jakieś punkty i wtedy może się okazać, że kwestia smaku tortu jest porównywalna z zarobkiem w jakiejś firmie czy otrzymaniem dobrej pracy, bo wszystkie aspekty życia wrzuciliśmy do jednego worka i opisaliśmy na jednej skali liczbowej. Można tak robić i tak się czasem robi, jeżeli koniecznie chcemy zastosować teorię gier do opisu jakiegoś złożonego zjawiska. Opisujemy wówczas wszystkie wartości przy pomocy jednej funkcji liczbowej. Ale jest to zabieg bardzo subiektywny i może bardzo zniekształcać uzyskane wyniki.
- A rola doświadczenia w teorii gier?
- To jest trochę inne zagadnienie, bo w teorii gier poszukuje się strategii zwyciężającej, optymalnej, równowagi itd. I jeżeli dojdziemy do wniosku, że one istnieją, to się je po prostu stosuje. Natomiast brak doświadczenia u gracza będzie powodował, iż nie będzie on stosował optymalnej strategii i będzie przegrywać, albo przegapiać okazje. Oczywiście, może się zdarzyć, że przypadkowo wygra z graczem doświadczonym, jeśli ten uznał, że przeciwnik gra w sposób optymalny. Doświadczony gracz jednak, jeśli zorientuje się w skali umiejętności gracza, skoryguje swoją strategię gry i w kolejnym rozdaniu wygra.
Co do gier opisujących zachowania, stany, itp. – lubimy mieć narzędzia i wskazówki, które nas poprowadzą przez zawiły świat i dlatego teoria gier jest tak popularna, gdyż w pewnych sytuacjach udziela konkretnych odpowiedzi, daje nam jakiś przepis na postępowanie, który teoretycznie jest optymalny, jednak w praktyce może być różnie. Jako przykład możemy przytoczyć przepisy podatkowe: choć zrobimy sobie biznes plan i określimy strategię postępowania, to wszystko to na nic, jeśli w tzw. międzyczasie te przepisy się zmienią. Oczywiście, na wstępnym etapie możemy próbować takie zmiany przewidywać przy tworzeniu biznes planu, ale są to czynniki niezwykle trudne do przewidzenia. Człowiek zawsze dąży do upraszczania matematycznego modelu gry, w jaką wchodzi, albo nie jest świadomy tego, jak bardzo się ona może skomplikować.
- A czy są mechanizmy zmuszające graczy do zachowań społecznie użytecznych, nieegoistycznych, czyli rzadko stosowanych według teorii gier?
- Istnieją takie mechanizmy samoregulujące. Powiedzmy, że mamy społeczeństwo, w którym wszyscy są uczciwi, pracują, nikt nie kradnie, wszyscy żyją na średnim poziomie. Jeżeli w takim społeczeństwie znajdzie się jeden osobnik, który dojdzie do wniosku, że to są wszyscy frajerzy, a on może szybko się wzbogacić okradając pozostałych (bo nie ma systemu zabezpieczeń przed kradzieżą, nie było nigdy takiej sytuacji, wiec nikt o to nie zadbał), bardzo szybko się dorabia (a w niektórych systemach społecznych może nawet szybko dojść do władzy).
Jeśli taki osobnik jest jeden, a społeczeństwo duże, to ono tego nie odczuje i pozwoli mu istnieć. Ale zwykle zaraz znajdą się jego naśladowcy. I tu dochodzimy do mechanizmu samoregulacji: jeśli wszyscy zaczęliby kraść, a nikt by uczciwie nie pracował, to społeczeństwo nie przetrwałoby.
Ani strategia uczciwej pracy, ani strategia pasożyta społecznego nie jest tzw. strategią stabilną ewolucyjnie, czyli taką, że jeśli wszyscy gracze ją zastosują, to żadna inna strategia jej po pewnym czasie nie wyprze. Liczba złodziei w stosunku do całego społeczeństwa zatrzyma się na jakimś poziomie równowagi. To przypomina model z drapieżnikami i ofiarami – jeśli drapieżniki zjedzą za dużo ofiar, same zginą z głodu po pewnym czasie. Takie zjawiska opisuje się specjalnymi równaniami różniczkowymi, ale tu już wyszlibyśmy poza temat rozmowy.
- Czy matematyk patrząc na zjawiska społeczne i polityczne dzisiejszych czasów widzi w nich stosowanie teorii gier?
- Widzi, że na pewno jest stosowana, bo jeśli ktoś jest świadomy tego narzędzia, może używać go do własnych celów. Na pewno teorię gier stosują wielcy gracze, którzy rozgrywają finanse tej Ziemi, także politycy, którzy mają doradców posługujących się tym narzędziem.
Ciągle jednak trzeba pamiętać, że w tej teorii najistotniejsze jest to, jaką przyjmiemy funkcję wartościującą, czyli co uznamy za nadrzędną wartość. Bo może być przywódca, którego ambicją będzie dobrobyt obywateli jego państwa (i to na wiele pokoleń w przód) i taki, który ma na celu wyłącznie interes osobisty. I choć obaj mogą stosować teorię gier, to ich cele, a zatem i strategie będą różne. Trudno więc spodziewać się po teorii gier, że pomoże ona rozwiązać jakieś problemy globalne, bo wszystko zależy od ludzi i wartości, jakie oni sobie cenią.
Dziękuję za rozmowę.
* Dylemat więźnia - problem w teorii gier, oparty na dwuosobowej grze o niezerowej sumie, w której każdy z graczy może zyskać, zdradzając przeciwnika, ale obaj stracą, jeśli obaj będą zdradzać. Dylemat ten jest więc niekooperacyjną (o częściowym konflikcie) grą o sumie niezerowej, ponieważ strategia konfliktu przeważa nad strategią pokojową: najwięcej można zyskać zdradzając, a najwięcej stracić idąc na współpracę.
Dylemat więźnia został wymyślony przez dwóch pracowników RAND Corporation: Melvina Dreshera i Merrill Flood w 1950 roku. Albert W. Tucker sformalizował jego zasady i jako pierwszy użył nazwy dylemat więźnia (Poundstone, 1992). W klasycznej formie jest przedstawiany następująco:
Dwóch podejrzanych zostało zatrzymanych przez policję. Policja, nie mając wystarczających dowodów do postawienia zarzutów, rozdziela więźniów i przedstawia każdemu z nich tę samą ofertę: jeśli będzie zeznawać przeciwko drugiemu, a drugi będzie milczeć, to zeznający wyjdzie na wolność, a milczący dostanie dziesięcioletni wyrok. Jeśli obaj będą milczeć, obaj odsiedzą 6 miesięcy za inne przewinienia. Jeśli obaj będą zeznawać, obaj dostaną pięcioletnie wyroki. Każdy z nich musi podjąć decyzję niezależnie i żaden nie dowie się czy drugi milczy czy zeznaje, aż do momentu wydania wyroku. Jak powinni postąpić?
Jeśli założymy, że każdy z więźniów woli krótszy wyrok niż dłuższy i że żadnemu nie zależy na niskim wyroku drugiego, możemy opisać ten dylemat w terminach teorii gier. Więźniowie grają wtedy w grę, w której dopuszczalne strategie to: współpracuj (milcz) i zdradzaj (zeznawaj). Celem każdego gracza jest maksymalizacja swoich zysków, czyli uzyskanie jak najkrótszego wyroku.
W tej grze zdradzaj jest strategią ściśle dominującą: niezależnie od tego co robi przeciwnik, zawsze bardziej opłaca się zdradzać niż współpracować. Jeśli współwięzień milczy, zdradzanie skróci wyrok z sześciu miesięcy do zera. Jeśli współwięzień zeznaje, zdradzanie skróci wyrok z dziesięciu lat do pięciu. Każdy gracz racjonalny będzie zatem zdradzał i jedyną równowagą równowagą Nasha jest sytuacja, gdy obaj gracze zdradzają. W efekcie obaj zyskają mniej, niż gdyby obaj współpracowali. (za Wikipedią)
Jak pech, to ... statystyka?
- Autor: Anna Leszkowska
- Odsłon: 4819
Z prof. Tomaszem Downarowiczem z Wydziału Matematyki Politechniki Wrocławskiej rozmawia Anna Leszkowska
- Panie Profesorze, podobno pech nie da się opisać matematycznie, ale co może o pechu powiedzieć matematyk nie wchodząc w kompetencje psychologa czy nawet wróżki?
- Pojęcie pecha istotnie nie jest opisywalne matematycznie. W świetle statystyki i probabilistyki po prostu takie pojęcie nie istnieje, tzn. pecha nie ma! Natomiast istnieje ono w naszej świadomości i podlega prawom psychologii, a może i magii.
Jeśli mielibyśmy mówić o pechu z punktu widzenia matematyki, to trzeba byłoby najpierw przyjąć jakąś definicję pecha, czym on jest.
- Powszechnie przyjmuje się, że to brak szczęścia, zły los, niepowodzenie, zdarzenia niekorzystne.
- No tak, ale to pojęcie nieostre, opisowe. W dodatku tego pecha można mieć czasem – np. gdy ucieknie nam autobus, albo permanentnie - kiedy komuś się nie udaje wszystko, czego się tknie. Zarówno jednak i ten pech jednorazowy, i ten permanentny, dają się wytłumaczyć statystyką. Jeżeli przyjmiemy definicję, że pech to jest nagromadzenie zdarzeń niekorzystnych w czyimś życiu, to z matematycznego punktu widzenia taka rzecz jest jak najbardziej wytłumaczalna i to nie jest nic nadzwyczajnego.
- Ale jak tu wytłumaczyć, że jednemu ciągle wiatr w oczy, a drugiemu wszystko idzie jak po maśle?
- Na to jako matematyk nie odpowiem, bo to jest sprawa czysto psychologiczna. Natomiast to, że bywają takie okresy, że występuje nagromadzenie zdarzeń pechowych, czy niekorzystnych, to jest jak najbardziej normalne. Jeżeli rzucamy monetą i za zdarzenie korzystne uznamy np. reszkę, to przy rzucaniu nią wiele razy, zaobserwujemy występowanie tzw. serii. Wiadomo, że szansa, iż wypadnie reszka jest 50%, natomiast prawdopodobieństwo, że 10 razy z rzędu wypadnie orzeł jest już dużo mniejsze. Jeśli jednak wykonamy wystarczająco dużo rzutów (więcej niż 1024 = 210), to taka seria 10 orłów powinna się pojawić. Tutaj obowiązuje zwykły rachunek prawdopodobieństwa, bo to jest proces z brakiem pamięci.
- Proces z brakiem pamięci?
- To taki proces, w którym cokolwiek by się do tej pory wydarzyło, nie powinno wpłynąć na rozkład prawdopodobieństwa tego, co będzie w przyszłości.
Nie każdy proces taki jest – są procesy, które mają pamięć, tylko my o tym nie wiemy. Jako matematycy mamy skłonność do tego, żeby upraszczać sobie świat i wiele procesów traktujemy właśnie jak procesy z brakiem pamięci. W praktyce jednak sam się przyłapuję na tym, że w ten brak pamięci nie wierzę. Bo jeżeli co roku jeżdżę na spływ kajakowy o tej samej przez roku i przez pięć lat z rzędu przez tydzień za każdym razem pada deszcz, to myślę sobie, że za szóstym razem padać nie będzie. Czyli usiłuję wywnioskować, jaka będzie pogoda na podstawie obserwacji przeszłości.
I tak czyni mnóstwo ludzi, choć tutaj sposoby wnioskowania mogą być różne. Jedni uważają, że skoro tyle razy coś się zdarzyło, więc i następnym razem będzie tak samo; inni - że właśnie z tego powodu musi być inaczej. Tak czy siak, to wnioskowanie jest nienaukowe. Chociaż akurat, jeśli chodzi o pogodę, to nie muszą tu zachodzić procesy z brakiem pamięci, bo mogą występować zjawiska – np. globalne ocieplenie – wpływające na zmianę klimatu. I to, że od kilku lat obserwujemy nasilone opady w lipcu to nie jest przypadek – w dodatku one będą się powtarzać, skoro istnieje głębsza ich przyczyna.
Jeżeli więc obserwujemy uproszczony proces z brakiem pamięci, jak np. rzut monetą, to będą tam występować długie serie tzw. niekorzystnych zdarzeń. I komuś one się przydarzą, a komuś nie. Jeśli to będzie się zdarzać częściej u jednej osoby – a tak może być – to choć ona może to uznać za pech, w rzeczywistości będzie to tylko statystyka. Bo są to zdarzenia losowe, na które nie mamy wpływu.
Wynika jednak z tego i optymistyczny wniosek. Otóż zjawiska przebiegające z brakiem pamięci dają pechowcom nadzieję, że ich zła karta może się w każdej chwili odwrócić. Z pechowców staną się szczęściarzami. Ale i odwrotnie: szczęściarzy może spotkać los pechowców, bo przeszłość nie ma żadnego wpływu, a przyszłość jest zupełnie niezależna. Zatem te orły i reszki będą występować u każdego z prawdopodobieństwem 50%, niezależnie od tego, co się działo.
To wszystko jest opisane na modelu uproszczonym, wyidealizowanym, w procesie o braku pamięci.
Natomiast w życiu rządzą nami zupełnie inne prawa. I tutaj wkraczamy już w psychologię. Bo to, jak my odbieramy różne zdarzenia, częstość ich występowania, jest bardzo subiektywne. O ile proces może się charakteryzować brakiem pamięci, to człowiek już nie. Człowiek pamięta. Ale jego pamięć jest zawodna i selektywna. Jeśli chce coś pamiętać, to pamięta, a jeśli nie chce – nie pamięta.
- Czy można tu mówić o procesie braku pamięci?
- Nie, po prostu pamiętamy tylko to, co chcemy pamiętać. Bo wcale tak nie jest, że zawsze na urlopie jest zła pogoda. Jeśli bowiem tak się zdarzy, to przywołuje się z pamięci te momenty, kiedy już tak właśnie było i ocenia, że tak było zawsze. A to nieprawda, po prostu my tak postrzegamy.
To zależy od psychiki, od nastawienia, jak dany człowiek siebie ocenia, jak chce widzieć rzeczywistość, czy jest optymistą, czy pesymistą. Jeden będzie pamiętać wszystkie niekorzystne sytuacje, bo w jego przekonaniu to tylko jemu się to ciągle zdarza, a inny będzie pamiętać zdarzenia korzystne.
- Na tym polega prawo Murphy’ego.
- Tak, w dużym stopniu polega na selektywnej pamięci, ale prawa Murphy’ego w dużej części wynikają z tzw. wishful thinking, czyli myślenia życzeniowego i to jest jeszcze inne zjawisko. Natomiast to, o którym mówię jest po prostu selektywnym pamiętaniem i ignorowaniem pewnych zdarzeń, które nam nie pasują do naszego modelu. Jeżeli chcemy przekonać wszystkich, że jesteśmy pechowcami, to my to zrobimy, bo przywołamy wszystkie niekorzystne zdarzenia, będziemy je zapamiętywać, kolekcjonować, by sypnąć następnie przykładami.
- Ale każdy z nas zapewne zna takie osoby, które mają permanentnego pecha, który je spotyka „obiektywnie”, bez ich nastawienia na negatywne zdarzenia.
- Tutaj odsyłam do artykułu prof. Ewy Trzebińskiej – „Urodzeni pechowcy”* - bo to jest sprawa dla psychologa. Autorka wyraża w nim pogląd, że w dzieciństwie, w procesie wychowania, jest nam „wdrukowywany” pewien skrypt, czego sobie nie uświadamiamy, a według którego odgrywamy w życiu pewne role. Mogą to być role pechowca i szczęściarza; osoby, która się wszystkimi opiekuje i nieudacznika, który wiecznie wymaga opieki. Rola pechowca występuje bardzo często, a takie właśnie osoby pechem próbują usprawiedliwić swoje niepowodzenia. Pechowcami stają się ci, którzy źle sobie ustawią cele życiowe: nierealne, albo zbyt mało ambitne.
Ale i pewną rolę odgrywa tu wishful thinking, bo wyobrażamy sobie, że świat jest dużo lepiej zorganizowany niż jest naprawdę. Wielu niedoświadczonym ludziom się wydaje, że jakoś to będzie, że jak coś zrobią w kierunku osiągnięcia jakiegoś celu, to reszta się korzystnie złoży, los im pomoże. Tymczasem ten los nie chce im sprzyjać, bo zwyczajnie nie przygotowali się do danego zadania. Co im nie przeszkadza twierdzić, iż stało się tak z powodu pecha.
Wishful thinking polega na nadziei, iż w pewnym momencie będzie korzystna konfiguracja zdarzeń losowych. Że te 50% powodzenia wyniknie z naszego wysiłku, ale drugie 50% - z łutu szczęścia.
Tak jednak nie będzie, bo rzeczywistość jest bardzo złożona – z czego nie zdajemy sobie sprawy – i wiele rzeczy może pójść nie tak, jak sobie wyobrażamy. Nie przewidujemy mnóstwa możliwych niekorzystnych sytuacji, bo wyobrażamy sobie rzeczywistość jako dobrze zorganizowaną, w której wszystko działa i będzie działać. A kiedy zderzamy się z realiami, tłumaczymy to pechem.
- Czy pecha można określić przy pomocy rachunku prawdopodobieństwa?
- Na poziomie abstrakcyjnym zawsze można próbować coś wyjaśnić, nawet jak tych zmiennych jest nieskończenie wiele. Matematycy zajmują się takimi modelami, w których jest bardzo wiele zmiennych i to im nie przeszkadza. Opisuje się je nie poprzez podanie rozwiązań ścisłych, ale statystycznych.
Natomiast nie matematycy np. w przypadku niefartownych zdarzeń najczęściej definiują je po ich wydarzeniu się i oceniają jako serię, choć są one różne. Z matematycznego punktu widzenia nie można jednak uznać, że złamanie nogi we wtorek, kradzież auta w środę a w piątek zwolnienie z pracy tworzą serię. To są zdarzenia różne, choć na siłę robimy z nich jeden ciąg. Gdyby chcieć taką serię przewidzieć przy pomocy rachunku prawdopodobieństwa, musiałyby to być seria zdarzeń ściśle określona z góry, a nie dopiero po fakcie.
- Czyli jednak pech to domena psychologii, choć matematyka jest używana w coraz większej liczbie nauk, a w ekonomii zrobiła prawdziwą furorę.
- Tak, polega to na tym, że w potocznym myśleniu bardzo łatwo matematyczne rygory naginamy do rzeczywistości i mówimy, że zdarzyło się coś, co się nie miało prawa zdarzyć. W ekonomii jest o tyle łatwiej stosować matematykę, że tam wszystko się przelicza na pieniądze, czyli jest jakaś mierzalna zmienna losowa, a właściwie wiele zmiennych losowych, bo bada się także inne parametry finansowe. Wszystkie one podporządkowują się prawom statystyki, co pozwala na przewidywania.
Tymczasem z pechem jest problem, bo to jest zjawisko bardzo subiektywne. To jak z tym przysłowiowym optymistą i pesymistą – jeden twierdzi, że szklanka jest do połowy pełna, a drugi – że w połowie pusta. Gdybyśmy mogli wprowadzić jakąś rygorystyczną definicję, która to pojęcie mogłaby skwantyfikować, wówczas można byłoby liczyć prawdopodobieństwo pecha. Natomiast w przypadku pojęcia potocznego jest to niemożliwe.
Wnioski są więc takie, że pecha będziemy mieć wówczas, kiedy będziemy go chcieli mieć. Czyli jeśli popatrzymy na nasze życie optymistycznie i będziemy zapamiętywać momenty, kiedy nam się poszczęściło, to będziemy przekonani, że jesteśmy szczęściarzami. Nawet, jak od czasu do czasu coś nam się nie uda, zgodnie z prawami statystyki i rachunku prawdopodobieństwa.
Tak więc nie gromadźmy w pamięci chwil złych, bo wówczas jak spojrzymy w przeszłość, wyda nam się, że całe nasze życie jest pasmem niepowodzeń, choć tak pewnie nie jest.
- A czy można mówić o zależności pecha od tzw. charakteru narodowego?
- Polacy uwielbiają być pechowcami. Wynika to ze złej organizacji, niedoceniania porządku i braku myślenia ekonomicznego. Jesteśmy narodem bardzo spontanicznym, nie lubimy systematycznej pracy, ani działania schematycznego, które jednak daje rezultaty w postaci uporządkowania. Lubimy chaos, w którym zaczyna dominować entropia. A ona ma to do siebie, że chce wszystkim zawładnąć i generuje właśnie tego pecha, a prawie nigdy wydarzenia korzystne. Pozbyć się entropii nie możemy, możemy tylko obniżyć lokalnie ją w jakimś miejscu, czyli uporządkować nasz mały świat wokół nas. Ale „żeby w domu mieć czysto, a w lodowce pełno”, potrzebny jest wielki wysiłek, wymagający pracy, samodyscypliny, organizacji itd. I choć zdarzają się szczęściarze, którym wszystko przychodzi bez wysiłku, to trzeba pamiętać, że wynika to z procesu losowego, więc nie można liczyć, że to się na pewno i nam przydarzy.
Dziękuję za rozmowę.
*http://xn--jzyk-polski-rrb.pl/testy-czytanie-ze-zrozumieniem/110-urodzeni-pechowcy
Dlaczego nieszczęścia chodzą parami?
- Autor: Tomasz Downarowicz
- Odsłon: 31733
Przysłowie „nieszczęścia chodzą parami" w różnych odmianach występuje w niemal wszystkich językach świata i jest najprostszą postacią prawa serii. Jednak prawo to dotyczy zarówno zdarzeń szczęśliwych, nieszczęśliwych, jak i obojętnych.
Co to takiego jest potoczne „prawo serii"? Jest to obserwacja, że pewne zdarzenia uważane za rzadkie mają skłonność do powtarzania się w krótkim czasie po pierwszym wystąpieniu. Wydaje się przy tym, że powtórzenia takie pojawiają się częściej niż byśmy tego oczekiwali.
Zjawisko to w pierwszej kolejności zanotowali hazardziści uprawiający gry losowe. Obserwowali oni tak zwane dobre i złe passy. Sztandarowym przykładem jest tu przypadek Charlesa Wellsa, który w roku 1891 jednej nocy kilkakrotnie rozbił bank (100 tys. franków - w tamtych czasach - majątek!), grając w ruletkę w jednym ze znanych kasyn w Monte Carlo. Rozbicie banku jest zdarzeniem niezwykle rzadkim, a Wellsowi przydarzało się ono raz za razem. Charakterystyczne jest przy tym to, że kolejne liczby i kolory wypadające w grze w ruletkę uważane są za zdarzenia kompletnie od siebie niezależne, tak więc nie można upatrywać wyjaśnienia wygranych w stosowaniu jakiegoś „systemu". Na temat tego zdarzenia napisano piosenkę "The man who broke the Bank at Monte Carlo" oraz nakręcono film (pod tym samym tytułem).
Ale prawo serii ujawnia się nie tylko w grach hazardowych. Bardzo często występuje ono w historii badań naukowych. Często jest tak, że jakiś problem naukowy pozostaje otwarty przez dziesiątki lat, a kiedy zostaje rozwiązany, okazuje się, że dokonały tego mniej więcej w tym samym czasie, niezależnie od siebie i nie wiedząc o sobie, dwa lub więcej zespoły badawcze w różnych zakątkach świata. Tu jednak można mieć pewne wątpliwości co do niezależności tych odkryć. Często bowiem jakieś wcześniejsze odkrycie naukowe otwiera drogę do rozwiązania i wtedy zbieżności w czasie pojawienia się kilku rozwiązań nie można uznać za przypadkową.
Istnieją jednak i inne, zupełnie niewiarygodne przykłady serii identycznych lub podobnych zdarzeń, gdzie trudno dopatrzeć się związku przyczynowego. Oto dwa z nich, charakterystyczne dla potocznego prawa serii (nie biorę odpowiedzialności za ich autentyczność, jednak są to przykłady „okrzepłe" w literaturze poświęconej zjawiskom niewyjaśnionym).
W roku 1975 na Bermudach pewien człowiek zginął, jadąc skuterem, potrącony przez taksówkę. Rok później, jego brat również zginął, jadąc skuterem potrącony przez taksówkę. Najciekawsze jest jednak to, że była to ta sama taksówka, z tym samym kierowcą, na dodatek wioząca tego samego co poprzednio pasażera!
W latach 30. w Detroit niejaki Joseph Figlock szedł sobie ulicą, gdy nagle na głowę spadło mu małe dziecko, które właśnie w tym momencie, widocznie pozostawione przez matkę bez opieki, wypadło z okna. Szczęśliwie ani Figlockowi, ani dziecku nic się nie stało. Dzięki temu, że spadło na przechodnia, a nie na twardy chodnik - uratowało się, co już samo w sobie można uznać za niezwykły zbieg okoliczności. Ale to nie wszystko! Około roku później to samo dziecko jeszcze raz wypadło z okna i znów uratowało je to, że spadło na przechodnia. Był nim... nikt inny jak tylko ten sam Joseph Figlock!
Pierwszy badacz - biolog
Pierwszym i od razu fanatycznym badaczem prawa serii był działający na przełomie XIX i XX w. austriacki biolog Paul Kammerer (1880-1926). W swojej książce Das Gesetz der Serie (Prawo serii) zawarł wiele przykładów z życia swojego i bliskich. Są podobne do przytoczonych powyżej, choć może mniej spektakularne - np kilkakrotne natknięcie się w ciągu jednego dnia na nazwę tej samej, odległej, mało znanej miejscowości, albo spotkanie tego samego dnia kilku nie spokrewnionych ze sobą osób o tym samym nazwisku, itp.
Kammerer przeprowadzał też eksperymenty polegające na obserwacji przechodniów i notowaniu czasów pojawienia się osób o jakiejś wspólnej cesze (np. w okularach, z laską, itp.), albo na notowaniu dokładnych czasów wejść klientów do jakiegoś sklepu. Przykładowo, przy średniej 60 klientów na godzinę, tylko w stosunkowo małym procencie przedziałów jednominutowych odnotował on dokładnie jednego klienta. W większości takich przedziałów było albo zero, albo więcej niż jeden klient. To, zdaniem Kammerera, dowodziło, że klienci chodzą „seriami". Kammerer, jako biolog, nie miał pojęcia o statystyce i w swoim rozumowaniu popełniał oczywisty błąd. Jednak błąd Kammerera naprowadził na to, jak poprawnie zdefiniować matematyczne prawo serii.
O tym, jak bardzo Kammerer potrafił być tendencyjny, niech świadczy fakt, że również w jego dziedzinie zarzucano mu manipulacje. Najprawdopodobniej sfałszował on wyniki eksperymentów z pewnym gatunkiem salamandry, aby udowodnić dziedziczność cech nabytych (tzw. Lamarkizm). Po ujawnieniu tego oszustwa Kammerer popełnił samobójstwo.
Dwie teorie
Przykłady serii mieszają się w literaturze z przykładami innych niewiarygodnych zbiegów okoliczności. Ich lista jest długa i fascynująca. Pionierami w wysnuwaniu teorii o nieobjętych prawami fizyki siłach prowokujących m. in. serie zdarzeń podobnych i inne zbiegi okoliczności byli, oprócz Kammerera, Karol Gustaw Jung (1875-1961, szwajcarski profesor psychologii) i zdobywca nagrody Nobla w dziedzinie fizyki, Austriak, Wolfgang Pauli (1900-1958). Postulowali oni istnienie w naturze swoistego „przyciągania" w przestrzeni i czasie zjawisk lub obiektów posiadających wspólne cechy (tzw. teoria synchroniczności).
Pogląd przeciwstawny do teorii synchroniczności głosi, że wszelkie serie, koincydencje i temu podobne, są wynikiem czystego przypadku i nie kryje się za nimi żadna nadprzyrodzona lub niewyjaśniona siła. Pogląd taki wyraził m. in. amerykański matematyk, Warren Weaver (1894-1978), bliski współpracownik Claude Shannona - twórcy teorii informacji i pojęcia entropii. Rzeczywistość przeprowadza w każdym ułamku sekundy miliony prób losowych polegających na przypadkowym zestawianiu w przestrzeni i czasie różnych liczb, nazwisk, wydarzeń, itp., nie ma zatem niczego nadzwyczajnego w tym, że od czasu do czasu pojawi się seria elementów identycznych lub podobnych, albo koincydencja odbierana przez nas jako „niewiarygodna". Każda z nich ma bowiem prawdopodobieństwo niezerowe, więc przy odpowiednio dużej liczbie prób ma prawo, a nawet „obowiązek" kiedyś się pojawić. Nasz problem polega na ignorowaniu sekwencji zdarzeń nie noszących znamion nadzwyczajności, a przez to nie dostrzeganiu globalnej „liczby nieudanych prób", jakie towarzyszą wystąpieniu jednemu „sukcesowi" w postaci niezwykłego zbiegu okoliczności.
A oto inny argument przeciwników teorii synchroniczności i prawa serii. Wiele zjawisk w przyrodzie występuje seriami z zupełnie racjonalnych powodów. Może to być związane z fizycznym prowokowaniem powtórzeń. Za przykład może tu służyć występowanie zachorowań na jakąś chorobę zakaźną w określonym regionie. Erupcje wulkanów, powodzie czy inne kataklizmy, również występują seryjnie w okresach występowania tzw. warunków sprzyjających, które pojawiają się i znikają w dłuższym okresie.
Oczywiście, nikt nie doszukuje się magicznego „prawa serii" tam, gdzie jego przyczyny są oczywiste. Prawo serii dotyczyć ma zdarzeń, których kolejne pojawienia się uważane są za wzajemnie niezależne. Angielski matematyk i popularyzator nauki Robert Matthews w jednym ze swych esejów wyraża pogląd, że w przypadku wielu takich „niewyjaśnionych" serii ta niezależność jest tylko pozorna. Przy wnikliwszym zbadaniu mogłoby się okazać, że powtórzenia są ze sobą fizycznie powiązane i de facto prowokują się nawzajem. Tylko, że pobieżni obserwatorzy nie zadają sobie trudu, aby tych powiązań dociekać. Przecież zawsze to bardziej podniecające odkrywać zjawiska paranormalne!
Współcześnie prawem serii i synchronicznością interesują się badacze zjawisk paranormalnych. Francuz, Jean Moisset jest samoukiem i entuzjazmuje się parapsychologią. Jego dorobek liczy kilkanaście książek. Moisset łączy prawo serii ze zjawiskiem psychokinezy i sugeruje nawet, że przy pewnym treningu można sterować prawem serii czy zjawiskiem synchroniczności w korzystny dla siebie sposób.
Co na to matematyka?
Z naukowego punktu widzenia rozważanie takie są bezprzedmiotowe, gdyż zapomniano tu o podstawowej sprawie: o poprawnej formalnej definicji dyskutowanego zjawiska. Jak zatem poprawnie zdefiniować prawo serii?
Otóż współczesna matematyka dostarcza potrzebnych do tego narzędzi, trzeba tylko umieć z nich skorzystać. Punktem wyjścia jest pewien typ procesu stochastycznego, tzw. jednorodny proces sygnałowy. Jest to proces opisujący sygnały nadchodzące losowo w czasie ze stałą (niezmienną w czasie intensywnością, to znaczy oczekiwaną liczbą sygnałów w jednostce czasu). Okazuje się, że w takim procesie „prawo serii" udaje się zdefiniować przy pomocy prostej nierówności nałożonej na pewną charakterystykę procesu*. Dopiero mając w ręku ścisłą, formalną definicję, można próbować coś konkretnego udowodnić.
Na czym zatem polega nasze twierdzenie (które nazwaliśmy „ergodycznym prawem serii")? Wynik ten udało się uzyskać w świecie innych procesów stochastycznych, tzw. procesów stacjonarnych o skończonej liczbie stanów. Obrazowo mówiąc, proces taki to ciąg generowanych losowo znaków (liter) z jakiegoś skończonego zbioru (alfabetu). Znaki te mogą, lecz nie muszą, być niezależne od siebie. Na przykład, gdy ktoś mówi, generuje ciąg znaków (liter), ale nie są one zupełnie niezależne. Np., po samogłosce najprawdopodobniej występuje spółgłoska, a po ciągu „dzieńdobr" na pewno występuje litera „y". Dział matematyki zajmujący się procesami stacjonarnymi tego typu nazywa się teorią ergodyczną.
Zdarzeniem elementarnym w takim procesie nazwiemy konkretny skończony łańcuch znaków (tzw. słowo lub blok). Pojawianie się ustalonego bloku (czyli zdarzenia elementarnego) w jakimś procesie tworzy sygnał, o jakim była mowa wcześniej. Zdarzenie elementarne nazwiemy rzadkim, jeśli taki blok jest bardzo długi.
„Ergodyczne prawo serii", jakie sformułowałem wspólnie z Yves Lacroix, można uprościć do stwierdzenia, że dowolnie małe zaburzenie w procesie stacjonarnym o skończonej liczbie stanów powoduje, iż dla większości rzadkich zdarzeń elementarnych (czyli długich bloków) odpowiedni proces sygnałowy wykazuje silne prawo serii.
Znaczenie twierdzenia
Wyobraźmy sobie, że dysponujemy generatorem losowym, który w astronomicznym tempie rzuca monetą, lub w sposób niezależny generuje jakieś inne symbole. Przypuśćmy, że interesuje nas jeden określony długi, ale skończony ciąg symboli B (np. konkretny blok w kodzie genetycznym odpowiedzialny za jakąś patologię). Otóż jeśli zgodzimy się z tym, że w rzeczywistości żadne zjawiska we wszechświecie nie są doskonale niezależne, to obserwowany proces nie będzie procesem niezależnym, tylko jego wersją zaburzoną. Wtedy istnieją ogromne szanse na to, że dla obserwowanego bloku B zobaczymy bardzo silne prawo serii. Dowolnie małe odchylenie od niezależności, zgodnie z naszym twierdzeniem, w większości przypadków spowoduje wystąpienie silnego przyciągania dla długich bloków.
Identycznym przykładem (jednak nie w kontekście prawa serii, tylko w celu zilustrowania, co oznacza dodatnie prawdopodobieństwo) posłużył się w swym eseju z roku 1909 Émil Borel. Stwierdził on, że jeśli by posadzić małpę przy maszynie do pisania i dać jej nieskończenie dużo czasu (i papieru) na bezmyślne stukanie w klawisze, to kiedyś napisze ona Hamleta. Mało tego, w nieskończonym czasie Hamlet zostanie napisany nie raz, ale nieskończenie wiele razy...
Pomysł ten znany jest jako Paradoxe du singe savant, czyli „paradoks wykształconej małpy" (po angielsku „Infinite Monkey Theorem"). Rzecz jasna, małpa symbolizuje tu generator losowy, a nie żywą małpę. (Sama idea jest zresztą znacznie starsza i wywodzi się jeszcze od Arystotelesa, oczywiście w jakiejś innej wersji, bez maszyny do pisania).
Jako dygresję warto odnotować, że (choć trudno w to uwierzyć) są ludzie, w tym również wydawałoby się poważni, którzy bardzo serio podchodzą do tego zagadnienia. Zaprogramowali oni komputery, które od wielu lat nie robią nic innego, jak tylko generują losowo ciągi znaków i sprawdzają, czy już „napisał się" Hamlet lub jakieś inne dzieło Szekspira. Do tej pory najlepszy uzyskany wynik to ciąg 24 znaków zgodny z fragmentem sztuki Henryk IV: "RUMOUR: Open your ears; ".
Absurdalność takich badań jest jednak niczym w porównaniu z eksperymentem przeprowadzonym w 2003 roku przez wykładowców i studentów z kursu MediaLab Arts Uniwersytetu Plymouth. Uzyskali oni nawet grant w wysokości 2000 funtów pochodzący z Arts Council, by sprawdzić, co są w stanie napisać prawdziwe małpy. Wstawili oni klawiaturę komputerową na miesiąc do zagrody makaków czubatych w pewnym zoo w Anglii, z łączem radiowym do publikacji wyników na stronie internetowej. Efekty były zupełnie odmienne od oczekiwanych: „Małpy nie tylko, że stworzyły zaledwie pięć stron składających się głównie z litery S, to jeszcze wkrótce dominujący samiec zaczął walić w klawiaturę kamieniem, a następnie małpy dokończyły dzieła oddając na nią mocz i kał." W raporcie do rozliczenia grantu stwierdzono między innymi, że: „(...) małpy nie są generatorami losowymi. Są znacznie bardziej złożone. (...)". Dociekliwość ludzka nie zna granic!
Pozostając przy „paradoksie wykształconej małpy" wróćmy jednak do tematu prawa serii. Otóż, można powiedzieć, że dzięki naszemu twierdzeniu jesteśmy w stanie istotnie wzbogacić przewidywania Émila Borela (oczywiście myślimy tu o małpie, jako o przenośni symbolizującej generator losowy). Jeśli uznamy, że taki generator w rzeczywistości będzie generował nie proces doskonale niezależny, ale nieco zaburzony, to z dużym prawdopodobieństwem ów Hamlet będzie się w tej pisaninie pojawiał seriami!
W totolotku - bez zmian
Widać więc, że nasze ergodyczne prawo serii może wyjaśniać powstawanie serii nawet w procesach, które uważamy za niezależne. Są jednak poważne ograniczenia w jego stosowalności. Dotyczy ono wyłącznie zdarzeń w postaci długiego łańcucha znaków, ponadto obserwowane powtórzenia muszą być łańcuchami identycznymi. Nasze twierdzenia nie stosują się do zjawisk takich jak powtarzanie się jakiegoś nazwiska czy też wygrywającej kombinacji w totolotku (są to zbyt krótkie ciągi znaków). Tym bardziej nie stosują się one do zdarzeń, które w ogóle nie mają formy łańcucha znaków (jak np. wypadki drogowe, czy dzieci wypadające z okna). Mało tego, większość „serii" obserwowanych w życiu polega na powtórzeniach zdarzeń, które nie są zupełnie identyczne, a tylko do siebie podobne. To również eliminuje je z zasięgu naszego twierdzenia (choć mamy już nowe wyniki idące w tym kierunku).
Można natomiast wyobrazić sobie zastosowania ergodycznego prawa serii w teorii informacji, transmisji danych, genetyce i w wielu innych dziedzinach, gdzie mamy do czynienia z naprawdę długimi ciągami znaków. Typowym przykładem mogą tu być awarie jakiegoś systemu komputerowego wywołane pojawieniem się we wprowadzanym ciągu danych, bądź instrukcji, jakiejś określonej sekwencji, na którą program reaguje błędem systemowym. Zjawisko polegające na tym, że systemy zazwyczaj działające bezawaryjnie miewają dziwne i niewytłumaczalne okresy często powtarzających się zawieszeń, które później w równie niewytłumaczalny sposób ustępują, jest informatykom bardzo dobrze znane i jak dotąd uważane za dość mistyczne. Właśnie takie przypadki można próbować tłumaczyć naszym „ergodycznym prawem serii".
Nie oznacza to, że w przypadku zdarzeń innego typu nie ma podobnych praw matematycznych. Być może, dalsze badania pozwolą rozszerzyć stosowalność ergodycznego prawa serii na większą klasę zdarzeń. Wspólne z dr Pauliną Grzegorek mamy już pewne wyniki, ale dalsze uogólnienia to na razie jeszcze kwestia przyszłości.
Tomasz Downarowicz
* Chodzi tu o nierówność pomiędzy dystrybuantą tzw. czasu oczekiwania na sygnał, a dystrybuantą rozkładu wykładniczego reprezentującą taki sam czas oczekiwania w procesie nieobciążonym (czyli bez prawa serii) o tej samej intensywności.
Od Autora: Moja specjalność badawcza, to układy dynamiczne, a w szczególności teoria entropii w powiązaniu z dynamiką symboliczną. Podczas badań wraz z moim francuskim kolegą Yves Lacroix, (już po udowodnieniu twierdzenia) nasunęło nam się skojarzenie z popularnym „prawem serii", przysłowiem „nieszczęścia chodzą parami", itp. Odkryta przez nas historia tak nas zafascynowała, że we wstępie do naszej pracy postawiliśmy bardzo mocno na interpretację. Napisaliśmy, że nasze wyniki rzucają nowe światło na zjawisko, o które toczy się odwieczny spór, że odkryliśmy matematyczne podstawy Jungowskiej teorii synchroniczności, itp. itd.
W ten sposób, w oczach poważnych naukowców dołączyliśmy do grona entuzjastów zjawisk paranormalnych i w efekcie żadne szanujące się czasopismo matematyczne nie chciało opublikować naszej pracy. W związku z tym popularyzowaliśmy nasze sensacje na różnych stronach internetowych, na konferencjach i seminariach. Sama praca pozostawała jednak nie opublikowana. Dopiero po kilku latach zmieniliśmy taktykę. Mocno złagodziliśmy nasz wstęp i napisaliśmy wyraźnie jakich „serii" nasze wyniki dotyczą, a jakich nie. W nowej wersji praca jest od niedawna dostępna na łamach Ergodic Theory and Dynamical Systems.
Od redakcji: Prof. Tomasz Downarowicz (Politechnika Wrocławska) jest laureatem Nagrody głównej im. Stefana Banacha w 2009 r. (za osiągnięcia w dziedzinie układów dynamicznych), przyznawanej corocznie przez Polskie Towarzystwo Matematyczne.
Horyzonty abstrakcji
- Autor: Zbigniew Cimek
- Odsłon: 7474
Tylko państwa, które pielęgnują matematykę mogą być silne i potężne
Stefan Banach