banner

 

Przysłowie „nieszczęścia chodzą parami" w różnych odmianach występuje w niemal wszystkich językach świata i jest najprostszą postacią prawa serii. Jednak prawo to dotyczy zarówno zdarzeń szczęśliwych, nieszczęśliwych, jak i obojętnych.

  

Co to takiego jest potoczne „prawo serii"? Jest to obserwacja, że pewne zdarzenia uważane za rzadkie mają skłonność do powtarzania się w krótkim czasie po pierwszym wystąpieniu. Wydaje się przy tym, że powtórzenia takie pojawiają się częściej niż byśmy tego oczekiwali.

Zjawisko to w pierwszej kolejności zanotowali hazardziści uprawiający gry losowe. Obserwowali oni tak zwane dobre i złe passy. Sztandarowym przykładem jest tu przypadek Charlesa Wellsa, który w roku 1891 jednej nocy kilkakrotnie rozbił bank (100 tys. franków - w tamtych czasach - majątek!), grając w ruletkę w jednym ze znanych kasyn w Monte Carlo. Rozbicie banku jest zdarzeniem niezwykle rzadkim, a Wellsowi przydarzało się ono raz za razem. Charakterystyczne jest przy tym to, że kolejne liczby i kolory wypadające w grze w ruletkę uważane są za zdarzenia kompletnie od siebie niezależne, tak więc nie można upatrywać wyjaśnienia wygranych w stosowaniu jakiegoś „systemu". Na temat tego zdarzenia napisano piosenkę "The man who broke the Bank at Monte Carlo" oraz nakręcono film (pod tym samym tytułem).


Ale prawo serii ujawnia się nie tylko w grach hazardowych. Bardzo często występuje ono w historii badań naukowych. Często jest tak, że jakiś problem naukowy pozostaje otwarty przez dziesiątki lat, a kiedy zostaje rozwiązany, okazuje się, że dokonały tego mniej więcej w tym samym czasie, niezależnie od siebie i nie wiedząc o sobie, dwa lub więcej zespoły badawcze w różnych zakątkach świata. Tu jednak można mieć pewne wątpliwości co do niezależności tych odkryć. Często bowiem jakieś wcześniejsze odkrycie naukowe otwiera drogę do rozwiązania i wtedy zbieżności w czasie pojawienia się kilku rozwiązań nie można uznać za przypadkową.

Istnieją jednak i inne, zupełnie niewiarygodne przykłady serii identycznych lub podobnych zdarzeń, gdzie trudno dopatrzeć się związku przyczynowego. Oto dwa z nich, charakterystyczne dla potocznego prawa serii (nie biorę odpowiedzialności za ich autentyczność, jednak są to przykłady „okrzepłe" w literaturze poświęconej zjawiskom niewyjaśnionym).

W roku 1975 na Bermudach pewien człowiek zginął, jadąc skuterem, potrącony przez taksówkę. Rok później, jego brat również zginął, jadąc skuterem potrącony przez taksówkę. Najciekawsze jest jednak to, że była to ta sama taksówka, z tym samym kierowcą, na dodatek wioząca tego samego co poprzednio pasażera!


W latach 30. w Detroit niejaki Joseph Figlock szedł sobie ulicą, gdy nagle na głowę spadło mu małe dziecko, które właśnie w tym momencie, widocznie pozostawione przez matkę bez opieki, wypadło z okna. Szczęśliwie ani Figlockowi, ani dziecku nic się nie stało. Dzięki temu, że spadło na przechodnia, a nie na twardy chodnik - uratowało się, co już samo w sobie można uznać za niezwykły zbieg okoliczności. Ale to nie wszystko! Około roku później to samo dziecko jeszcze raz wypadło z okna i znów uratowało je to, że spadło na przechodnia. Był nim... nikt inny jak tylko ten sam Joseph Figlock!


 

   

Pierwszy badacz - biolog

   

Pierwszym i od razu fanatycznym badaczem prawa serii był działający na przełomie XIX i XX w. austriacki biolog Paul Kammerer (1880-1926). W swojej książce Das Gesetz der Serie (Prawo serii) zawarł wiele przykładów z życia swojego i bliskich. Są podobne do przytoczonych powyżej, choć może mniej spektakularne - np kilkakrotne natknięcie się w ciągu jednego dnia na nazwę tej samej, odległej, mało znanej miejscowości, albo spotkanie tego samego dnia kilku nie spokrewnionych ze sobą osób o tym samym nazwisku, itp.

Kammerer przeprowadzał też eksperymenty polegające na obserwacji przechodniów i notowaniu czasów pojawienia się osób o jakiejś wspólnej cesze (np. w okularach, z laską, itp.), albo na notowaniu dokładnych czasów wejść klientów do jakiegoś sklepu. Przykładowo, przy średniej 60 klientów na godzinę, tylko w stosunkowo małym procencie przedziałów jednominutowych odnotował on dokładnie jednego klienta. W większości takich przedziałów było albo zero, albo więcej niż jeden klient. To, zdaniem Kammerera, dowodziło, że klienci chodzą „seriami". Kammerer, jako biolog, nie miał pojęcia o statystyce i w swoim rozumowaniu popełniał oczywisty błąd. Jednak błąd Kammerera naprowadził na to, jak poprawnie zdefiniować matematyczne prawo serii.

O tym, jak bardzo Kammerer potrafił być tendencyjny, niech świadczy fakt, że również w jego dziedzinie zarzucano mu manipulacje. Najprawdopodobniej sfałszował on wyniki eksperymentów z pewnym gatunkiem salamandry, aby udowodnić dziedziczność cech nabytych (tzw. Lamarkizm). Po ujawnieniu tego oszustwa Kammerer popełnił samobójstwo.

 

 

Dwie teorie

   

Przykłady serii mieszają się w literaturze z przykładami innych niewiarygodnych zbiegów okoliczności. Ich lista jest długa i fascynująca. Pionierami w wysnuwaniu teorii o nieobjętych prawami fizyki siłach prowokujących m. in. serie zdarzeń podobnych i inne zbiegi okoliczności byli, oprócz Kammerera, Karol Gustaw Jung (1875-1961, szwajcarski profesor psychologii) i zdobywca nagrody Nobla w dziedzinie fizyki, Austriak, Wolfgang Pauli (1900-1958). Postulowali oni istnienie w naturze swoistego „przyciągania" w przestrzeni i czasie zjawisk lub obiektów posiadających wspólne cechy (tzw. teoria synchroniczności).

Pogląd przeciwstawny do teorii synchroniczności głosi, że wszelkie serie, koincydencje i temu podobne, są wynikiem czystego przypadku i nie kryje się za nimi żadna nadprzyrodzona lub niewyjaśniona siła. Pogląd taki wyraził m. in. amerykański matematyk, Warren Weaver (1894-1978), bliski współpracownik Claude Shannona - twórcy teorii informacji i pojęcia entropii. Rzeczywistość przeprowadza w każdym ułamku sekundy miliony prób losowych polegających na przypadkowym zestawianiu w przestrzeni i czasie różnych liczb, nazwisk, wydarzeń, itp., nie ma zatem niczego nadzwyczajnego w tym, że od czasu do czasu pojawi się seria elementów identycznych lub podobnych, albo koincydencja odbierana przez nas jako „niewiarygodna". Każda z nich ma bowiem prawdopodobieństwo niezerowe, więc przy odpowiednio dużej liczbie prób ma prawo, a nawet „obowiązek" kiedyś się pojawić. Nasz problem polega na ignorowaniu sekwencji zdarzeń nie noszących znamion nadzwyczajności, a przez to nie dostrzeganiu globalnej „liczby nieudanych prób", jakie towarzyszą wystąpieniu jednemu „sukcesowi" w postaci niezwykłego zbiegu okoliczności.

A oto inny argument przeciwników teorii synchroniczności i prawa serii. Wiele zjawisk w przyrodzie występuje seriami z zupełnie racjonalnych powodów. Może to być związane z fizycznym prowokowaniem powtórzeń. Za przykład może tu służyć występowanie zachorowań na jakąś chorobę zakaźną w określonym regionie. Erupcje wulkanów, powodzie czy inne kataklizmy, również występują seryjnie w okresach występowania tzw. warunków sprzyjających, które pojawiają się i znikają w dłuższym okresie.
Oczywiście, nikt nie doszukuje się magicznego „prawa serii" tam, gdzie jego przyczyny są oczywiste. Prawo serii dotyczyć ma zdarzeń, których kolejne pojawienia się uważane są za wzajemnie niezależne. Angielski matematyk i popularyzator nauki Robert Matthews w jednym ze swych esejów wyraża pogląd, że w przypadku wielu takich „niewyjaśnionych" serii ta niezależność jest tylko pozorna. Przy wnikliwszym zbadaniu mogłoby się okazać, że powtórzenia są ze sobą fizycznie powiązane i de facto prowokują się nawzajem. Tylko, że pobieżni obserwatorzy nie zadają sobie trudu, aby tych powiązań dociekać. Przecież zawsze to bardziej podniecające odkrywać zjawiska paranormalne!

Współcześnie prawem serii i synchronicznością interesują się badacze zjawisk paranormalnych. Francuz, Jean Moisset jest samoukiem i entuzjazmuje się parapsychologią. Jego dorobek liczy kilkanaście książek. Moisset łączy prawo serii ze zjawiskiem psychokinezy i sugeruje nawet, że przy pewnym treningu można sterować prawem serii czy zjawiskiem synchroniczności w korzystny dla siebie sposób.

Co na to matematyka?


Z naukowego punktu widzenia rozważanie takie są bezprzedmiotowe, gdyż zapomniano tu o podstawowej sprawie: o poprawnej formalnej definicji dyskutowanego zjawiska. Jak zatem poprawnie zdefiniować prawo serii? 

Otóż współczesna matematyka dostarcza potrzebnych do tego narzędzi, trzeba tylko umieć z nich skorzystać. Punktem wyjścia jest pewien typ procesu stochastycznego, tzw. jednorodny proces sygnałowy. Jest to proces opisujący sygnały nadchodzące losowo w czasie ze stałą (niezmienną w czasie intensywnością, to znaczy oczekiwaną liczbą sygnałów w jednostce czasu). Okazuje się, że w takim procesie „prawo serii" udaje się zdefiniować przy pomocy prostej nierówności nałożonej na pewną charakterystykę procesu*. Dopiero mając w ręku ścisłą, formalną definicję, można próbować coś konkretnego udowodnić.
Na czym zatem polega nasze twierdzenie (które nazwaliśmy „ergodycznym prawem serii")? Wynik ten udało się uzyskać w świecie innych procesów stochastycznych, tzw. procesów stacjonarnych o skończonej liczbie stanów. Obrazowo mówiąc, proces taki to ciąg generowanych losowo znaków (liter) z jakiegoś skończonego zbioru (alfabetu). Znaki te mogą, lecz nie muszą, być niezależne od siebie. Na przykład, gdy ktoś mówi, generuje ciąg znaków (liter), ale nie są one zupełnie niezależne. Np., po samogłosce najprawdopodobniej występuje spółgłoska, a po ciągu „dzieńdobr" na pewno występuje litera „y". Dział matematyki zajmujący się procesami stacjonarnymi tego typu nazywa się
teorią ergodyczną.
Zdarzeniem elementarnym w takim procesie nazwiemy konkretny skończony łańcuch znaków (tzw. słowo lub blok). Pojawianie się ustalonego bloku (czyli zdarzenia elementarnego) w jakimś procesie tworzy sygnał, o jakim była mowa wcześniej. Zdarzenie elementarne nazwiemy rzadkim, jeśli taki blok jest bardzo długi.

„Ergodyczne prawo serii", jakie sformułowałem wspólnie z Yves Lacroix, można uprościć do stwierdzenia, że dowolnie małe zaburzenie w procesie stacjonarnym o skończonej liczbie stanów powoduje, iż dla większości rzadkich zdarzeń elementarnych (czyli długich bloków) odpowiedni proces sygnałowy wykazuje silne prawo serii.
 


 Znaczenie twierdzenia

 

Wyobraźmy sobie, że dysponujemy generatorem losowym, który w astronomicznym tempie rzuca monetą, lub w sposób niezależny generuje jakieś inne symbole. Przypuśćmy, że interesuje nas jeden określony długi, ale skończony ciąg symboli B (np. konkretny blok w kodzie genetycznym odpowiedzialny za jakąś patologię). Otóż jeśli zgodzimy się z tym, że w rzeczywistości żadne zjawiska we wszechświecie nie są doskonale niezależne, to obserwowany proces nie będzie procesem niezależnym, tylko jego wersją zaburzoną. Wtedy istnieją ogromne szanse na to, że dla obserwowanego bloku B zobaczymy bardzo silne prawo serii. Dowolnie małe odchylenie od niezależności, zgodnie z naszym twierdzeniem, w większości przypadków spowoduje wystąpienie silnego przyciągania dla długich bloków.


Identycznym przykładem (jednak nie w kontekście prawa serii, tylko w celu zilustrowania, co oznacza dodatnie prawdopodobieństwo) posłużył się w swym eseju z roku 1909 Émil Borel. Stwierdził on, że jeśli by posadzić małpę przy maszynie do pisania i dać jej nieskończenie dużo czasu (i papieru) na bezmyślne stukanie w klawisze, to kiedyś napisze ona Hamleta. Mało tego, w nieskończonym czasie Hamlet zostanie napisany nie raz, ale nieskończenie wiele razy...

Pomysł ten znany jest jako Paradoxe du singe savant, czyli „paradoks wykształconej małpy" (po angielsku „Infinite Monkey Theorem"). Rzecz jasna, małpa symbolizuje tu generator losowy, a nie żywą małpę. (Sama idea jest zresztą znacznie starsza i wywodzi się jeszcze od Arystotelesa, oczywiście w jakiejś innej wersji, bez maszyny do pisania).

Jako dygresję warto odnotować, że (choć trudno w to uwierzyć) są ludzie, w tym również wydawałoby się poważni, którzy bardzo serio podchodzą do tego zagadnienia. Zaprogramowali oni komputery, które od wielu lat nie robią nic innego, jak tylko generują losowo ciągi znaków i sprawdzają, czy już „napisał się" Hamlet lub jakieś inne dzieło Szekspira. Do tej pory najlepszy uzyskany wynik to ciąg 24 znaków zgodny z fragmentem sztuki Henryk IV: "RUMOUR: Open your ears; ".

Absurdalność takich badań jest jednak niczym w porównaniu z eksperymentem przeprowadzonym w 2003 roku przez wykładowców i studentów z kursu MediaLab Arts Uniwersytetu Plymouth. Uzyskali oni nawet grant w wysokości 2000 funtów pochodzący z Arts Council, by sprawdzić, co są w stanie napisać prawdziwe małpy. Wstawili oni klawiaturę komputerową na miesiąc do zagrody makaków czubatych w pewnym zoo w Anglii, z łączem radiowym do publikacji wyników na stronie internetowej. Efekty były zupełnie odmienne od oczekiwanych: „Małpy nie tylko, że stworzyły zaledwie pięć stron składających się głównie z litery S, to jeszcze wkrótce dominujący samiec zaczął walić w klawiaturę kamieniem, a następnie małpy dokończyły dzieła oddając na nią mocz i kał." W raporcie do rozliczenia grantu stwierdzono między innymi, że: „(...) małpy nie są generatorami losowymi. Są znacznie bardziej złożone. (...)". Dociekliwość ludzka nie zna granic!


Pozostając przy „paradoksie wykształconej małpy" wróćmy jednak do tematu prawa serii. Otóż, można powiedzieć, że dzięki naszemu twierdzeniu jesteśmy w stanie istotnie wzbogacić przewidywania Émila Borela (oczywiście myślimy tu o małpie, jako o przenośni symbolizującej generator losowy). Jeśli uznamy, że taki generator w rzeczywistości będzie generował nie proces doskonale niezależny, ale nieco zaburzony, to z dużym prawdopodobieństwem ów Hamlet będzie się w tej pisaninie pojawiał seriami!


 

W totolotku - bez zmian


 

Widać więc, że nasze ergodyczne prawo serii może wyjaśniać powstawanie serii nawet w procesach, które uważamy za niezależne. Są jednak poważne ograniczenia w jego stosowalności. Dotyczy ono wyłącznie zdarzeń w postaci długiego łańcucha znaków, ponadto obserwowane powtórzenia muszą być łańcuchami identycznymi. Nasze twierdzenia nie stosują się do zjawisk takich jak powtarzanie się jakiegoś nazwiska czy też wygrywającej kombinacji w totolotku (są to zbyt krótkie ciągi znaków). Tym bardziej nie stosują się one do zdarzeń, które w ogóle nie mają formy łańcucha znaków (jak np. wypadki drogowe, czy dzieci wypadające z okna). Mało tego, większość „serii" obserwowanych w życiu polega na powtórzeniach zdarzeń, które nie są zupełnie identyczne, a tylko do siebie podobne. To również eliminuje je z zasięgu naszego twierdzenia (choć mamy już nowe wyniki idące w tym kierunku).  
 

Można natomiast wyobrazić sobie zastosowania ergodycznego prawa serii w teorii informacji, transmisji danych, genetyce i w wielu innych dziedzinach, gdzie mamy do czynienia z naprawdę długimi ciągami znaków. Typowym przykładem mogą tu być awarie jakiegoś systemu komputerowego wywołane pojawieniem się we wprowadzanym ciągu danych, bądź instrukcji, jakiejś określonej sekwencji, na którą program reaguje błędem systemowym. Zjawisko polegające na tym, że systemy zazwyczaj działające bezawaryjnie miewają dziwne i niewytłumaczalne okresy często powtarzających się zawieszeń, które później w równie niewytłumaczalny sposób ustępują, jest informatykom bardzo dobrze znane i jak dotąd uważane za dość mistyczne. Właśnie takie przypadki można próbować tłumaczyć naszym „ergodycznym prawem serii".

Nie oznacza to, że w przypadku zdarzeń innego typu nie ma podobnych praw matematycznych. Być może, dalsze badania pozwolą rozszerzyć stosowalność ergodycznego prawa serii na większą klasę zdarzeń. Wspólne z dr Pauliną Grzegorek mamy już pewne wyniki, ale dalsze uogólnienia to na razie jeszcze kwestia przyszłości.


Tomasz Downarowicz
 

* Chodzi tu o nierówność pomiędzy dystrybuantą tzw. czasu oczekiwania na sygnał, a dystrybuantą rozkładu wykładniczego reprezentującą taki sam czas oczekiwania w procesie nieobciążonym (czyli bez prawa serii) o tej samej intensywności.


Od Autora: Moja specjalność badawcza, to układy dynamiczne, a w szczególności teoria entropii w powiązaniu z dynamiką symboliczną. Podczas badań wraz z moim francuskim kolegą Yves Lacroix, (już po udowodnieniu twierdzenia) nasunęło nam się skojarzenie z popularnym „prawem serii", przysłowiem „nieszczęścia chodzą parami", itp. Odkryta przez nas historia tak nas zafascynowała, że we wstępie do naszej pracy postawiliśmy bardzo mocno na interpretację. Napisaliśmy, że nasze wyniki rzucają nowe światło na zjawisko, o które toczy się odwieczny spór, że odkryliśmy matematyczne podstawy Jungowskiej teorii synchroniczności, itp. itd.

W ten sposób, w oczach poważnych naukowców dołączyliśmy do grona entuzjastów zjawisk paranormalnych i w efekcie żadne szanujące się czasopismo matematyczne nie chciało opublikować naszej pracy. W związku z tym popularyzowaliśmy nasze sensacje na różnych stronach internetowych, na konferencjach i seminariach. Sama praca pozostawała jednak nie opublikowana. Dopiero po kilku latach zmieniliśmy taktykę. Mocno złagodziliśmy nasz wstęp i napisaliśmy wyraźnie jakich „serii" nasze wyniki dotyczą, a jakich nie. W nowej wersji praca jest od niedawna dostępna na łamach Ergodic Theory and Dynamical Systems.


 

Od redakcji: Prof. Tomasz Downarowicz (Politechnika Wrocławska) jest laureatem Nagrody głównej im. Stefana Banacha w 2009 r. (za osiągnięcia w dziedzinie układów dynamicznych), przyznawanej corocznie przez Polskie Towarzystwo Matematyczne.

oem software