Matematyka el.

Dlaczego nieszczęścia chodzą parami?

Utworzono: poniedziałek, 25, październik 2010 Tomasz Downarowicz

 

Przysłowie „nieszczęścia chodzą parami" w różnych odmianach występuje w niemal wszystkich językach świata i jest najprostszą postacią prawa serii. Jednak prawo to dotyczy zarówno zdarzeń szczęśliwych, nieszczęśliwych, jak i obojętnych.

  

Co to takiego jest potoczne „prawo serii"? Jest to obserwacja, że pewne zdarzenia uważane za rzadkie mają skłonność do powtarzania się w krótkim czasie po pierwszym wystąpieniu. Wydaje się przy tym, że powtórzenia takie pojawiają się częściej niż byśmy tego oczekiwali.

Zjawisko to w pierwszej kolejności zanotowali hazardziści uprawiający gry losowe. Obserwowali oni tak zwane dobre i złe passy. Sztandarowym przykładem jest tu przypadek Charlesa Wellsa, który w roku 1891 jednej nocy kilkakrotnie rozbił bank (100 tys. franków - w tamtych czasach - majątek!), grając w ruletkę w jednym ze znanych kasyn w Monte Carlo. Rozbicie banku jest zdarzeniem niezwykle rzadkim, a Wellsowi przydarzało się ono raz za razem. Charakterystyczne jest przy tym to, że kolejne liczby i kolory wypadające w grze w ruletkę uważane są za zdarzenia kompletnie od siebie niezależne, tak więc nie można upatrywać wyjaśnienia wygranych w stosowaniu jakiegoś „systemu". Na temat tego zdarzenia napisano piosenkę "The man who broke the Bank at Monte Carlo" oraz nakręcono film (pod tym samym tytułem).


Ale prawo serii ujawnia się nie tylko w grach hazardowych. Bardzo często występuje ono w historii badań naukowych. Często jest tak, że jakiś problem naukowy pozostaje otwarty przez dziesiątki lat, a kiedy zostaje rozwiązany, okazuje się, że dokonały tego mniej więcej w tym samym czasie, niezależnie od siebie i nie wiedząc o sobie, dwa lub więcej zespoły badawcze w różnych zakątkach świata. Tu jednak można mieć pewne wątpliwości co do niezależności tych odkryć. Często bowiem jakieś wcześniejsze odkrycie naukowe otwiera drogę do rozwiązania i wtedy zbieżności w czasie pojawienia się kilku rozwiązań nie można uznać za przypadkową.

Istnieją jednak i inne, zupełnie niewiarygodne przykłady serii identycznych lub podobnych zdarzeń, gdzie trudno dopatrzeć się związku przyczynowego. Oto dwa z nich, charakterystyczne dla potocznego prawa serii (nie biorę odpowiedzialności za ich autentyczność, jednak są to przykłady „okrzepłe" w literaturze poświęconej zjawiskom niewyjaśnionym).

W roku 1975 na Bermudach pewien człowiek zginął, jadąc skuterem, potrącony przez taksówkę. Rok później, jego brat również zginął, jadąc skuterem potrącony przez taksówkę. Najciekawsze jest jednak to, że była to ta sama taksówka, z tym samym kierowcą, na dodatek wioząca tego samego co poprzednio pasażera!


W latach 30. w Detroit niejaki Joseph Figlock szedł sobie ulicą, gdy nagle na głowę spadło mu małe dziecko, które właśnie w tym momencie, widocznie pozostawione przez matkę bez opieki, wypadło z okna. Szczęśliwie ani Figlockowi, ani dziecku nic się nie stało. Dzięki temu, że spadło na przechodnia, a nie na twardy chodnik - uratowało się, co już samo w sobie można uznać za niezwykły zbieg okoliczności. Ale to nie wszystko! Około roku później to samo dziecko jeszcze raz wypadło z okna i znów uratowało je to, że spadło na przechodnia. Był nim... nikt inny jak tylko ten sam Joseph Figlock!


 

   

Pierwszy badacz - biolog

   

Pierwszym i od razu fanatycznym badaczem prawa serii był działający na przełomie XIX i XX w. austriacki biolog Paul Kammerer (1880-1926). W swojej książce Das Gesetz der Serie (Prawo serii) zawarł wiele przykładów z życia swojego i bliskich. Są podobne do przytoczonych powyżej, choć może mniej spektakularne - np kilkakrotne natknięcie się w ciągu jednego dnia na nazwę tej samej, odległej, mało znanej miejscowości, albo spotkanie tego samego dnia kilku nie spokrewnionych ze sobą osób o tym samym nazwisku, itp.

Kammerer przeprowadzał też eksperymenty polegające na obserwacji przechodniów i notowaniu czasów pojawienia się osób o jakiejś wspólnej cesze (np. w okularach, z laską, itp.), albo na notowaniu dokładnych czasów wejść klientów do jakiegoś sklepu. Przykładowo, przy średniej 60 klientów na godzinę, tylko w stosunkowo małym procencie przedziałów jednominutowych odnotował on dokładnie jednego klienta. W większości takich przedziałów było albo zero, albo więcej niż jeden klient. To, zdaniem Kammerera, dowodziło, że klienci chodzą „seriami". Kammerer, jako biolog, nie miał pojęcia o statystyce i w swoim rozumowaniu popełniał oczywisty błąd. Jednak błąd Kammerera naprowadził na to, jak poprawnie zdefiniować matematyczne prawo serii.

O tym, jak bardzo Kammerer potrafił być tendencyjny, niech świadczy fakt, że również w jego dziedzinie zarzucano mu manipulacje. Najprawdopodobniej sfałszował on wyniki eksperymentów z pewnym gatunkiem salamandry, aby udowodnić dziedziczność cech nabytych (tzw. Lamarkizm). Po ujawnieniu tego oszustwa Kammerer popełnił samobójstwo.

 

 

Dwie teorie

   

Przykłady serii mieszają się w literaturze z przykładami innych niewiarygodnych zbiegów okoliczności. Ich lista jest długa i fascynująca. Pionierami w wysnuwaniu teorii o nieobjętych prawami fizyki siłach prowokujących m. in. serie zdarzeń podobnych i inne zbiegi okoliczności byli, oprócz Kammerera, Karol Gustaw Jung (1875-1961, szwajcarski profesor psychologii) i zdobywca nagrody Nobla w dziedzinie fizyki, Austriak, Wolfgang Pauli (1900-1958). Postulowali oni istnienie w naturze swoistego „przyciągania" w przestrzeni i czasie zjawisk lub obiektów posiadających wspólne cechy (tzw. teoria synchroniczności).

Pogląd przeciwstawny do teorii synchroniczności głosi, że wszelkie serie, koincydencje i temu podobne, są wynikiem czystego przypadku i nie kryje się za nimi żadna nadprzyrodzona lub niewyjaśniona siła. Pogląd taki wyraził m. in. amerykański matematyk, Warren Weaver (1894-1978), bliski współpracownik Claude Shannona - twórcy teorii informacji i pojęcia entropii. Rzeczywistość przeprowadza w każdym ułamku sekundy miliony prób losowych polegających na przypadkowym zestawianiu w przestrzeni i czasie różnych liczb, nazwisk, wydarzeń, itp., nie ma zatem niczego nadzwyczajnego w tym, że od czasu do czasu pojawi się seria elementów identycznych lub podobnych, albo koincydencja odbierana przez nas jako „niewiarygodna". Każda z nich ma bowiem prawdopodobieństwo niezerowe, więc przy odpowiednio dużej liczbie prób ma prawo, a nawet „obowiązek" kiedyś się pojawić. Nasz problem polega na ignorowaniu sekwencji zdarzeń nie noszących znamion nadzwyczajności, a przez to nie dostrzeganiu globalnej „liczby nieudanych prób", jakie towarzyszą wystąpieniu jednemu „sukcesowi" w postaci niezwykłego zbiegu okoliczności.

A oto inny argument przeciwników teorii synchroniczności i prawa serii. Wiele zjawisk w przyrodzie występuje seriami z zupełnie racjonalnych powodów. Może to być związane z fizycznym prowokowaniem powtórzeń. Za przykład może tu służyć występowanie zachorowań na jakąś chorobę zakaźną w określonym regionie. Erupcje wulkanów, powodzie czy inne kataklizmy, również występują seryjnie w okresach występowania tzw. warunków sprzyjających, które pojawiają się i znikają w dłuższym okresie.
Oczywiście, nikt nie doszukuje się magicznego „prawa serii" tam, gdzie jego przyczyny są oczywiste. Prawo serii dotyczyć ma zdarzeń, których kolejne pojawienia się uważane są za wzajemnie niezależne. Angielski matematyk i popularyzator nauki Robert Matthews w jednym ze swych esejów wyraża pogląd, że w przypadku wielu takich „niewyjaśnionych" serii ta niezależność jest tylko pozorna. Przy wnikliwszym zbadaniu mogłoby się okazać, że powtórzenia są ze sobą fizycznie powiązane i de facto prowokują się nawzajem. Tylko, że pobieżni obserwatorzy nie zadają sobie trudu, aby tych powiązań dociekać. Przecież zawsze to bardziej podniecające odkrywać zjawiska paranormalne!

Współcześnie prawem serii i synchronicznością interesują się badacze zjawisk paranormalnych. Francuz, Jean Moisset jest samoukiem i entuzjazmuje się parapsychologią. Jego dorobek liczy kilkanaście książek. Moisset łączy prawo serii ze zjawiskiem psychokinezy i sugeruje nawet, że przy pewnym treningu można sterować prawem serii czy zjawiskiem synchroniczności w korzystny dla siebie sposób.

Co na to matematyka?


Z naukowego punktu widzenia rozważanie takie są bezprzedmiotowe, gdyż zapomniano tu o podstawowej sprawie: o poprawnej formalnej definicji dyskutowanego zjawiska. Jak zatem poprawnie zdefiniować prawo serii? 

Otóż współczesna matematyka dostarcza potrzebnych do tego narzędzi, trzeba tylko umieć z nich skorzystać. Punktem wyjścia jest pewien typ procesu stochastycznego, tzw. jednorodny proces sygnałowy. Jest to proces opisujący sygnały nadchodzące losowo w czasie ze stałą (niezmienną w czasie intensywnością, to znaczy oczekiwaną liczbą sygnałów w jednostce czasu). Okazuje się, że w takim procesie „prawo serii" udaje się zdefiniować przy pomocy prostej nierówności nałożonej na pewną charakterystykę procesu*. Dopiero mając w ręku ścisłą, formalną definicję, można próbować coś konkretnego udowodnić.
Na czym zatem polega nasze twierdzenie (które nazwaliśmy „ergodycznym prawem serii")? Wynik ten udało się uzyskać w świecie innych procesów stochastycznych, tzw. procesów stacjonarnych o skończonej liczbie stanów. Obrazowo mówiąc, proces taki to ciąg generowanych losowo znaków (liter) z jakiegoś skończonego zbioru (alfabetu). Znaki te mogą, lecz nie muszą, być niezależne od siebie. Na przykład, gdy ktoś mówi, generuje ciąg znaków (liter), ale nie są one zupełnie niezależne. Np., po samogłosce najprawdopodobniej występuje spółgłoska, a po ciągu „dzieńdobr" na pewno występuje litera „y". Dział matematyki zajmujący się procesami stacjonarnymi tego typu nazywa się
teorią ergodyczną.
Zdarzeniem elementarnym w takim procesie nazwiemy konkretny skończony łańcuch znaków (tzw. słowo lub blok). Pojawianie się ustalonego bloku (czyli zdarzenia elementarnego) w jakimś procesie tworzy sygnał, o jakim była mowa wcześniej. Zdarzenie elementarne nazwiemy rzadkim, jeśli taki blok jest bardzo długi.

„Ergodyczne prawo serii", jakie sformułowałem wspólnie z Yves Lacroix, można uprościć do stwierdzenia, że dowolnie małe zaburzenie w procesie stacjonarnym o skończonej liczbie stanów powoduje, iż dla większości rzadkich zdarzeń elementarnych (czyli długich bloków) odpowiedni proces sygnałowy wykazuje silne prawo serii.
 


 Znaczenie twierdzenia

 

Wyobraźmy sobie, że dysponujemy generatorem losowym, który w astronomicznym tempie rzuca monetą, lub w sposób niezależny generuje jakieś inne symbole. Przypuśćmy, że interesuje nas jeden określony długi, ale skończony ciąg symboli B (np. konkretny blok w kodzie genetycznym odpowiedzialny za jakąś patologię). Otóż jeśli zgodzimy się z tym, że w rzeczywistości żadne zjawiska we wszechświecie nie są doskonale niezależne, to obserwowany proces nie będzie procesem niezależnym, tylko jego wersją zaburzoną. Wtedy istnieją ogromne szanse na to, że dla obserwowanego bloku B zobaczymy bardzo silne prawo serii. Dowolnie małe odchylenie od niezależności, zgodnie z naszym twierdzeniem, w większości przypadków spowoduje wystąpienie silnego przyciągania dla długich bloków.


Identycznym przykładem (jednak nie w kontekście prawa serii, tylko w celu zilustrowania, co oznacza dodatnie prawdopodobieństwo) posłużył się w swym eseju z roku 1909 Émil Borel. Stwierdził on, że jeśli by posadzić małpę przy maszynie do pisania i dać jej nieskończenie dużo czasu (i papieru) na bezmyślne stukanie w klawisze, to kiedyś napisze ona Hamleta. Mało tego, w nieskończonym czasie Hamlet zostanie napisany nie raz, ale nieskończenie wiele razy...

Pomysł ten znany jest jako Paradoxe du singe savant, czyli „paradoks wykształconej małpy" (po angielsku „Infinite Monkey Theorem"). Rzecz jasna, małpa symbolizuje tu generator losowy, a nie żywą małpę. (Sama idea jest zresztą znacznie starsza i wywodzi się jeszcze od Arystotelesa, oczywiście w jakiejś innej wersji, bez maszyny do pisania).

Jako dygresję warto odnotować, że (choć trudno w to uwierzyć) są ludzie, w tym również wydawałoby się poważni, którzy bardzo serio podchodzą do tego zagadnienia. Zaprogramowali oni komputery, które od wielu lat nie robią nic innego, jak tylko generują losowo ciągi znaków i sprawdzają, czy już „napisał się" Hamlet lub jakieś inne dzieło Szekspira. Do tej pory najlepszy uzyskany wynik to ciąg 24 znaków zgodny z fragmentem sztuki Henryk IV: "RUMOUR: Open your ears; ".

Absurdalność takich badań jest jednak niczym w porównaniu z eksperymentem przeprowadzonym w 2003 roku przez wykładowców i studentów z kursu MediaLab Arts Uniwersytetu Plymouth. Uzyskali oni nawet grant w wysokości 2000 funtów pochodzący z Arts Council, by sprawdzić, co są w stanie napisać prawdziwe małpy. Wstawili oni klawiaturę komputerową na miesiąc do zagrody makaków czubatych w pewnym zoo w Anglii, z łączem radiowym do publikacji wyników na stronie internetowej. Efekty były zupełnie odmienne od oczekiwanych: „Małpy nie tylko, że stworzyły zaledwie pięć stron składających się głównie z litery S, to jeszcze wkrótce dominujący samiec zaczął walić w klawiaturę kamieniem, a następnie małpy dokończyły dzieła oddając na nią mocz i kał." W raporcie do rozliczenia grantu stwierdzono między innymi, że: „(...) małpy nie są generatorami losowymi. Są znacznie bardziej złożone. (...)". Dociekliwość ludzka nie zna granic!


Pozostając przy „paradoksie wykształconej małpy" wróćmy jednak do tematu prawa serii. Otóż, można powiedzieć, że dzięki naszemu twierdzeniu jesteśmy w stanie istotnie wzbogacić przewidywania Émila Borela (oczywiście myślimy tu o małpie, jako o przenośni symbolizującej generator losowy). Jeśli uznamy, że taki generator w rzeczywistości będzie generował nie proces doskonale niezależny, ale nieco zaburzony, to z dużym prawdopodobieństwem ów Hamlet będzie się w tej pisaninie pojawiał seriami!


 

W totolotku - bez zmian


 

Widać więc, że nasze ergodyczne prawo serii może wyjaśniać powstawanie serii nawet w procesach, które uważamy za niezależne. Są jednak poważne ograniczenia w jego stosowalności. Dotyczy ono wyłącznie zdarzeń w postaci długiego łańcucha znaków, ponadto obserwowane powtórzenia muszą być łańcuchami identycznymi. Nasze twierdzenia nie stosują się do zjawisk takich jak powtarzanie się jakiegoś nazwiska czy też wygrywającej kombinacji w totolotku (są to zbyt krótkie ciągi znaków). Tym bardziej nie stosują się one do zdarzeń, które w ogóle nie mają formy łańcucha znaków (jak np. wypadki drogowe, czy dzieci wypadające z okna). Mało tego, większość „serii" obserwowanych w życiu polega na powtórzeniach zdarzeń, które nie są zupełnie identyczne, a tylko do siebie podobne. To również eliminuje je z zasięgu naszego twierdzenia (choć mamy już nowe wyniki idące w tym kierunku).  
 

Można natomiast wyobrazić sobie zastosowania ergodycznego prawa serii w teorii informacji, transmisji danych, genetyce i w wielu innych dziedzinach, gdzie mamy do czynienia z naprawdę długimi ciągami znaków. Typowym przykładem mogą tu być awarie jakiegoś systemu komputerowego wywołane pojawieniem się we wprowadzanym ciągu danych, bądź instrukcji, jakiejś określonej sekwencji, na którą program reaguje błędem systemowym. Zjawisko polegające na tym, że systemy zazwyczaj działające bezawaryjnie miewają dziwne i niewytłumaczalne okresy często powtarzających się zawieszeń, które później w równie niewytłumaczalny sposób ustępują, jest informatykom bardzo dobrze znane i jak dotąd uważane za dość mistyczne. Właśnie takie przypadki można próbować tłumaczyć naszym „ergodycznym prawem serii".

Nie oznacza to, że w przypadku zdarzeń innego typu nie ma podobnych praw matematycznych. Być może, dalsze badania pozwolą rozszerzyć stosowalność ergodycznego prawa serii na większą klasę zdarzeń. Wspólne z dr Pauliną Grzegorek mamy już pewne wyniki, ale dalsze uogólnienia to na razie jeszcze kwestia przyszłości.


Tomasz Downarowicz
 

* Chodzi tu o nierówność pomiędzy dystrybuantą tzw. czasu oczekiwania na sygnał, a dystrybuantą rozkładu wykładniczego reprezentującą taki sam czas oczekiwania w procesie nieobciążonym (czyli bez prawa serii) o tej samej intensywności.


Od Autora: Moja specjalność badawcza, to układy dynamiczne, a w szczególności teoria entropii w powiązaniu z dynamiką symboliczną. Podczas badań wraz z moim francuskim kolegą Yves Lacroix, (już po udowodnieniu twierdzenia) nasunęło nam się skojarzenie z popularnym „prawem serii", przysłowiem „nieszczęścia chodzą parami", itp. Odkryta przez nas historia tak nas zafascynowała, że we wstępie do naszej pracy postawiliśmy bardzo mocno na interpretację. Napisaliśmy, że nasze wyniki rzucają nowe światło na zjawisko, o które toczy się odwieczny spór, że odkryliśmy matematyczne podstawy Jungowskiej teorii synchroniczności, itp. itd.

W ten sposób, w oczach poważnych naukowców dołączyliśmy do grona entuzjastów zjawisk paranormalnych i w efekcie żadne szanujące się czasopismo matematyczne nie chciało opublikować naszej pracy. W związku z tym popularyzowaliśmy nasze sensacje na różnych stronach internetowych, na konferencjach i seminariach. Sama praca pozostawała jednak nie opublikowana. Dopiero po kilku latach zmieniliśmy taktykę. Mocno złagodziliśmy nasz wstęp i napisaliśmy wyraźnie jakich „serii" nasze wyniki dotyczą, a jakich nie. W nowej wersji praca jest od niedawna dostępna na łamach Ergodic Theory and Dynamical Systems.


 

Od redakcji: Prof. Tomasz Downarowicz (Politechnika Wrocławska) jest laureatem Nagrody głównej im. Stefana Banacha w 2009 r. (za osiągnięcia w dziedzinie układów dynamicznych), przyznawanej corocznie przez Polskie Towarzystwo Matematyczne.

oem software

Jak pech, to ... statystyka?

Utworzono: niedziela, 29, maj 2016 Anna Leszkowska

Z prof. Tomaszem Downarowiczem z Wydziału Matematyki Politechniki Wrocławskiej rozmawia Anna Leszkowska


downarowicz2- Panie Profesorze, podobno pech nie da się opisać matematycznie, ale co może o pechu powiedzieć matematyk nie wchodząc w kompetencje psychologa czy nawet wróżki?
 

- Pojęcie pecha istotnie nie jest opisywalne matematycznie. W świetle statystyki i probabilistyki po prostu takie pojęcie nie istnieje, tzn. pecha nie ma! Natomiast istnieje ono w naszej świadomości i podlega prawom psychologii, a może i magii.
Jeśli mielibyśmy mówić o pechu z punktu widzenia matematyki, to trzeba byłoby najpierw przyjąć jakąś definicję pecha, czym on jest.
 

- Powszechnie przyjmuje się, że to brak szczęścia, zły los, niepowodzenie, zdarzenia niekorzystne.
 

- No tak, ale to pojęcie nieostre, opisowe. W dodatku tego pecha można mieć czasem – np. gdy ucieknie nam autobus, albo permanentnie - kiedy komuś się nie udaje wszystko, czego się tknie. Zarówno jednak i ten pech jednorazowy, i ten permanentny, dają się wytłumaczyć statystyką. Jeżeli przyjmiemy definicję, że pech to jest nagromadzenie zdarzeń niekorzystnych w czyimś życiu, to z matematycznego punktu widzenia taka rzecz jest jak najbardziej wytłumaczalna i to nie jest nic nadzwyczajnego.
 

- Ale jak tu wytłumaczyć, że jednemu ciągle wiatr w oczy, a drugiemu wszystko idzie jak po maśle?
 

- Na to jako matematyk nie odpowiem, bo to jest sprawa czysto psychologiczna. Natomiast to, że bywają takie okresy, że występuje nagromadzenie zdarzeń pechowych, czy niekorzystnych, to jest jak najbardziej normalne. Jeżeli rzucamy monetą i za zdarzenie korzystne uznamy np. reszkę, to przy rzucaniu nią wiele razy, zaobserwujemy występowanie tzw. serii. Wiadomo, że szansa, iż wypadnie reszka jest 50%, natomiast prawdopodobieństwo, że 10 razy z rzędu wypadnie orzeł jest już dużo mniejsze. Jeśli jednak wykonamy wystarczająco dużo rzutów (więcej niż 1024 = 210), to taka seria 10 orłów powinna się pojawić. Tutaj obowiązuje zwykły rachunek prawdopodobieństwa, bo to jest proces z brakiem pamięci.
 

- Proces z brakiem pamięci?
 

- To taki proces, w którym cokolwiek by się do tej pory wydarzyło, nie powinno wpłynąć na rozkład prawdopodobieństwa tego, co będzie w przyszłości.
Nie każdy proces taki jest – są procesy, które mają pamięć, tylko my o tym nie wiemy. Jako matematycy mamy skłonność do tego, żeby upraszczać sobie świat i wiele procesów traktujemy właśnie jak procesy z brakiem pamięci. W praktyce jednak sam się przyłapuję na tym, że w ten brak pamięci nie wierzę. Bo jeżeli co roku jeżdżę na spływ kajakowy o tej samej przez roku i przez pięć lat z rzędu przez tydzień za każdym razem pada deszcz, to myślę sobie, że za szóstym razem padać nie będzie. Czyli usiłuję wywnioskować, jaka będzie pogoda na podstawie obserwacji przeszłości.

I tak czyni mnóstwo ludzi, choć tutaj sposoby wnioskowania mogą być różne. Jedni uważają, że skoro tyle razy coś się zdarzyło, więc i następnym razem będzie tak samo; inni - że właśnie z tego powodu musi być inaczej. Tak czy siak, to wnioskowanie jest nienaukowe. Chociaż akurat, jeśli chodzi o pogodę, to nie muszą tu zachodzić procesy z brakiem pamięci, bo mogą występować zjawiska – np. globalne ocieplenie – wpływające na zmianę klimatu. I to, że od kilku lat obserwujemy nasilone opady w lipcu to nie jest przypadek – w dodatku one będą się powtarzać, skoro istnieje głębsza ich przyczyna.

Jeżeli więc obserwujemy uproszczony proces z brakiem pamięci, jak np. rzut monetą, to będą tam występować długie serie tzw. niekorzystnych zdarzeń. I komuś one się przydarzą, a komuś nie. Jeśli to będzie się zdarzać częściej u jednej osoby – a tak może być – to choć ona może to uznać za pech, w rzeczywistości będzie to tylko statystyka. Bo są to zdarzenia losowe, na które nie mamy wpływu.
Wynika jednak z tego i optymistyczny wniosek. Otóż zjawiska przebiegające z brakiem pamięci dają pechowcom nadzieję, że ich zła karta może się w każdej chwili odwrócić. Z pechowców staną się szczęściarzami. Ale i odwrotnie: szczęściarzy może spotkać los pechowców, bo przeszłość nie ma żadnego wpływu, a przyszłość jest zupełnie niezależna. Zatem te orły i reszki będą występować u każdego z prawdopodobieństwem 50%, niezależnie od tego, co się działo.

To wszystko jest opisane na modelu uproszczonym, wyidealizowanym, w procesie o braku pamięci.
Natomiast w życiu rządzą nami zupełnie inne prawa. I tutaj wkraczamy już w psychologię. Bo to, jak my odbieramy różne zdarzenia, częstość ich występowania, jest bardzo subiektywne. O ile proces może się charakteryzować brakiem pamięci, to człowiek  już nie. Człowiek pamięta. Ale jego pamięć jest zawodna i selektywna. Jeśli chce coś pamiętać, to pamięta, a jeśli nie chce – nie pamięta.
 

- Czy można tu mówić o procesie braku pamięci?
 

- Nie, po prostu pamiętamy tylko to, co chcemy pamiętać. Bo wcale tak nie jest, że zawsze na urlopie jest zła pogoda. Jeśli bowiem tak się zdarzy, to przywołuje się z pamięci te momenty, kiedy już tak właśnie było i ocenia, że tak było zawsze. A to nieprawda, po prostu my tak postrzegamy.
To zależy od psychiki, od nastawienia, jak dany człowiek siebie ocenia, jak chce widzieć rzeczywistość, czy jest optymistą, czy pesymistą. Jeden będzie pamiętać wszystkie niekorzystne sytuacje, bo w jego przekonaniu to tylko jemu się to ciągle zdarza, a inny będzie pamiętać zdarzenia korzystne.
 

- Na tym polega prawo Murphy’ego.
 

- Tak, w dużym stopniu polega na selektywnej pamięci, ale prawa Murphy’ego w dużej części wynikają z tzw. wishful thinking, czyli myślenia życzeniowego i to jest jeszcze inne zjawisko. Natomiast to, o którym mówię jest po prostu selektywnym pamiętaniem i ignorowaniem pewnych zdarzeń, które nam nie pasują do naszego modelu. Jeżeli chcemy przekonać wszystkich, że jesteśmy pechowcami, to my to zrobimy, bo przywołamy wszystkie niekorzystne zdarzenia, będziemy je zapamiętywać, kolekcjonować, by sypnąć następnie przykładami.
 

- Ale każdy z nas zapewne zna takie osoby, które mają permanentnego pecha, który je spotyka „obiektywnie”, bez ich nastawienia na negatywne zdarzenia.
 

- Tutaj odsyłam do artykułu prof. Ewy Trzebińskiej – „Urodzeni pechowcy”* - bo to jest sprawa dla psychologa. Autorka wyraża w nim pogląd, że w dzieciństwie, w procesie wychowania, jest nam „wdrukowywany” pewien skrypt, czego sobie nie uświadamiamy, a według którego odgrywamy w życiu pewne role. Mogą to być role pechowca i szczęściarza; osoby, która się wszystkimi opiekuje i nieudacznika, który wiecznie wymaga opieki. Rola pechowca występuje bardzo często, a takie właśnie osoby pechem próbują usprawiedliwić swoje niepowodzenia. Pechowcami stają się ci, którzy źle sobie ustawią cele życiowe: nierealne, albo zbyt mało ambitne.

Ale i pewną rolę odgrywa tu wishful thinking, bo wyobrażamy sobie, że świat jest dużo lepiej zorganizowany niż jest naprawdę. Wielu niedoświadczonym ludziom się wydaje, że jakoś to będzie, że jak coś zrobią w kierunku osiągnięcia jakiegoś celu, to reszta się korzystnie złoży, los im pomoże. Tymczasem ten los nie chce im sprzyjać, bo zwyczajnie nie przygotowali się do danego zadania. Co im nie przeszkadza twierdzić, iż stało się tak z powodu pecha.

Wishful thinking polega na nadziei, iż w pewnym momencie będzie korzystna konfiguracja zdarzeń losowych. Że te 50% powodzenia wyniknie z naszego wysiłku, ale drugie 50% - z łutu szczęścia.
Tak jednak nie będzie, bo rzeczywistość jest bardzo złożona – z czego nie zdajemy sobie sprawy – i wiele rzeczy może pójść nie tak, jak sobie wyobrażamy. Nie przewidujemy mnóstwa możliwych niekorzystnych sytuacji, bo wyobrażamy sobie rzeczywistość jako dobrze zorganizowaną, w której wszystko działa i będzie działać. A kiedy zderzamy się z realiami, tłumaczymy to pechem.
 

- Czy pecha można określić przy pomocy rachunku prawdopodobieństwa?
 

- Na poziomie abstrakcyjnym zawsze można próbować coś wyjaśnić, nawet jak tych zmiennych jest nieskończenie wiele. Matematycy zajmują się takimi modelami, w których jest bardzo wiele zmiennych i to im nie przeszkadza. Opisuje się je nie poprzez podanie rozwiązań ścisłych, ale statystycznych.
Natomiast nie matematycy np. w przypadku niefartownych zdarzeń najczęściej definiują je po ich wydarzeniu się i oceniają jako serię, choć są one różne. Z matematycznego punktu widzenia nie można jednak uznać, że złamanie nogi we wtorek, kradzież auta w środę a w piątek zwolnienie z pracy tworzą serię. To są zdarzenia różne, choć na siłę robimy z nich jeden ciąg. Gdyby chcieć taką serię przewidzieć przy pomocy rachunku prawdopodobieństwa, musiałyby to być seria zdarzeń ściśle określona z góry, a nie dopiero po fakcie. 
 

- Czyli jednak pech to domena psychologii, choć matematyka jest używana w coraz większej liczbie nauk, a w ekonomii zrobiła prawdziwą furorę.
 

- Tak, polega to na tym, że w potocznym myśleniu bardzo łatwo matematyczne rygory naginamy do rzeczywistości i mówimy, że zdarzyło się coś, co się nie miało prawa zdarzyć.

W ekonomii jest o tyle łatwiej stosować matematykę, że tam wszystko się przelicza na pieniądze, czyli jest jakaś mierzalna zmienna losowa, a właściwie wiele zmiennych losowych, bo bada się także inne parametry finansowe. Wszystkie one podporządkowują się prawom statystyki, co pozwala na przewidywania.
Tymczasem z pechem jest problem, bo to jest zjawisko bardzo subiektywne. To jak z tym przysłowiowym optymistą i pesymistą – jeden twierdzi, że szklanka jest do połowy pełna, a drugi – że w połowie pusta. Gdybyśmy mogli wprowadzić jakąś rygorystyczną definicję, która to pojęcie mogłaby skwantyfikować, wówczas można byłoby liczyć prawdopodobieństwo pecha. Natomiast w przypadku pojęcia potocznego jest to niemożliwe.

Wnioski są więc takie, że pecha będziemy mieć wówczas, kiedy będziemy go chcieli mieć. Czyli jeśli popatrzymy na nasze życie optymistycznie i będziemy zapamiętywać momenty, kiedy nam się poszczęściło, to będziemy przekonani, że jesteśmy szczęściarzami. Nawet, jak od czasu do czasu coś nam się nie uda, zgodnie z prawami statystyki i rachunku prawdopodobieństwa.
Tak więc  nie gromadźmy w pamięci chwil złych, bo wówczas jak spojrzymy w przeszłość, wyda nam się, że całe nasze życie jest pasmem niepowodzeń, choć tak pewnie nie jest.

- A czy można mówić o zależności pecha od tzw. charakteru narodowego?
 

- Polacy uwielbiają być pechowcami. Wynika to ze złej organizacji, niedoceniania porządku i braku myślenia ekonomicznego. Jesteśmy narodem bardzo spontanicznym, nie lubimy systematycznej pracy, ani działania schematycznego, które jednak daje rezultaty w postaci uporządkowania. Lubimy chaos, w którym zaczyna dominować entropia. A ona ma to do siebie, że chce wszystkim zawładnąć i generuje właśnie tego pecha, a prawie nigdy wydarzenia korzystne. Pozbyć się entropii nie możemy, możemy tylko obniżyć lokalnie ją w jakimś miejscu, czyli uporządkować nasz mały świat wokół nas. Ale „żeby w domu mieć czysto, a w lodowce pełno”, potrzebny jest wielki wysiłek, wymagający pracy, samodyscypliny, organizacji itd. I choć zdarzają się szczęściarze, którym wszystko przychodzi bez wysiłku, to trzeba pamiętać, że wynika to z procesu losowego, więc nie można liczyć, że to się na pewno i nam przydarzy.
Dziękuję za rozmowę.

 

*http://xn--jzyk-polski-rrb.pl/testy-czytanie-ze-zrozumieniem/110-urodzeni-pechowcy

 

 

Horyzonty abstrakcji

Utworzono: piątek, 23, lipiec 2010 Zbigniew Cimek

Tylko państwa, które pielęgnują matematykę mogą być silne i potężne

Stefan Banach

Czytaj więcej...