Wprowadzenie

Wprowadzenie

Celem niniejszego wstępu jest przedstawienie krótkiego rysu historycznego oraz naszkicowanie intuicji związanych z formalną definicją prawdopodobieństwa; Czytelnik, który od razu chce przejść do ścisłych rozważań, może opuścić ten fragment tekstu i przejść do Rozdziału 1.

Rachunek prawdopodobieństwa jest dziedziną, która towarzyszy ludzkości już od czasów starożytnych (pojęcie szansy, czy też ryzyka, pojawia się w sposób naturalny w kontekście gier hazardowych). Historia związana z rozwojem tej dziedziny zasługuje na osobną monografię, ograniczymy się więc tylko do podania bardzo podstawowych informacji na ten temat. Pierwsze próby formalnego, matematycznego podejścia do tej dziedziny datuje się na XV wiek: w 1494 roku pojawił się podręcznik L. Paccioli Summa de arithmetica, geometria, proportioni e proportionalita, którego fragmenty dotyczą rachunku prawdopodobieństwa. W XVI wieku G. Cardano, zainspirowany tym dziełem, napisał książkę pt. Liber de Ludo Aleae, poświęconą grom losowym. Dalszy rozwój dziedziny nastąpił w związku z ożywioną korespondencją P. Fermata i B. Pascala dotyczącą tzw. sprawiedliwego podziału stawki (połowa XVII wieku). Wśród wielu znakomitych matemayków, którzy kontynuowali badania nad rachunkiem prawdopodobieństwa i jego zastosowaniami, należy wymienić m.in. J. Bernoulliego (Ars Conjectandi, 1713 rok), A. de Moivre'a (The Doctrine of Changes, 1718 rok), Laplace'a (Th\'eorie analytique des probabilit\'es, 1812 rok), wspomnieć należy także o pracach L. Boltzmanna oraz J. W. Gibbsa poświęconych mechanice statystycznej (koniec XIX wieku). Co ciekawe, aż do połowy XX wieku pojęcie prawdopodobieństwa nie było do końca sprecyzowane. Prowadziło to do wielu niewygodnych i nieoczekiwanych paradoksów (m.in. paradoksu J. Bertranda z końca XIX wieku, por. Rozdział 1 poniżej), które podważały sensowność traktowania rachunku prawdopodobieństwa jako dziedziny matematyki. Problemy te zniknęły w momencie podania ścisłej aksjomatyki przez A. Kolmogorowa w 1933 roku; rok ten można uznać za początek nowoczesnego podejścia do dziedziny. Warto tu zaznaczyć, iż aksjomaty Kołmogorowa definiują prawdopodobieństwo jako miarę unormowaną na przestrzeni mierzalnej; w związku z tym, w latach czterdziestych i pięćdziesiątych przeważało przeświadczenie, iż teoria prawdopodobieństwa jest w gruncie rzeczy szczególnym przypadkiem teorii miary tudzież statystyki. Dopiero prace J. L. Dooba z tego okresu, wprowadzające innowacyjny aparat pojęć i argumentów, pozwoliły na ukonstytuowanie rachunku prawdopodobieństwa jako odrębnego i niezależnego działu matematyki.

Na tym kończymy krótki rys historyczny i przechodzimy do zilustrowania podstawowych problemów, które pojawiają się przy analizie nawet najprostszych zagadnień. Podane tu rozważania będą miały charakter nieprecyzyjny, formalne definicje pojawią się w następnym rozdziale. Rozpocznijmy od następującego prostego zadania. Załóżmy, że rzucamy raz monetą i interesuje nas szansa uzyskania orła. Analizę rozpoczynamy od wypisania wszystkich możliwych wyników, które możemy otrzymać. W naszym przypadku wyniki są dwa: możemy wyrzucić orła (,,O'') lub wyrzucić reszkę (,,R''); zbiór tych wyników oznaczmy literą $ \Omega $. Wynikom tym odpowiadają szanse ich uzyskania, $ p_{O} $ oraz $ p_{R} $, które są liczbami z przedziału $ [0,1] $ spełniającymi warunek $ p_O+p_R=1 $. W jaki sposób wyznaczyć te liczby? Jasne jest, że musimy coś więcej wiedzieć na temat monety, którą wykonujemy rzut. Łatwo sobie wyobrazić sytuację, że moneta jest tak wyważona, że zawsze wypada orłem do góry; wówczas wypadnięcie orła jest zdarzeniem pewnym, a wypadnięcie reszki - zdarzenieniem niemożliwym. W takiej specjalnej sytuacji kładziemy $ p_O=1 $, $ p_R=0 $. Podobnie, jeśli moneta zawsze wypada reszką do góry, wówczas musimy przyjąć $ p_O=0 $, $ p_R=1 $; tak więc bez dodatkowych informacji dotyczących ,,fizycznych'' własności monety nie możemy nic powiedzieć o szansach $ p_O $ i $ p_R $. W wielu typowych przykładach przyjmuje się, że moneta jest ,,prawidłowa'' (czasami używa się też terminu ,,symetryczna''), tzn. zarówno orzeł jak i reszka mają tę samą szansę na wypadnięcie. Wówczas $ p_O=p_R $ i warunek $ p_O+p_R=1 $ oznacza, iż każdy z tych wyników ma prawdopodobieństwo $ 1/2 $.

Odpowiedź, którą właśnie uzyskaliśmy (w przypadku symetrycznym) posiada bardzo wygodną interpretację w kontekście ,,częstościowym''. Mianowicie, w celu wyznaczenia prawdopodobieństwa uzyskania orła, mogliśmy postępować inaczej. Rzućmy ustaloną monetą wielokrotnie, powiedzmy, 10000 razy, i policzmy, ile razy uzyskaliśmy orła. Naturalnie jest przyjąć, że prawdopodobieństwo uzyskania orła powinno być zbliżone do ilorazu

$$ \frac{\mbox{liczba rzutów w których uzyskaliśmy orła}}{10000}.$$

W praktyce okazuje się, że liczba otrzymanych orłów (uzyskiwanych w seriach rzutów po 10000 razy) oscyluje wokół $ 5000 $, a więc powyższy iloraz jest zbliżony do $ 1/2 $. Jak już zaznaczyliśmy wcześniej, jest to związane z częstościową interpretacją prawdopodobieństwa (a także tzw. prawami wielkich liczb); będziemy to ściślej badać w dalszej części skryptu.

Rozważmy teraz nieco bardziej złożony przykład. Załóżmy, że rzucamy raz kostką do gry i interesuje nas prawdopodobieństwo uzyskania dokładnie trzech oczek na wierzchniej ściance. Tak jak w poprzednim przykładzie, zaczynamy od wypisania wszystkich możliwych wyników doświadczenia; możemy otrzymać jedno, dwa, trzy, cztery, pięć lub sześć oczek, a więc przyjmujemy $ \Omega=\{1,2,3,4,5,6\} $. Każdemu wynikowi $ j\in \Omega $ odpowiada jego szansa $ p_j $; liczby $ p_1 $, $ p_2 $, $ \ldots $, $ p_6 $ są nieujemne i dają w sumie $ 1 $. Jest oczywiste, iż nie możemy powiedzieć nic więcej na temat tych liczb, jeśli nie wiemy nic o fizycznych własnościach kostki (przykładowo, może być ona tak wyważona, że zawsze wypada sześć oczek; wówczas $ p_1=p_2=\ldots=p_5=0 $, $ p_6=1 $). W wielu konkretnych zagadnieniach przyjmuje się, że kostka jest prawidłowa, tzn. $ p_1=p_2=\ldots=p_6 $. Wówczas warunek $ p_1+p_2+\ldots+p_6=1 $ wymusza równość $ p_1=p_2=\ldots=p_6=1/6 $. Warto jeszcze zaznaczyć, iż rozważane tu doświadczenie dopuszcza szereg innych naturalnych pytań. Przykładowo, możemy się zastanawiać, jaka jest szansa uzyskania liczby oczek podzielnej przez trzy; uzyskania liczby oczek niemniejszej od czterech; itp.. W pierwszym z tych pytań interesuje nas prawdopodobieństwo tego, że wynik będzie należał do zbioru $ \{3,6\} $; w drugim, do zbioru $ \{4,5,6\} $; w ogólności, każde pytanie wiąże się z pewnym podzbiorem zbioru $ \Omega $ (takie podzbiory będziemy nazywać zdarzeniami). Aby podać odpowiedzi, sumujemy prawdopodobieństwa odpowiadające ,,pojedynczym'' wynikom należącym do tych zbiorów. Tak więc w pierwszym przypadku otrzymujemy szansę $ 1/6+1/6=1/3 $, a w drugim $ 1/6+1/6+1/6=1/2 $.

W kolejnym przykładzie komplikujemy nieco doświadczenie i rozważamy dwukrotny rzut kostką. Przypuśćmy, iż chcemy wyznaczyć prawdopodobieństwo tego, że w obu rzutach uzyskamy tę samą liczbę oczek. Tym razem pojedynczym wynikiem doświadczenia jest para liczb $ (i,j) $, $ i,\,j\in \{1,2,3,4,5,6\} $ (pierwszym elementem pary jest liczba oczek uzyskana w pierwszym rzucie monetą, a drugim elementem pary - liczba oczek w drugim rzucie). Zbiór $ \Omega $ złożony ze wszystkich takich par jest więc zbiorem $ 36 $-elementowym i jeśli tylko kostka jest prawidłowa, to każdy wynik ma to samo prawdopodobieństwo $ 1/36 $. W rozważanym przykładzie interesuje nas prawdopodobieństwo tego, że uzyskana para liczb będzie należała do zbioru $ \{(1,1),(2,2),(3,3),(4,4),(5,5),(6,6)\} $. Zdarzenie to ma sześć elementów, z których każdy ma szansę $ 1/36 $; wobec tego, odpowiedź brzmi $ 6\cdot 1/36=1/6 $.

Przejdźmy teraz do kolejnego przykładu. Rozważmy urnę zawierającą jedną białą kulę, dwie czarne i trzy zielone. Jaka jest szansa, że losując kulę jedną kulę z urny, wyciągniemy kulę zieloną? Przedstawimy dwa rozumowania prowadzące do odpowiedzi. Jak wcześniej, zacznijmy od ,,technicznego'' założenia dotyczącego kul: zakładamy, że mają one ten sam rozmiar i są dokładnie wymieszane (chodzi o to, żeby każda z nich miała tę samą szansę na wyciągnięcie). Mamy trzy możliwe wyniki: wyciągnięcie kuli białej (,,B''), czarnej (,,C'') lub zielonej (,,Z''), tak więc przyjmujemy $ \Omega=\{B,C,Z\} $. Zwróćmy teraz uwagę na to, iż w przeciwieństwie do poprzednich przykładów, prawdopodobieństwa $ p_B $, $ p_C $, $ p_Z $ odpowiadające tym wynikom nie są równe. Ponieważ kul czarnych jest dwa razy więcej niż białych, spodziewamy się, iż szansa na wyciągnięcie kuli czarnej będzie dwa razy większa niż wyciągnięcie kuli białej: $ p_C=2p_B $. Podobnie otrzymujemy tożsamość $ p_Z=3p_B $, co w połączeniu z równością $ p_B+p_C+p_Z=1 $ daje $ p_B=1/6 $, $ p_C=1/3 $ oraz $ p_Z=1/2 $. Tak więc odpowiedź brzmi: $ 1/2 $.

Drugi sposób rozwiązania powyższego zagadnienia polega na wprowadzeniu odcieni kolorów; innymi słowy, umawiamy się, iż w obrębie ustalonego koloru kule różnią się nieco barwą. W tym momencie, jeśli losujemy jedną kulę z urny, mamy sześć możliwych wyników: $ \Omega=\{B,C_1,C_2,Z_1,Z_2,Z_3\} $. Teraz jednak każdy z nich odpowiada dokładnie jednej kuli, a więc pojedyncze wyniki są równoprawdopodobne. Stąd $ p_B=p_{C_1}=p_{C_2}=p_{Z_1}=p_{Z_2}=p_{Z_3}=1/6 $; interesuje nas szansa tego, że wynik będzie należał do zbioru $ \{Z_1,Z_2,Z_3\} $, a więc odpowiedź to $ 3\cdot 1/6=1/2 $.

W kolejnym przykładzie zbiór potencjalnych wyników doświadczenia będzie nieskończony (lecz przeliczalny). Mianowicie, załóżmy, że rzucamy prawidłową monetą aż do momentu wypadnięcia orła. Jaka jest szansa, że rzucimy co najwyżej pięć razy? Jak wyżej, rozpoczynamy od wypisania wszystkich możliwych wyników doświadczenia. Nasz eksperyment losowy polega na rzucaniu monetą aż do chwili uzyskania orła, a więc pojedynczy wynik to ciąg reszek zakończony orłem; przykładowo, ciąg $ (R,R,R,R,R,O) $ oznacza, że pięć razy wyrzuciliśmy reszkę, a za szóstym wypadł orzeł. Tak więc

$$ \Omega=\{(O),(R,O),(R,R,O),(R,R,R,O),\ldots\}$$

i zbiór ten jest nieskończony. Spróbujmy teraz wyznaczyć szansę $ p_{(R,R,\ldots,R,O)} $ wyniku $ (R,R,\ldots,R,O) $, gdzie w ciągu jest dokładnie $ k $ reszek ($ k $ jest ustaloną liczbą całkowitą nieujemną). Jest raczej oczywiste, że w przeciwieństwie do trzech pierwszych przykładów, różne wyniki mają różne prawdopodobieństwa: np. liczba $ p_{(O)} $ jest większa niż $ p_{(R,R,R,O)} $. Aby obliczyć $ p_{(R,R,\ldots,R,O)} $, spójrzmy na nieco inne doświadczenie: rozważmy $ k+1 $-krotny rzut monetą i zastanówmy się, jaka jest szansa, że pierwszego orła otrzymamy w ostatnim rzucie. Jest w miarę jasne, iż prawdopodobieństwo to jest równe szukanej liczbie $ p_{(R,R,\ldots,R,O)} $. Przewaga tego zmodyfikowanego eksperymentu tkwi w tym, że posiada on skończoną liczbę wyników: rzucamy $ k+1 $ razy, a więc

$$ \overline{\Omega}=\big\{(a_1,a_2,\ldots,a_{k+1}):a_i\in \{O,R\},\,i=1,\,2,\,\,\ldots,\,k+1\big\},$$

i każdy ciąg ma tę samą szansę. Skoro $ \overline{\Omega} $ ma $ 2^{k+1} $ elementów, to wnosimy stąd, że szukane prawdopodobieństwo w wyjściowym doświadczeniu wynosi

$$ p_{(R,R,\ldots,R,O)}=\frac{1}{2^k}.$$

W zadaniu interesuje nas prawdopodobieństwo tego, że rzucimy co najwyżej pięć razy, czyli szansa zdarzenia

$$ \{(O),(R,O),(R,R,O),(R,R,R,O),(R,R,R,R,O)\}.$$

Prawdopodobieństwo wynosi więc

$$p_{(O)}+p_{(R,O)}+p_{(R,R,O)}+p_{(R,R,R,O)}+p_{(R,R,R,R,O)}=\frac{1}{2}+\frac{1}{4}+\frac{1}{8}+\frac{1}{16}+\frac{1}{32}=\frac{31}{32}.$$

Ostatni przykład będzie miał nieco bardziej złożony charakter. Załóżmy, że losujemy liczbę z przedziału $ [-1,2] $ i chcemy wyznaczyć prawdopodobieństwo tego, że wyciągniemy liczbę większą niż $ 1 $. Jak wcześniej, rozpoczynamy analizę od podania zbioru wszystkich możliwych wyników doświadczenia: $ \Omega=[-1,2] $. Zwróćmy uwagę, iż zbiór $ \Omega $ jest nieskończony, a nawet nieprzeliczalny (jest to źródłem pewnych technicznych komplikacji, patrz Rozdział 1 poniżej). Interesujące nas zdarzenie - wylosowanie liczby większej niż $ 1 $ - odpowiada przedziałowi $ [1,2] $. W jaki sposób wyznaczyć prawdopodobieństwo tego zdarzenia?

Tak jak w poprzednich przykładach, nie można udzielić odpowiedzi bez dodatkowej wiedzy w jaki sposób przeprowadzone jest losowanie (odpowiedź może być niejednoznaczna). Przykładowo, losowanie może odbywać się następująco: wykonujemy najpierw rzut prawidłową monetą, a następnie wybieramy $ 0 $ jeśli wypadł orzeł, i $ 1 $ jeśli wypadła reszka. Inny przykład: rzucamy prawidłową kostką, a następnie uzyskaną liczbę oczek dzielimy przez $ 3 $. Jak łatwo widać, w obu tych przykładach losujemy liczbę z odcinka $ [-1,2] $ (można nawet powiedzieć więcej: w pierwszym przypadku losujemy liczbę ze zbioru $ \{0,1\} $, a w drugim - ze zbioru $ \{1/3,2/3,\ldots,2\} $). Czytelnik z łatwością ułoży inne, bardziej skomplikowane doświadczenia, których wyniki należą do zbioru $ [-1,2] $.

Musimy więc doprecyzować badane zagadnienie. Pisząc ,,losujemy punkt z odcinka $ [-1,2] $'' (bez żadnej dodatkowej informacji), najczęściej mamy z grubsza na myśli, iż wylosowana liczba ,,ma tę samą szansę na pojawienie się w każdej części odcinka''. Ściślej, oznacza to, iż prawdopodobieństwo uzyskania wyniku należącego do ustalonego podzbioru $ A\subset \Omega $ jest proporcjonalne do miary Lebesgue'a tego podzbioru: prawdopodobieństwo $ A $ wynosi $ c|A| $ dla pewnej stałej $ c $ zależącej tylko od $ \Omega $. Aby wyznaczyć tę stałą, podstawiamy $ A=\Omega $. Jest to zdarzenie pewne (każdy wylosowany punkt, rzecz jasna, należy do $ \Omega $), a więc posiada prawdopodobieństwo $ 1 $. Otrzymujemy stąd $ 1=\mbox{prawdopodobieństwo }\Omega=c|\Omega| $, czyli $ c=1/|\Omega| $ i

$$ \mbox{prawdopodobieństwo }A=\frac{|A|}{|\Omega|}.$$

Wobec tego, wracając do naszego konkretnego przykładu, otrzymujemy odpowiedź $ |[1,2]|/|[-1,2]|=1/3 $.