Zmienne losowe i ich rozkłady

Zmienne losowe i ich rozkłady

Przechodzimy do kluczowego pojęcia rachunku prawdopodobieństwa.

Definicja Załóżmy, że $ (\Omega,\F,\P) $ jest przestrzenią probabilistyczną. Zmienną losową $ d $-wymiarową (lub zmienną losową o wartościach w $ \R^d $) nazywamy dowolną mierzalną funkcję $ X:\Omega\to \R^d $ (tzn. spełniającą, dla dowolnego $ B\in\mathcal{B}(\R^d) $, warunek $ \{X\in B\}:=X^{-1}(B)=\{\omega\in\Omega:X(\omega)\in B\}\in \F $). W szczególności, dla $ d=1 $ będziemy mówić po prostu ,,zmienna losowa''.
Twierdzenie Jeśli $ (\Omega,\F,\P) $ jest przestrzenią probabilistyczną, $ X $ jest $ d $-wymiarową zmienną losową oraz $ f:\R^d\to \R^k $ jest funkcją borelowską, to $ f(X) $ jest $ k $-wymiarową zmienną losową. W szczególności teza zachodzi więc dla ciągłych funkcji $ f $.

W szczególności, widzimy iż jeśli $ X=(X_1,X_2,\ldots,X_d) $, to $ X_1 $, $ X_2 $, $ \ldots $, $ X_d $ są jednowymiarowymi zmiennymi losowymi.

Kolejnym ważnym pojęciem jest tzw. rozkład zmiennej losowej. Załóżmy, że $ (\Omega,\F,\P) $ jest przestrzenią probabilistyczną, a $ X $ jest $ d $-wymiarową zmienną losową. Dla dowolnego $ B\in \mathcal{B}(\R^d) $ określamy

$$ P_X(B)=\P(X\in B):=\P(\{\omega\in \Omega:X(\omega)\in B\})$$

(czyli $ P_X $ jest obrazem miary $ \P $ przy przekształceniu $ X $). Jak łatwo sprawdzić, $ (\R^d,\mathcal{B}(\R^d),P_X) $ jest nową przestrzenią probabilityczną.

Definicja Miarę $ P_X $ nazywamy rozkładem zmiennej $ X $.
Definicja Załóżmy, że $ (\Omega,\F,\P) $ jest przestrzenią probabilistyczną, a $ X $ jest $ d $-wymiarową zmienną losową. Dystrybuantą tej zmiennej losowej nazywamy funkcję $ F_X:\R^d\to [0,1] $ daną wzorem \begin{align*} F_X(x_1,x_2,\ldots,x_d)&=\P(X_1\leq x_1,X_2\leq x_2,\ldots,X_d\leq x_d)\\ &=P_X((-\infty,x_1]\times (-\infty,x_2]\times \ldots\times (-\infty,x_d]). \end{align*} Dystrybuanta zależy tylko od rozkładu, a więc jest sens mówić o dystrybuancie rozkładu prawdopodobieństwa.

Przykłady:

1. Rzucamy raz symetryczną monetą; $ \Omega=\{O,R\} $. Niech $ X(O)=1 $, $ X(R)=-1 $. Wówczas

$$ F_X(t)=\P(X\leq t)=\begin{cases} 0 & \mbox{jeśli }t<-1,\\ 1/2 & \mbox{jeśli }-1\leq t<1,\\ 1 & \mbox{jeśli }t\geq 1. \end{cases}$$

2. Wybieramy losowo punkt z koła o promieniu $ R $: mamy zatem $ (\Omega,\F,\P)=\left(K(0,R),\mathcal{B}(K(0,R)),\frac{|\cdot|}{\pi R^2}\right) $. Niech $ X(\omega)=\rho(\omega,0) $ będzie odległością wylosowanego punktu od środka. Wówczas

$$ F_X(t)=\P(X\leq t)=\begin{cases} 0 & \mbox{jeśli } t< 0,\\ t^2/R^2 & \mbox{jeśli }0\leq t<R,\\ 1 & \mbox{jeśli }t\geq R. \end{cases}$$
Twierdzenie [Własności dystrybuanty] Załóżmy, że $ X $ jest (jednowymiarową) zmienną losową. Wówczas

a) $ F_X $ jest niemalejąca.

b) $ \lim_{t\to\infty} F_X(t)=1 $, $ \lim_{t\to-\infty} F_X(t)=0 $.

c) $ F $ jest prawostronnie ciągła.

d) dla dowolnego $ t\in \R $ istnieje lewostronna granica $ F_X(t-)=\lim_{s\uparrow t}F_X(s) $ i

$$ F_X(t-)=\P(X<t)=\P(X\in (-\infty,t)).$$

e) $ F_X $ jest nieciągła w punkcie $ t_0 $ wtedy i tylko wtedy, gdy $ \P(X=t_0)>0 $ (taką liczbę $ t_0 $ nazywamy wówczas atomem rozkładu). Ściślej, dla dowolnego $ t_0\in \R $ mamy $ \P(X=t_0)=F_X(t_0)-F_X(t_0-) $.

f) dla dowolnych $ a< b $ mamy  \begin{align*} \P(a\leq X\leq b)&=&\P(X\in [a,b])=F_X(b)-F_X(a-),\\ \P(a<X\leq b)&=&\P(X\in (a,b])=F_X(b)-F_X(a),\\ \P(a\leq X< b)&=&\P(X\in [a,b))=F_X(b-)-F_X(a-),\\ \P(a<X< b)&=&\P(X\in (a,b))=F_X(b-)-F_X(a). \end{align*}

Dowód:[Dowód] a) Jeśli $ t_1<t_2 $, to $ (-\infty,t_1]\subset (-\infty,t_2] $, a więc $ F_X(t_1)=P_X((-\infty,t_1])\leq P_X((-\infty,t_2])=F_X(t_2). $

b) Dla dowolnego ciągu $ (t_n)_{n\geq 1} $ rosnącego do nieskończoności zachodzi równość $ \R=\bigcup_n (-\infty,t_n] $ i przedziały pod sumą są wstępujące. Zatem, korzystając z twierdzenia o ciągłości,

$$ 1=P_X(\R)=\lim_{n\to\infty}P_X((-\infty,t_n])=\lim_{n\to\infty}F_X(t_n).$$

Analogicznie dowodzimy drugą część.

c) Weźmy $ t\in \R $ oraz ciąg $ (t_n)_{n\geq 1} $ malejący do $ t $. Ciąg przedziałów $ (t,t_n] $ jest zstępujący i $ \bigcap_n(t,t_n]=\emptyset $, a więc \begin{align*} 0&=P_X\left(\bigcap_n (t,t_n]\right)=\lim_{n\to\infty}P_X((t,t_n])=\lim_{n\to\infty} P_X((-\infty,t_n]\setminus (-\infty,t])\\ &=\lim_{n\to\infty}\Big[P_X((-\infty,t_n])-P_X((-\infty,t])\Big]=\lim_{n\to \infty}(F_X(t_n)-F_X(t)). \end{align*}

d) Rozumujemy podobnie jak w c).

e) Wynika to wprost z d) oraz równości $ \P(X=t_0)=\P(X\leq t_0)-\P(X<t_0) $.

f) Udowodnimy tylko pierwszą równość, pozostałe wykazuje się analogicznie:

$$ \P(a\leq X\leq b)=P_X([a,b])=P_X((-\infty,b])-P_X((-\infty,a))=F_X(b)-F_X(a-).\qedhere$$

Uwaga: Jeśli funkcja $ F $ spełnia warunki a), b) oraz c) z powyższego twierdzenia, to jest dystrybuantą pewnego rozkładu (dowód pozostawiamy jako ćwiczenie).

Twierdzenie [O jednoznaczności] Dystrybuanta zmiennej losowej $ d $-wymiarowej wyznacza rozkład jednoznacznie.
Dowód:[Dowód:] Załóżmy, że $ X $, $ Y $ są zmiennymi losowymi posiadającymi tę samą dystrybuantę. Chcemy wykazać, że $ P_X=P_Y $, czyli

$$ P_X(B)=P_Y(B) \leqno{(*)}$$

dla dowolnego podzbioru borelowskiego $ \R^d $. Klasa wszystkich zbiorów $ B $ spełniających (*) tworzy $ \lambda $-układ. Z drugiej strony, równość dystrybuant daje, iż \begin{align*} & P_X((-\infty,x_1]\times (-\infty,x_2]\times \ldots\times (-\infty,x_d])=F_X(x)=F_Y(x)\\ &\qquad = P_Y((-\infty,x_1]\times (-\infty,x_2]\times \ldots\times (-\infty,x_d]), \end{align*} a zatem (*) zachodzi dla zbiorów postaci $ (-\infty,x_1]\times  (-\infty,x_2]\times \ldots (-\infty,x_d] $, które tworzą $ \pi $-układ generujący $ \mathcal{B}(\R^d) $. Teza twierdzenia wynika więc natychmiast z lematu o $ \pi-\lambda $ układach. □

Definicja Załóżmy, że $ X=(X_1,X_2,\ldots,X_d) $ jest $ d $-wymiarową zmienną losową oraz $ 1\leq i_1<i_2<\ldots<i_k\leq d $ ($ k<d $). Wówczas $ (X_{i_1},X_{i_2},\ldots,X_{i_k}) $ też jest zmienną losową i jej rozkład nazywamy $ k $-wymiarowym rozkładem brzegowym rozkładu $ X $.

Uwaga: Rozkłady brzegowe nie wyznaczają na ogół rozkładu łącznego. Rozważmy następujący przykład:

I - rzucamy trzy razy monetą i niech $ X_1 $ będzie liczbą reszek przed pojawieniem się pierwszego orła, a $ X_2 $ oznacza łączną liczbę orłów.

II - rzucamy dwie serie po trzy razy monetą i niech $ X_1' $ będzie liczbą reszek przed pojawieniem się pierwszego orła w pierwszej serii, a $ X_2' $ oznacza łączną liczbę orłów w drugiej serii.

Jest oczywiste, że zmienne $ X_1 $ oraz $ X_1' $ mają ten sam rozkład; tak samo, $ X_2 $ oraz $ X_2' $ mają ten sam rozkład. Z drugiej strony, zmienne $ (X_1,X_2) $ oraz $ (X_1',X_2') $ nie mają tego samego rozkładu: istotnie,

$$ P_{(X_1,X_2)}(\{(3,3)\})=0\quad \mbox{oraz}\quad  P_{(X_1',X_2')}(\{(3,3)\})=2^{-6}.$$

Tak więc rozkłady brzegowe zmiennych $ (X_1,X_2) $ oraz $ (X_1',X_2') $ są identyczne, ale rozkłady łączne są różne.

W dalszej części wykładu będziemy stosować następujące oznaczenie: jeśli $ X $ jest $ d $-wymiarową zmienną losową, to

$$\sigma(X):=\{\{X\in B\}:B\in \mathcal{B}(\R^d)\}$$

jest $ \sigma $-ciałem zdarzeń generowanym przez $ X $.

Definicja Załóżmy, że $ (\Omega,\F,\P) $ jest przestrzenią probabilistyczną, a $ \{X_i\}_{i\in I} $ jest rodziną zmiennych losowych, przy czym $ X_i $ przyjmuje wartości w $ \R^{d_i} $. Mówimy, że zmienne te są niezależne, jeśli $ \sigma $-ciała generowane przez te zmienne są niezależne. Innymi słowy, zmienne $ \{X_i\}_{i\in I} $ są niezależne wtedy i tylko wtedy, gdy dla każdego $ n $, dowolnych parami różnych $ i_1,\,i_2,\,\ldots,\,i_n\in I $ oraz dowolnych $ B_1\in  \mathcal{B}(\R^{d_{i_1}}) $, $ \ldots $, $ B_n\in  \mathcal{B}(\R^{d_{i_n}}) $,

$$ \P(X_{i_1}\in B_1,\,X_{i_2}\in B_2,\ldots,\,X_{i_n}\in B_n)= \P(X_{i_1}\in B_1)\P(X_{i_2}\in B_2)\ldots \P(X_{i_n}\in B_n).$$

Przykłady:

1. Zdarzenia $ A_1 $, $ A_2 $, $ \ldots $, $ A_n $ są niezależne wtedy i tylko wtedy, gdy $ 1_{A_1} $, $ 1_{A_2} $, $ \ldots $, $ 1_{A_n} $ są niezależne. Istotnie, wynika to natytchmiast z faktu, iż dla dowolnego zdarzenia $ A $ oraz dowolnego podzbioru borelowskiego prostej mamy

$$ \{1_A \in B\}=\begin{cases} A & \mbox{jeśli }0\notin B,\,1\in B,\\ A' & \mbox{jeśli }0\in B,\,1\notin B,\\ \emptyset & \mbox{jeśli }0,\,1\notin B,\\ \Omega & \mbox{jeśli }0,\,1\in B. \end{cases}$$

2. W schemacie $ n $ prób Bernoulliego określmy \begin{align*} X_i(\omega)&=X_i(\omega_1,\omega_2,\ldots,\omega_n)\\ &:=\omega_i=\begin{cases} 1 & \mbox{jeśli w $ i $-tej próbie był sukces},\\ 0 & \mbox{jeśli w $ i $-tej próbie była porażka}. \end{cases} \end{align*} Wówczas $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależnymi zmiennymi losowymi. Wyniknie to łatwo z faktów, które przytoczymy w dalszej części wykładu.

Omówimy teraz pewne warunki które są równoważne niezależności zmiennych losowych. Dla prostoty, skupimy się na przypadku jednowymiarowym, ale poniższe twierdzenie pozostaje w mocy także w sytuacji gdy zmienne przyjmują wartości wektorowe.

Twierdzenie Załóżmy, że $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są zmiennymi losowymi. Następujące warunki są równoważne.

1) $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależne.

2) Dla dowolnych $ B_1 $, $ B_2 $, $ \ldots $, $ B_n\in\mathcal{B}(\R) $ zdarzenia $ \{X_1\in B_1\} $, $ \{X_2\in B_2\} $, $ \ldots $, $ \{X_n\in  B_n\} $ są niezależne.

3) $ P_{(X_1,X_2,\ldots,X_n)}=P_{X_1}\otimes P_{X_2}\otimes \ldots  \otimes P_{X_n} $,

4) Dla dowolnego $ x=(x_1,x_2,\ldots,x_n)\in \R^n $,

$$F_{(X_1,X_2,\ldots,X_n)}(x_1,x_2,\ldots,x_n)=F_{X_1}(x_1)F_{X_2}(x_2) \ldots F_{X_n}(x_n).$$
Dowód:[Dowód] Wiemy już, iż warunki 1) oraz 2) są równoważne.

2)$ \Rightarrow $4). Mamy \begin{align*} &F_{(X_1,X_2,\ldots,X_n)}(x_1,x_2,\ldots,x_n)=\P(X_1\leq x_1,X_2\leq x_2,\ldots,X_n\leq x_n)\\ &=\P(X_1\leq x_1)\P(X_2\leq x_2)\ldots\P(X_n\leq x_n)=F_{X_1}(x_1)F_{X_2}(x_2) \ldots F_{X_n}(x_n). \end{align*}

4)$ \Rightarrow $3) Niech $ X' $ będzie $ n $-wymiarową zmienną losową o rozkładzie $ P_{X_1}\otimes P_{X_2}\otimes \ldots \otimes P_{X_n} $. Dla dowolnego $ x=(x_1,x_2,\ldots,x_n) $ mamy \begin{align*} &F_{X'}(x_1,x_2,\ldots,x_n)=P_{X_1}\otimes \ldots\otimes P_{X_n}\big((-\infty,x_1]\times (-\infty,x_2]\times \ldots \times (-\infty,x_n]\big)\\ &=F_{X_1}(x_1)F_{X_2}(x_2)\ldots F_{X_n}(x_n)=F_{(X_1,X_2,\ldots,X_n)}(x_1,x_2,\ldots,x_n). \end{align*} Na mocy twierdzenia o jednoznaczności, wynika stąd $ P_{X'}=P_{(X_1,X_2,\ldots,X_n)} $.

3)$ \Rightarrow $1) Dla dowolnych podzbiorów borelowskich $ B_1 $, $ B_2 $, $ \ldots $, $ B_n $ prostej rzeczywstej mamy \begin{align*} & \P(X_1\in B_1,X_2\in B_2,\ldots,X_n\in B_n)=P_{(X_1,X_2,\ldots,X_n)}(B_1\times B_2\times \ldots \times B_n)\\ &=P_{X_1}(B_1)P_{X_2}(B_2)\ldots P_{X_n}(B_n)= \P(X_1\in B_1)\P(X_2\in B_2)\ldots \P(X_n\in B_n). \end{align*} Dowód jest zakończony. □

Przechodzimy teraz do bardziej szczegółowego omówienia typów i przykładów rozkładów prawdopodobieństwa w $ \R^d $.

Definicja Mówimy, że $ d $-wymiarowa zmienna losowa $ X $ ma dyskretny (skokowy, atomowy) rozkład, jeśli $ \P(X\in S_X)=1 $, gdzie

$$ S_X=\{x\in \R^d:\P(X=x)>0\}$$

jest zbiorem atomów rozkładu.

Uwagi:

1) Dla dowolnej zmiennej $ d $-wyiarowej $ X $ zbiór $ S_X $ jest co najwyżej przeliczalny, gdyż

$$ S_X=\bigcup_{n\geq 1} \{x\in \R^d: \P(X=x)>1/n\},$$

i każdy ze zbiorów występujących pod sumą jest skończony.

2) Rozkład dyskretny jest jednoznacznie wyznaczony przez co najwyżej przeliczalny zbiór $ S\subset \R^d $ oraz funkcję $ p:S\to [0,1] $ taką, że $ \sum_{x\in S} p(x)=1 $. Istotnie, wówczas

$$ P(B)=\sum_{x\in S\cap B} p(x).$$

Odnotujmy bardzo prosty fakt.

Twierdzenie Zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ mają rozkład skokowy wtedy i tylko wtedy, gdy zmienna $ (X_1,X_2,\ldots,X_n) $ ma rozkład skokowy.

W przypadku gdy mamy do czynienia ze skończoną rodziną zmiennych dyskretnych, warunek niezależności może być badany za pomocą następującego prostego kryterium.

Twierdzenie (#) Zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ mające rozkłady dyskretne są niezależne wtedy i tylko wtedy, gdy dla dowolnych $ x_1\in S_{X_1} $, $ x_2\in S_{X_2} $, $ \ldots $, $ x_n\in S_{X_n} $ zachodzi

$$  \P(X_1=x_1,X_2=x_2,\ldots,X_n=x_n)=\P(X_1=x_1)\P(X_2=x_2)\ldots\P(X_n=x_ n).$$
Dowód:[Dowód] $ \Rightarrow $ Oczywiste: postulowana równość jest szczególnym przypadkiem warunku występującego w definicji niezależności.

$ \Leftarrow $ Dla ułatwienia zapisu, przeprowadzimy dowód tylko dla $ n=2 $; przypadek $ n\geq 3 $ rozpatruje się analogicznie. Mamy \begin{align*} &\P(X_1\in B_1,X_2\in B_2)=\P(X_1\in S_{X_1}\cap B_1,X_2\in S_{X_2}\cap B_2)\\ &=\sum_{x_1\in S_{X_1}\cap B_1,x_2\in S_{X_2}\cap B_2} \P(X_1=x_1,X_2=x_2)\\ &=\sum_{x_1\in S_{X_1}\cap B_1}\sum_{x_2\in S_{X_2}\cap B_2}\P(X_1=x_1)\P(X_2=x_2)=\P(X_1\in B_1)\P(X_2\in B_2). \qedhere \end{align*} □

Przykłady:

1) Rozkład skupiony w punkcie $ a\in \R^d $, ozn. $ \delta_a $. Zmienna $ X $ ma rozkład skupiony w $ a $, jeśli $ \P(X=a)=1 $; $ S_X=\{a\} $.

2) Rozkład dwupunktowy skupiony w $ a,\,b\in \R^d $, $ a\neq b $. Zmienna $ X $ ma rozkład dwupunktowy skupiony na $ \{a,b\} $ jeśli $ \P(X=a)=p $ oraz $ \P(X=b)=1-p $ dla pewnego $ p\in (0,1) $.

3) Rozkład Bernoulliego (rozkład dwumianowy) z parametrami $ n $, $ p $ ($ n=1 $, $ 2 $, $ \ldots $, $ p\in (0,1) $), ozn. $ B(n,p) $. Zmienna $ X $ ma rozkład $ B(n,p) $, jeśli $ \P(X=k)={n \choose k}p^k(1-p)^{n-k} $, $ k\in S_X=\{0,\,1,\,2,\,\ldots,\,n\} $. Innymi słowy, jeśli mamy dany schemat Bernoulliego składający się z $ n $ prób o prawdopodobieństwie sukcesu $ p $, to łączna liczba sukcesów ma rozkład Bernoulliego $ B(n,p) $.

Dygresja. Załóżmy, że zmienne $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ zadane są wzorem

$$ X_i=\begin{cases} 1 & \mbox{jeśli w $i$-tej próbie był sukces},\\ 0 & \mbox{w przeciwnym przypadku}. \end{cases}\leqno{(*)}$$

Wówczas jak łatwo sprawdzić korzystając z Twierdzenia [link], zmienne $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależne. Z drugiej strony, $ X_1+X_2+\ldots+X_n $ jest łączną liczbą sukcesów. Otrzymaliśmy więc następujący fakt:

Załóżmy, że $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależnymi zmiennymi losowymi o tym samym rozkładzie (czasami te dwie własności będziemy w skrócie oznaczać przez i.i.d.) zadanym przez $ \P(X_i=1)=p=1-\P(X_i=0) $. Wówczas zmienna $ X_1+X_2+\ldots+X_n $ ma rozkład $ B(n,p) $.

Skorzystaliśmy tu z następującej prostej obserwacji:

Twierdzenie Jeśli $ d $-wymiarowe zmienne $ X $, $ Y $ mają ten sam rozkład oraz $ f:\R^d\to \R^k $ jest funkcją borelowską, to $ f(X) $ oraz $ f(Y) $ mają ten sam rozkład.

4) Rozkład geometryczny z parametrem $ p $ ($ 0<p<1 $), ozn. Geom($ p $). Zmienna $ X $ ma taki rozkład, jeśli

$$ \P(X=k)=(1-p)^kp,\qquad k\in S_X=\{0,\,1,\,2,\,\ldots\}.$$

Interpretacja: załóżmy, iż dany jest schemat Bernoulliego o nieskończonej liczbie prób i prawdopodobieństwie sukcesu $ p $. Niech $ X $ oznacza liczbę porażek poprzedzających pojawienie się pierwszego sukcesu. Wówczas $ X $ ma rozkład geometryczny z parametrem $ p $. Istotnie, wprowadzając zmienne $ X_1 $, $ X_2 $, $ \ldots $ jak w poprzednim przykładzie, możemy zapisać \begin{align*} \P(X=k)&=\P(X_1=0,\,X_2=0,\,\ldots,\,X_{k}=0,\,X_{k+1}=1)\\ &=\P(X_1=0)\P(X_2=0)\ldots\P(X_{k}=0)\P(X_{k+1}=1)=(1-p)^{k}p. \end{align*}

Czasami w literaturze rozkład geometryczny jest definiowany nieco inaczej: mianowicie, $ Y\sim  $Geom($ p $) jeśli dla dowolnej $ k\in  S_Y=\{1,\,2,\,\ldots\} $, mamy $  \P(Y=k)=(1-p)^{k-1}p. $ Wówczas zmienna ta ma interpretację jako czas oczekiwania na pierwszy sukces w nieskończonym schemacie Bernoulliego o prawdopodobieństwie sukcesu $ p $. Jest ona związana z poprzednią zmienną zależnością $ Y=  X+1 $.

5) Rozkład Poissona z parametrem $ \lambda $ ($ \lambda>0 $), ozn. Pois($ \lambda $). Zmienna $ X $ ma taki rozkład, jeśli

$$ \P(X=k)=\frac{\lambda^k}{k!}e^{-\lambda},\qquad k\in  S_X=\{0,\,1,\,2,\,\ldots\}.$$

Rozkład Poissona powstaje przez odpowiednie przejście graniczne dla rozkładów Bernoulliego. Ściślej, zachodzi następujący fakt (który pozostawiamy bez dowodu).

Twierdzenie [Poissona] Załóżmy, że $ (p_n)_{n\geq 1} $ jest ciągiem liczb z przedziału $ (0,1) $ spełniającym warunek $ \lim_{n\to\infty}np_n=\lambda>0 $. Wówczas dla dowolnej liczby $ k \in\{0,\,1,\,2,\,\ldots\} $,

$$ \lim_{n\to \infty} {n \choose k}p_n^k(1-p_n)^{n-k}=  \frac{\lambda^k}{k!}e^{-\lambda}.$$

Innymi słowy, jeśli $ X_n $ ma rozkład $ B(n,p) $, $ X $ ma rozkład Pois$ (\lambda) $ i $ np\approx \lambda $, to rozkłady $ X_n $ oraz $ X $ są bliskie.

Przechodzimy do kolejnej ważnej rozdziny rozkładów.

Definicja Mówimy, że zmienna losowa $ d $-wymiarowa $ X $ ma rozkład ciągły, jeśli istnieje funkcja borelowska $ g:\R^d\to [0,\infty) $ taka, że dla dowolnego podzbioru borelowskiego $ B\subseteq \R^d $,

$$ \P(X\in B)=P_X(B)=\int_B g(x)\mbox{d}x.$$

Funkcję $ g $ nazywamy wówczas gęstością rozkładu.

Uwagi:

1. Jeśli $ P_X $ jest ciągły, to $ S_X=\emptyset $, ale nie na odwrót (warunkiem koniecznym i dostatecznym jest równość $ \P(X\in B)=0 $ dla dowolnego $ B\subset\R^d $ o zerowej mierze Lebesgue'a).

2. Jeśli $ g:\R^d\to [0,\infty) $ jest gęstością pewnego rozkładu $ \mu $ oraz $ \tilde{g}:\R^d\to [0,\infty) $ jest funkcją borelowską, to $ \tilde{g} $ jest gęstością $ \mu $ wtedy i tylko wtedy, gdy $ g=\tilde{g} $ p.w.. Istotnie, implikacja $ \Leftarrow $ jest oczywista:

$$ \mu(A)=\int_A g(x)\mbox{d}x=\int_A \tilde{g}(x)\mbox{d}x.$$

Przechodzimy do implikacji $ \Rightarrow $: mamy $ \int_B g=\int_B \tilde{g} $ dla dowolnego zbioru borelowskiego $ B $. Załóżmy, że teza nie zachodzi; wówczas jeden ze zbiorów $ \{g>\tilde{g}\} $, $ \{g<\tilde{g}\} $ ma dodatnią miarę. Bez straty ogólności załóżmy, że jest to pierwszy zbiór, i oznaczmy go przez $ B $. Jest to zbiór borelowski, i $ \int_B g>\int_B \tilde{g} $, sprzeczność.

3. Każda funkcja borelowska $ g:\R^d\to [0,\infty) $ taka, że $ \int_{\R^d}g(x)\mbox{d}x=1 $ jest gęstością pewnego rozkładu, zadanego przez $ \mu(B)=\int_B g(x)\mbox{d}x $ dla $ B\in\mathcal{B}(\R^d) $.

4. Zmienna $ X $ ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja borelowska $ g:\R^d\to [0,\infty) $ taka, że

$$ F_X(x_1,x_2,\ldots,x_d)=\int_{-\infty}^{x_1}\int_{-\infty}^{x_2}\ldots  \int_{-\infty}^{x_d}  g(y_1,y_2,\ldots,y_d)\mbox{d}y_d\mbox{d}y_{d-1}\ldots\mbox{d}y_1.$$

Istotnie:

$ \Rightarrow $ Mamy $ F(x_1,\ldots,x_d)=\P((X_1,\ldots,X_d)\in  (-\infty,x_1]\times \ldots \times (-\infty,x_d]) $ i wystarczy skorzystać z definicji gęstości.

$ \Leftarrow $ Zbiegając z $ x_1 $, $ x_2 $, $ \ldots $, $ x_d $ do nieskończoności widzimy, że $ \int_{\R^d}g(x)\mbox{d}x=1 $. Niech $ \mu $ będzie rozkładem prawdopodobieństwa w $ \R^d $, zadanym przez gęstość $ g $ (patrz Uwaga 3 powyżej). Wówczas, na mocy poprzedniej implikacji mamy $ F_X=F_\mu $, a zatem, z twierdzenia o jednoznaczności, $ P_X=\mu $.

5. Jako wniosek z poprzedniej uwagi, otrzymujemy następujący fakt.

Twierdzenie Załóżmy, że $ X $ jest $ d $-wymiarową zmienną losową o dystrybuancie $ F $ i niech

$$ g(x_1,x_2,\ldots,x_d)=\frac{\partial ^d F}{\partial x_1\partial  x_2\ldots \partial x_d}(x_1,x_2,\ldots,x_d)\qquad \mbox{p.w.}.$$

Wówczas jeśli $ \int_{\R^d}g=1 $, to $ X $ ma rozkład ciągły i jego gęstością jest funkcja $ g $.

Przykład Losujemy punkt z koła o promieniu $ R $. Niech $ X $ oznacza odległość punktu od środka koła. Wówczas, jak już wiemy,

$$ F_X(t)=\begin{cases} 0 & \mbox{dla }t<0,\\ t^2/R^2 & \mbox{dla }0\leq t<R,\\ 1 & \mbox{dla }t\geq R. \end{cases}$$

Różniczkując, dostajemy

$$ g(t)=\begin{cases} 0 & \mbox{dla }t<0\mbox{ lub }t\geq R,\\ 2t/R^2 &\mbox{dla }0\leq t<R. \end{cases}$$

Łatwo sprawdzić, że $ \int_\R g=1 $, a więc $ g $ jest gęstością rozkładu zmiennej $ X $.

Twierdzenie Jeśli zmienna $ X=(X_1,X_2,\ldots,X_d) $ ma rozkład ciągły, to jej rozkłady brzegowe też są ciągłe. Ponadto

$$ g_{X_i}(x)=\int_{\R^{d-1}}  g(x_1,x_2,\ldots,x_{i-1},x,x_{i+1},\ldots,x_d)\mbox{d}x_1\ldots  \mbox{d}{x_{i-1}}\mbox{d}x_{i+1}\ldots \mbox{d}x_d.$$

Ogólniej, aby otrzymać gęstość wektora $ (X_{i_1},X_{i_2},\ldots,X_{i_k}) $, musimy odcałkować gęstość $ X $ po wszystkich $ x_i $ dla $ i\notin \{i_1,i_2,\ldots,i_k\} $.

Dowód:[Dowód] Mamy \begin{align*} \P(X_i \in B)&=\P((X_1,X_2,\ldots,X_d)\in \R^{i-1}\times B \times \R^{d-i})=\int_{\R^{i-1}\times B \times \R^{d-i}}g\\ &=\int_B \left(\int_{\R^{i-1}\times \R^{d-i}}g(x)\mbox{d}x_1\ldots \mbox{d}x_{i-1}\mbox{d}x_{i+1}\ldots \mbox{d}x_n\right)\mbox{d}x_i. \end{align*} W przypadku gdy rozkład brzegowy jest wielowymiarowy, rozumowanie jest analogiczne. □

Uwaga: Implikacja w drugą stronę nie zachodzi: wystarczy wziąć dowolną jednowymiarową zmienną losową $ X $ o rozkładzie ciągłym i rozważyć wektor $ (X,X) $ (który rozkładu ciągłego już nie posiada, gdyż jest skoncentrowany na zbiorze $ \{(x,x):x\in \R\} $, który ma zerową miarę Lebesgue'a).

Ważne przykłady rozkładów ciągłych

1) Rozkład jednostajny (równomierny) na zbiorze $ D $, ozn. $ \mathcal{U}(D) $. Załóżmy, że $ D\in  \mathcal{B}(\R^d) $ spełnia warunek $ 0<|D|<\infty $. Zmienna losowa $ X $ ma rozkład jednostajny na $ D $, jeśli ma gęstość

$$ g(x)=\frac{1}{|D|}1_D(x)=\begin{cases} 1/|D| & \mbox{dla }x\in D,\\ 0 & \mbox{dla }x\notin D. \end{cases}$$

Dla dowolnego $ B\in\mathcal{B}(\R^d) $ mamy wówczas $ \P(X\in B)=\int_B  g(x)\mbox{d}x=\frac{|B\cap D|}{|D|}. $

W szczególności, jeśli $ d=1 $ oraz $ D=[a,b] $, dostajemy rozkład o gęstości $ g(x)=\frac{1}{b-a}1_{[a,b]}(x) $ i dystrybuancie

$$ F_X(x)=\int_{-\infty}^xg(s)\mbox{d}s=\begin{cases} 0 & \mbox{dla }x<a,\\ (x-a)/(b-a) & \mbox{dla }a\leq x<b,\\ 1 & \mbox{dla }x\geq b. \end{cases}$$

2) Rozkład wykładniczy z parametrem $ \lambda $ ($ \lambda>0 $), ozn. Exp$ (\lambda) $. Zmienna losowa $ X $ ma taki rozkład, jeśli ma gęstość

$$ g(x)=\lambda e^{-\lambda x}1_{[0,\infty)}(x)=\begin{cases} 0 & \mbox{dla }x<0,\\ \lambda e^{-\lambda x} & \mbox{dla }x\geq 0. \end{cases}$$

Jak łatwo policzyć, wówczas

$$ F_X(x)=\begin{cases} 0 & \mbox{dla }x<0,\\ 1-e^{-\lambda x} & \mbox{dla }x\geq 0. \end{cases}$$

Rozkład wykładniczy służy do modelowania czasu oczekiwania na zjawisko całkowicie losowe. Załóżmy, że nieujemna zmienna losowa $ X $ oznacza taki czas oczekiwania, a całkowitą losowość zapisujemy poprzez własność braku pamięci:

$$ \P(X>t+s|X>s)=\P(X>t)\qquad \mbox{dla wszystkich }s,\,t\geq 0.$$

Oznaczając $ f(t)=\P(X>t) $, widzimy, iż powyższe równanie jest równoważne $ f(t+s)=f(t)f(s) $. Dodatkowo, $ f $ jest nierosnąca, prawostronnie ciągła oraz spełnia $ f(0)=1 $, $ \lim_{t\to\infty}  f(t)=0 $, skąd już wynika, że $ f(t)=e^{-\lambda x} $ dla pewnego $ \lambda>0 $, a zatem $ X $ ma rozkład wykładniczy.

3) Rozkład Gaussa (rozkład normalny). Załóżmy, że $ m $ jest ustalonym wektorem w $ \R^d $, a $ A $ jest symetryczną i dodatnio określoną macierzą $ d\times d $. Zmienna losowa $ X $ ma rozkład normalny (z parametrami $ m $ i $ A $), jeśli jej gęstość wynosi

$$ g(x)=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\exp\left(-\frac{1}{2}\langle  A(x-m),x-m\rangle\right)$$

($ \langle \cdot, \cdot\rangle $ oznacza iloczyn skalarny w $ \R^d $). Sprawdźmy, że funkcja $ g $ istotnie całkuje się do $ 1 $. Z algebry liniowej wiadomo, że istnieje izometria (macierz ortogonalna) $ B:\R^d\to \R^d $ taka, że $ B^t AB $ ma postać diagonalną:

$$ B^tAB=\left[\begin{array}{cccc} a_1 & 0 & \ldots & 0\\ 0 & a_2 &\ldots & 0\\  & & \ldots & \\  0 & 0 & \ldots & a_d  \end{array}\right].$$

Podstawiając $ x-m=By $, dostajemy \begin{align*} \int_{\R^d} g(x)\mbox{d}x& =\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d} \exp\left(-\frac{1}{2} \langle ABy,By\rangle\right)|\mbox{det}B|\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d} \exp\left(-\frac{1}{2}\langle B^{-1}ABy,y\rangle \right)\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d}\exp\left(-\frac{1}{2} \sum_{k=1}^d a_ky_k^2\right)\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\prod_{k=1}^d \int_\R e^{-a_ky_k^2/2}\mbox{d}y_k\\ &=\frac{\sqrt{\mbox{det}A}}{\sqrt{a_1a_2\ldots a_d}}\prod_{k=1}^d\left(\frac{1}{\sqrt{2\pi}}\int_\R e^{-z_k^2/2}\mbox{d}z_k\right)=1, \end{align*} gdzie w przedostatnim kroku dokonaliśmy podstawienia $ z_k=\sqrt{a_k}y_k $, a w ostatnim skorzystaliśmy z równości

$$ \mbox{det}A=a_1a_2\ldots a_d\quad \mbox{ oraz }\quad  \frac{1}{\sqrt{2\pi}}\int_\R e^{-x^2/2}\mbox{d}x=1.$$

W szczególnym przypadku $ d=1 $, jeśli $ m\in \R $ i $ \sigma>0 $ (i za macierz $ A $ weźmiemy $ [\sigma^{-2}] $), otrzymujemy gęstość

$$  g(x)=\frac{1}{\sqrt{2\pi}\sigma}\exp\left(-\frac{(x-m)^2}{2\sigma^2} \right),\qquad x\in \R.$$

Rozkład ten oznaczamy $ \mathcal{N}(m,\sigma^2) $. W szczególności, rozkład $ \mathcal{N}(0,1) $ nazywamy standardowym rozkładem normalnym (standardowym rozkładem Gaussa).

W przypadku zmiennych o rozkładzie ciągłym, mamy następujące kryterium niezależności.

Twierdzenie Załóżmy, że $ g_1 $, $ g_2 $, $ \ldots $, $ g_n $ są gęstościami. Wówczas zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ o rozkładach z gęstościami $ g_1 $, $ g_2 $, $ \ldots $, $ g_n $ są niezależne wtedy i tylko wtedy, gdy zmienna $ (X_1,X_2,\ldots,X_n) $ ma gęstość $ g(x_1,x_2,\ldots,x_n)=g_1(x_1)g_2(x_2)\ldots g_n(x_n). $
Dowód:[Dowód] $ \Rightarrow $ Mamy, na mocy niezależności zmiennych, \begin{align*} F_{(X_1,X_2,\ldots,X_n)}&(x_1,x_2,\ldots,x_n)\\ &=F_{X_1}(x_1)F_{X_2}(x_2) \ldots F_{X_n}(x_n)\\ &=\int_{-\infty}^{x_1} g_1(y_1)\mbox{d}y_1\int_{-\infty}^{x_2}g_2(y_2)\mbox{d}y_2\ldots \int_{-\infty}^{x_n}g_n(y_n)\mbox{d}y_n\\ &=\int_{(-\infty,x_1]\times \ldots \times(-\infty,x_n]}g_1(y_1)g_2(y_2)\ldots g_n(y_n)\mbox{d}y_1\mbox{d}y_2\ldots \mbox{d}y_n, \end{align*} skąd natychmiast wynika teza.

$ \Leftarrow $ Piszemy ten sam ciąg równości, zaczynając od końca. □

Przykład Zmienne $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ o rozkładach jednostajnych na $ D_1 $, $ D_2 $, $ \ldots $, $ D_n $ są niezależne wtedy i tylko wtedy, gdy $ (X_1,X_2,\ldots,X_n) $ ma rozkład jednostajny na $ D_1\times D_2\times \ldots \times D_n $. Wynika to natychmiast z tego, że gęstość rozkładu jednostajnego na $ D_1\times D_2\times \ldots  \times D_n $ wynosi

$$ \frac{1_{D_1\times D_2\times \ldots \times D_n}(x_1,x_2,\ldots,x_n)} {|D_1\times D_2\times \ldots \times D_n|}= \frac{1_{D_1}(x_1)}{|D_1|}\cdot \frac{1_{D_2}(x_2)}{|D_2|}\cdot \ldots  \cdot \frac{1_{D_n}(x_n)}{|D_n|},$$

a czynniki po prawej stronie to gęstości rozkładów jednostajnych na $ D_1 $, $ D_2 $, $ \ldots $, $ D_n $, odpowiednio.

W przypadku gdy zmienne losowe są niezależne i mają rozkłady ciągłe, istnieje efektywna metoda liczenia rozkładu ich sumy. Zachodzi następujący fakt.

Twierdzenie Załóżmy, że $ X_1 $, $ X_2 $ są niezależnymi, jednowymiarowymi zmiennymi losowymi o rozkładach z gęstościami $ g_1 $ oraz $ g_2 $, odpowiednio. Wówczas zmienna $ X_1+X_2 $ ma rozkład z gęstością

$$ g_1*g_2(x)=\int_\R g_1(x-y)g_2(y)\mbox{d}y.$$

Widzimy więc, że $ g_1*g_2 $ to splot gęstości $ g_1 $ i $ g_2 $.

Dowód:[Dowód] Dla dowolnego $ B\in \mathcal{B}(\R) $ mamy \begin{align*} \mathbb{P}(X_1+X_2\in B)&=P_{(X_1,X_2)}(\{(x,y):x+y\in B\})\\ &=\iint_{\{(x,y):x+y\in B\}} g_{(X_1,X_2)}(x,y)\mbox{d}x\mbox{d}y\\ &=\iint_{\{(x,y):x+y\in B\}} g_1(x)g_2(y)\mbox{d}x\mbox{d}y\\ &=\iint_{\R^2} 1_B(x+y)g_1(x)g_2(y)\mbox{d}x\mbox{d}y\\ &=\int_\R\left(\int_\R 1_B(x+y)g_1(x)\mbox{d}x\right)g_2(y)\mbox{d}y\\ &=\int_\R\left(\int_\R 1_B(z)g_1(z-y)\mbox{d}z\right)g_2(y)\mbox{d}y\\ &=\int_B\left(\int_\R g_1(z-y)g_2(y)\mbox{d}y\right)\mbox{d}z\\ &=\int_B g_1*g_2(z)\mbox{d}z.\qedhere \end{align*} □

Przykłady:

1) Jeśli $ X_1 $, $ X_2 $ są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na $ [0,1] $, to $ g_1(x)=g_2(x)=1_{[0,1]}(x) $, a więc $ X_1+X_2 $ ma gęstość \begin{align*} g_1*g_2(x)&=\int_\R 1_{[0,1]}(x-y)1_{[0,1]}(y)\mbox{d}y\\ & =\int_\R 1_{[x-1,x]}(y)1_{[0,1]}(y)\mbox{d}y\\ &=\big|[x-1,x]\cap [0,1]\big|=\begin{cases} 0 & \mbox{dla }x<0,\\ x & \mbox{dla }0\leq x<1,\\ 2-x & \mbox{dla }1 \leq x<2,\\ 0 & \mbox{dla }x\geq 2. \end{cases} \end{align*}

2) Załóżmy, że $ X_1 $, $ X_2 $ są niezależnymi zmiennymi losowymi o rozkładach $ N(m_1,\sigma_1^2) $, $ N(m_2,\sigma_2^2) $: zatem

$$  g_i(x)=\frac{1}{\sqrt{2\pi}\sigma_i}\exp\left(-\frac{(x-m_i)^2}{2\sigma_ i^2}\right),\qquad i=1,\,2.$$

Wówczas $ X_1+X_2 $ ma gęstość \begin{align*} g_1*g_2(x)&=\frac{1}{2\pi \sigma_1\sigma_2}\int_\R \exp\left(-\frac{(x-y-m_1)^2}{2\sigma_1^2} -\frac{(y-m_2)^2}{2\sigma_2^2}\right)\mbox{d}y\\ &=\frac{1}{\sqrt{2\pi(\sigma_1^2+\sigma_2^2)}}\exp\left(-\frac{ (x-m_1-m_2)^2}{2(\sigma_1^2+\sigma_2^2)}\right) \end{align*} (dowód ostatniej równości pozostawiamy jako ćwiczenie). Zatem $ X_1+X_2\sim N(m_1+m_2,\sigma_1^2+\sigma_2^2) $. I ogólniej, przez indukcję: jeśli $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależnymi zmiennymi losowymi o rozkładach $ N(m_1,\sigma_1^2) $, $ N(m_2,\sigma_2^2) $, $ \ldots $, $ N(m_n,\sigma_n^2) $, to $ X_1+X_2+\ldots+X_n $ ma rozkład $ N(m_1+m_2+\ldots+m_n,\sigma_1^2+\sigma_2^2+\ldots+\sigma_n^2) $.

Zadania

1. Rzucamy monetą, dla której prawdopodobieństwo wypadnięcia orła wynosi $ p\in (0,1] $, aż do momentu wyrzucenia $ k $ orłów (łącznie, niekoniecznie pod rząd). Niech $ X $ oznacza liczbę rzutów. Wyznaczyć rozkład zmiennej $ X $.

2. Rzucamy dwa razy kostką. Niech $ X $, $ Y $ oznaczają minimum oraz maksimum z uzyskanych liczb oczek, odpowiednio. Wyznaczyć rozkłady zmiennych $ X $, $ Y $ oraz sprawdzić, że zmienne $ X $ i $ 7-Y $ mają ten sam rozkład.

3. Na skrzyżowaniu ulic na pewnym kierunku światło czerwone świeci się minutę, a światło zielone - pół minuty (zakładamy, że nie ma żółtego światła). Samochód dojeżdża do skrzyżowania (w danym kierunku) w losowym momencie czasowym. Niech $ X $ oznacza czas spędzony na skrzyżowaniu; zakładamy, że nie ma korka.

a) Wyznaczyć rozkład zmiennej $ X $.

b) Załóżmy, że po 20 sekundach samochód wciąż nie przejechał skrzyżowania; jakie jest prawdopodobieństwo, że opuści je w przeciągu najbliższych $ 10 $ sekund?

4. Dystrybuanta zmiennej losowej $ X $ dana jest wzorem

$$ F_X(t)= \begin{cases} 0 & \text{dla }t<-1,\\ \frac{1}{2}(t+1) & \text{dla } -1\leq t <0,\\ \frac{3}{4} & \text{dla } 0\leq t <4,\\ 1 & \text{dla }t\geq 4. \end{cases}$$

Obliczyć $ \mathbb{P}(X=-5) $, $ \mathbb{P}(2<X\leq 5) $, $ \mathbb{P}(X=4) $, $ \mathbb{P}(-1<X<0) $.

5. Zmienna losowa $ X $ ma rozkład o dystrybuancie

$$F(t)=\begin{cases} 0 & \mbox{dla }t< 0,\\ t/2 & \mbox{dla }0\leq t<2,\\ 1 & \mbox{dla }t\geq 2. \end{cases}.$$

Wyznaczyć dystrybuantę zmiennych $ Y=\max(X,1) $ oraz $ Z=\min(X,X^2) $.

6. Niech $ F:\R\to [0,1] $ będzie funkcją prawostronnie ciągłą, niemalejącą, taką że $ \lim_{t\to\infty}F(t)=1 $ oraz $ \lim_{t\to-\infty}F(t)=0 $. Wykazać, że $ F $ jest dystrybuantą pewnej zmiennej losowej w pewnej przestrzeni probabilistycznej.

7. Z talii $ 52 $ kart losujemy ze zwracaniem pięć razy po jednej karcie. Niech $ X $ oznacza liczbę wyciągniętych pików, $ Y $ - liczbę wyciągniętych kierów, a $ Z $ - liczbę wyciągniętych waletów. Czy zmienne $ X $, $ Y $ są niezależne? Czy zmienne $ X $, $ Z $ są niezależne?

8. Zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ $ (n\geq 6) $ są niezależne i mają ten sam rozkład, zadany wzorem $ \mathbb{P}(X_i=-1)=\mathbb{P}(X_i=1)=1/2 $, $ i=1,\,2,\,\ldots,\,n $.

a) Czy zmienne $ X_1+X_2 $, $ X_1X_2 $ są niezależne?

b) Czy zmienne $ X_1+X_2 $, $ X_3 $, $ X_4+X_5X_6 $ są niezależne?

c) Czy zmienne $ X_1 $, $ X_1X_2 $, $ \ldots $, $ X_1X_2\ldots X_n $ są niezależne?

9. Zmienne losowe $ X $, $ Y $ są niezależne, przy czym dla $ n=1,\,2,\,\ldots $ mamy $  \mathbb{P}(X=n)=(1-p)^{n-1}p $ oraz $ \mathbb{P}(Y=n)=(1-q)^{n-1}q. $ Obliczyć $ \mathbb{P}(X\leq Y) $.

10. Dla dowolnej liczby $ \omega\in [0,1] $, niech $ X_n(\omega) $ oznacza $ n $-tą cyfrę rozwinięcia dwójkowego $ \omega $, $ n=1,\,2,\,\ldots $ (jeśli $ \omega $ posiada dwa różne rozwinięcia, to bierzemy to, które zawiera skończoną liczbę jedynek). Wykazać, że $ X_1 $, $ X_2 $, $ \ldots $ są niezależnymi zmiennymi losowymi na przestrzeni probabilistycznej $ ([0,1],\mathcal{B}([0,1]),|\cdot|) $.

11. Zmienne $ X $, $ Y $ są niezależne, przy czym $ X $ nie ma atomów. Udowodnić, że $ \mathbb{P}(X=Y)=0 $.

12. Zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależne i mają rozkłady Poissona z parametrami $ \lambda_1 $, $ \lambda_2 $, $ \ldots $, $ \lambda_n $. Udowodnić, że $ X_1+X_2+\ldots+X_n $ ma rozkład Poissona z parametrem $ \lambda_1+\lambda_2+\ldots+\lambda_n $.

13. Zmienna losowa $ X $ jest niezależna od siebie samej. Udowodnić, że istnieje $ c $ takie, że $ \mathbb{P}(X=c)=1 $.

14. Zmienna losowa $ X $ ma rozkład wykładniczy z parametrem $ 1 $.

a) Wyznaczyć rozkłady zmiennych $ [X] $ oraz $ \{X\} $.

b) Czy zmienne te są niezależne?\\ Uwaga: $ [x] $, $ \{x\} $ oznaczają część całkowitą i część ułamkową liczby $ x\in \R $, odpowiednio.

15. Zmienna losowa $ X $ ma rozkład jednostajny na przedziale $ [0,1] $. Wyznaczyć rozkład zmiennej $ Y=-\ln X $.

16. Zmienna losowa $ X $ ma rozkład normalny $ \mathcal{N}(0,1) $. Wyznaczyć gęstości zmiennych $ Y=e^X $, $ Z=X^2 $.

17. Tekst broszury zawiera $ n=100000 $ znaków. W trakcie pisania (na komputerze) każdy znak może zostać błędnie wprowadzony z prawdopodobieństwem $ 0,001 $. Z kolei redaktor znajduje każdy z błędów z prawdopodobieństwem $ 0,9 $, po czym tekst wraca do autora, który znajduje każdy z pozostałych błędów z prawdopodobieństwem $ 0,5 $. Oszacować prawdopodobieństwo tego, że po obu korektach broszura będzie zawierała nie więcej niż $ 3 $ błędy.

18. Zmienne losowe $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależne i mają rozkłady wykładnicze z parametrami $ \lambda_1 $, $ \lambda_2 $, $ \ldots $, $ \lambda_n $, odpowiednio. Wyznaczyć rozkład zmiennej $ Y=\max(X_1,X_2,\ldots,X_n) $.

19. Zmienna losowa $ (X,Y) $ ma rozkład z gęstością

$$ g(x,y)=Cxy1_{\{0\leq x\leq y\leq 1\}}.$$

a) Wyznaczyć $ C $.

b) Obliczyć $ \mathbb{P}(X+Y\leq 1) $.

c) Wyznaczyć rozkład zmiennej $ X/Y $.

d) Czy $ X $, $ Y $ są niezależne?

e) Czy $ X/Y $, $ Y $ są niezależne?

20. Zmienne $ X $, $ Y $ są niezależne i mają rozkład jednostajny na przedziale $ [-1,1] $. Obliczyć $ \P(X^2+Y^2\leq 1) $.

21. Zmienna losowa $ X $ ma rozkład Cauchy'ego, tzn. z gęstością

$$ g(x)=\frac{1}{\pi}\frac{1}{1+x^2}.$$

Udowodnić, że zmienne $ X $, $ 1/X $ mają ten sam rozkład.

22. Niech $ \Gamma(r)=\int_0^\infty x^{r-1}e^{-x}dx $, $ r>0 $. Mówimy, że zmienna $ X $ ma rozkład gamma z parametrami $ \lambda,\,r $ (ozn. $ \Gamma(\lambda,r) $), jeśli ma gęstość

$$ g_{\lambda,r}(x)=\frac{1}{\Gamma(r)}\lambda^rx^{r-1}e^{-\lambda  x}1_{[0,\infty)}(x).$$

a) Udowodnić, że jeśli $ X $, $ Y $ są niezależnymi zmiennymi losowymi, $ X \sim \Gamma(\lambda,r), $ $ Y\sim \Gamma(\lambda,s) $, to $ X+Y \sim \Gamma(\lambda,r+s) $.

b) Udowodnić, że jeśli $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależnymi zmiennymi losowymi o rozkładzie Exp$ (\lambda) $, to $ X_1+X_2+\ldots+X_n $ ma rozkład $ \Gamma(\lambda,n) $.

c) Udowodnić, że jeśli $ X_1 $, $ X_2 $, $ \ldots $, $ X_n $ są niezależnymi zmiennymi losowymi o rozkładzie $ \mathcal{N}(0,1) $, to $ X_1^2+X_2^2+\ldots+X_n^2 $ ma rozkład $ \Gamma(1/2,n/2) $ (jest to tzw. rozkład chi kwadrat o $ n $ stopniach swobody.

23. Zmienne losowe $ X $, $ Y $ są niezależne i mają rozkład wykładniczy z parametrem $ 1 $. Udowodnić, że zmienne $ X/Y $ oraz $ X+Y $ są niezależne.