Zmienne losowe i ich rozkłady
Przechodzimy do kluczowego pojęcia rachunku prawdopodobieństwa.














W szczególności, widzimy iż jeśli , to
,
,
,
są jednowymiarowymi zmiennymi losowymi.
Kolejnym ważnym pojęciem jest tzw. rozkład zmiennej losowej. Załóżmy, że jest przestrzenią probabilistyczną, a
jest
-wymiarową zmienną losową. Dla dowolnego
określamy
![]() |
(czyli jest obrazem miary
przy przekształceniu
). Jak łatwo sprawdzić,
jest nową przestrzenią probabilityczną.





![$ F_X:\R^d\to [0,1] $](/sites/default/files/tex/3a7c7cd6b256f6723b5abb5831b354923581859b.png)
Przykłady:
1. Rzucamy raz symetryczną monetą; . Niech
,
. Wówczas
![]() |
2. Wybieramy losowo punkt z koła o promieniu : mamy zatem
. Niech
będzie odległością wylosowanego punktu od środka. Wówczas
![]() |

a) jest niemalejąca.
b) ,
.
c) jest prawostronnie ciągła.
d) dla dowolnego istnieje lewostronna granica
i
![]() |
e) jest nieciągła w punkcie
wtedy i tylko wtedy, gdy
(taką liczbę
nazywamy wówczas atomem rozkładu). Ściślej, dla dowolnego
mamy
.
f) dla dowolnych mamy

![$ (-\infty,t_1]\subset (-\infty,t_2] $](/sites/default/files/tex/ae2f123bc420ee1689f8c71d042daa2aa1939062.png)
![$ F_X(t_1)=P_X((-\infty,t_1])\leq P_X((-\infty,t_2])=F_X(t_2). $](/sites/default/files/tex/af9f401bb4fe445155bc83107e95483d242452c6.png)
b) Dla dowolnego ciągu rosnącego do nieskończoności zachodzi równość
i przedziały pod sumą są wstępujące. Zatem, korzystając z twierdzenia o ciągłości,
![]() |
Analogicznie dowodzimy drugą część.
c) Weźmy oraz ciąg
malejący do
. Ciąg przedziałów
jest zstępujący i
, a więc \begin{align*} 0&=P_X\left(\bigcap_n (t,t_n]\right)=\lim_{n\to\infty}P_X((t,t_n])=\lim_{n\to\infty} P_X((-\infty,t_n]\setminus (-\infty,t])\\ &=\lim_{n\to\infty}\Big[P_X((-\infty,t_n])-P_X((-\infty,t])\Big]=\lim_{n\to \infty}(F_X(t_n)-F_X(t)). \end{align*}
d) Rozumujemy podobnie jak w c).
e) Wynika to wprost z d) oraz równości .
f) Udowodnimy tylko pierwszą równość, pozostałe wykazuje się analogicznie:
![]() |
□
Uwaga: Jeśli funkcja spełnia warunki a), b) oraz c) z powyższego twierdzenia, to jest dystrybuantą pewnego rozkładu (dowód pozostawiamy jako ćwiczenie).




![]() |
dla dowolnego podzbioru borelowskiego . Klasa wszystkich zbiorów
spełniających (*) tworzy
-układ. Z drugiej strony, równość dystrybuant daje, iż \begin{align*} & P_X((-\infty,x_1]\times (-\infty,x_2]\times \ldots\times (-\infty,x_d])=F_X(x)=F_Y(x)\\ &\qquad = P_Y((-\infty,x_1]\times (-\infty,x_2]\times \ldots\times (-\infty,x_d]), \end{align*} a zatem (*) zachodzi dla zbiorów postaci
, które tworzą
-układ generujący
. Teza twierdzenia wynika więc natychmiast z lematu o
układach. □







Uwaga: Rozkłady brzegowe nie wyznaczają na ogół rozkładu łącznego. Rozważmy następujący przykład:
I - rzucamy trzy razy monetą i niech będzie liczbą reszek przed pojawieniem się pierwszego orła, a
oznacza łączną liczbę orłów.
II - rzucamy dwie serie po trzy razy monetą i niech będzie liczbą reszek przed pojawieniem się pierwszego orła w pierwszej serii, a
oznacza łączną liczbę orłów w drugiej serii.
Jest oczywiste, że zmienne oraz
mają ten sam rozkład; tak samo,
oraz
mają ten sam rozkład. Z drugiej strony, zmienne
oraz
nie mają tego samego rozkładu: istotnie,
![]() |
Tak więc rozkłady brzegowe zmiennych oraz
są identyczne, ale rozkłady łączne są różne.
W dalszej części wykładu będziemy stosować następujące oznaczenie: jeśli jest
-wymiarową zmienną losową, to
![]() |
jest -ciałem zdarzeń generowanym przez
.











![]() |
Przykłady:
1. Zdarzenia ,
,
,
są niezależne wtedy i tylko wtedy, gdy
,
,
,
są niezależne. Istotnie, wynika to natytchmiast z faktu, iż dla dowolnego zdarzenia
oraz dowolnego podzbioru borelowskiego prostej mamy
![]() |
2. W schemacie prób Bernoulliego określmy \begin{align*} X_i(\omega)&=X_i(\omega_1,\omega_2,\ldots,\omega_n)\\ &:=\omega_i=\begin{cases} 1 & \mbox{jeśli w
-tej próbie był sukces},\\ 0 & \mbox{jeśli w
-tej próbie była porażka}. \end{cases} \end{align*} Wówczas
,
,
,
są niezależnymi zmiennymi losowymi. Wyniknie to łatwo z faktów, które przytoczymy w dalszej części wykładu.
Omówimy teraz pewne warunki które są równoważne niezależności zmiennych losowych. Dla prostoty, skupimy się na przypadku jednowymiarowym, ale poniższe twierdzenie pozostaje w mocy także w sytuacji gdy zmienne przyjmują wartości wektorowe.




1) ,
,
,
są niezależne.
2) Dla dowolnych ,
,
,
zdarzenia
,
,
,
są niezależne.
3) ,
4) Dla dowolnego ,
![]() |
2)4). Mamy \begin{align*} &F_{(X_1,X_2,\ldots,X_n)}(x_1,x_2,\ldots,x_n)=\P(X_1\leq x_1,X_2\leq x_2,\ldots,X_n\leq x_n)\\ &=\P(X_1\leq x_1)\P(X_2\leq x_2)\ldots\P(X_n\leq x_n)=F_{X_1}(x_1)F_{X_2}(x_2) \ldots F_{X_n}(x_n). \end{align*}
4)3) Niech
będzie
-wymiarową zmienną losową o rozkładzie
. Dla dowolnego
mamy \begin{align*} &F_{X'}(x_1,x_2,\ldots,x_n)=P_{X_1}\otimes \ldots\otimes P_{X_n}\big((-\infty,x_1]\times (-\infty,x_2]\times \ldots \times (-\infty,x_n]\big)\\ &=F_{X_1}(x_1)F_{X_2}(x_2)\ldots F_{X_n}(x_n)=F_{(X_1,X_2,\ldots,X_n)}(x_1,x_2,\ldots,x_n). \end{align*} Na mocy twierdzenia o jednoznaczności, wynika stąd
.
3)1) Dla dowolnych podzbiorów borelowskich
,
,
,
prostej rzeczywstej mamy \begin{align*} & \P(X_1\in B_1,X_2\in B_2,\ldots,X_n\in B_n)=P_{(X_1,X_2,\ldots,X_n)}(B_1\times B_2\times \ldots \times B_n)\\ &=P_{X_1}(B_1)P_{X_2}(B_2)\ldots P_{X_n}(B_n)= \P(X_1\in B_1)\P(X_2\in B_2)\ldots \P(X_n\in B_n). \end{align*} Dowód jest zakończony. □
Przechodzimy teraz do bardziej szczegółowego omówienia typów i przykładów rozkładów prawdopodobieństwa w .



![]() |
jest zbiorem atomów rozkładu.
Uwagi:
1) Dla dowolnej zmiennej -wyiarowej
zbiór
jest co najwyżej przeliczalny, gdyż
![]() |
i każdy ze zbiorów występujących pod sumą jest skończony.
2) Rozkład dyskretny jest jednoznacznie wyznaczony przez co najwyżej przeliczalny zbiór oraz funkcję
taką, że
. Istotnie, wówczas
![]() |
Odnotujmy bardzo prosty fakt.





W przypadku gdy mamy do czynienia ze skończoną rodziną zmiennych dyskretnych, warunek niezależności może być badany za pomocą następującego prostego kryterium.








![]() |

Dla ułatwienia zapisu, przeprowadzimy dowód tylko dla
; przypadek
rozpatruje się analogicznie. Mamy \begin{align*} &\P(X_1\in B_1,X_2\in B_2)=\P(X_1\in S_{X_1}\cap B_1,X_2\in S_{X_2}\cap B_2)\\ &=\sum_{x_1\in S_{X_1}\cap B_1,x_2\in S_{X_2}\cap B_2} \P(X_1=x_1,X_2=x_2)\\ &=\sum_{x_1\in S_{X_1}\cap B_1}\sum_{x_2\in S_{X_2}\cap B_2}\P(X_1=x_1)\P(X_2=x_2)=\P(X_1\in B_1)\P(X_2\in B_2). \qedhere \end{align*} □
Przykłady:
1) Rozkład skupiony w punkcie , ozn.
. Zmienna
ma rozkład skupiony w
, jeśli
;
.
2) Rozkład dwupunktowy skupiony w ,
. Zmienna
ma rozkład dwupunktowy skupiony na
jeśli
oraz
dla pewnego
.
3) Rozkład Bernoulliego (rozkład dwumianowy) z parametrami ,
(
,
,
,
), ozn.
. Zmienna
ma rozkład
, jeśli
,
. Innymi słowy, jeśli mamy dany schemat Bernoulliego składający się z
prób o prawdopodobieństwie sukcesu
, to łączna liczba sukcesów ma rozkład Bernoulliego
.
Dygresja. Załóżmy, że zmienne ,
,
,
zadane są wzorem
![]() |
Wówczas jak łatwo sprawdzić korzystając z Twierdzenia [link], zmienne ,
,
,
są niezależne. Z drugiej strony,
jest łączną liczbą sukcesów. Otrzymaliśmy więc następujący fakt:
Załóżmy, że ,
,
,
są niezależnymi zmiennymi losowymi o tym samym rozkładzie (czasami te dwie własności będziemy w skrócie oznaczać przez i.i.d.) zadanym przez
. Wówczas zmienna
ma rozkład
.
Skorzystaliśmy tu z następującej prostej obserwacji:






4) Rozkład geometryczny z parametrem (
), ozn. Geom(
). Zmienna
ma taki rozkład, jeśli
![]() |
Interpretacja: załóżmy, iż dany jest schemat Bernoulliego o nieskończonej liczbie prób i prawdopodobieństwie sukcesu . Niech
oznacza liczbę porażek poprzedzających pojawienie się pierwszego sukcesu. Wówczas
ma rozkład geometryczny z parametrem
. Istotnie, wprowadzając zmienne
,
,
jak w poprzednim przykładzie, możemy zapisać \begin{align*} \P(X=k)&=\P(X_1=0,\,X_2=0,\,\ldots,\,X_{k}=0,\,X_{k+1}=1)\\ &=\P(X_1=0)\P(X_2=0)\ldots\P(X_{k}=0)\P(X_{k+1}=1)=(1-p)^{k}p. \end{align*}
Czasami w literaturze rozkład geometryczny jest definiowany nieco inaczej: mianowicie, Geom(
) jeśli dla dowolnej
, mamy
Wówczas zmienna ta ma interpretację jako czas oczekiwania na pierwszy sukces w nieskończonym schemacie Bernoulliego o prawdopodobieństwie sukcesu
. Jest ona związana z poprzednią zmienną zależnością
.
5) Rozkład Poissona z parametrem (
), ozn. Pois(
). Zmienna
ma taki rozkład, jeśli
![]() |
Rozkład Poissona powstaje przez odpowiednie przejście graniczne dla rozkładów Bernoulliego. Ściślej, zachodzi następujący fakt (który pozostawiamy bez dowodu).




![]() |
Innymi słowy, jeśli ma rozkład
,
ma rozkład Pois
i
, to rozkłady
oraz
są bliskie.
Przechodzimy do kolejnej ważnej rozdziny rozkładów.




![]() |
Funkcję nazywamy wówczas gęstością rozkładu.
Uwagi:
1. Jeśli jest ciągły, to
, ale nie na odwrót (warunkiem koniecznym i dostatecznym jest równość
dla dowolnego
o zerowej mierze Lebesgue'a).
2. Jeśli jest gęstością pewnego rozkładu
oraz
jest funkcją borelowską, to
jest gęstością
wtedy i tylko wtedy, gdy
p.w.. Istotnie, implikacja
jest oczywista:
![]() |
Przechodzimy do implikacji : mamy
dla dowolnego zbioru borelowskiego
. Załóżmy, że teza nie zachodzi; wówczas jeden ze zbiorów
,
ma dodatnią miarę. Bez straty ogólności załóżmy, że jest to pierwszy zbiór, i oznaczmy go przez
. Jest to zbiór borelowski, i
, sprzeczność.
3. Każda funkcja borelowska taka, że
jest gęstością pewnego rozkładu, zadanego przez
dla
.
4. Zmienna ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja borelowska
taka, że
![]() |
Istotnie:
Mamy
i wystarczy skorzystać z definicji gęstości.
Zbiegając z
,
,
,
do nieskończoności widzimy, że
. Niech
będzie rozkładem prawdopodobieństwa w
, zadanym przez gęstość
(patrz Uwaga 3 powyżej). Wówczas, na mocy poprzedniej implikacji mamy
, a zatem, z twierdzenia o jednoznaczności,
.
5. Jako wniosek z poprzedniej uwagi, otrzymujemy następujący fakt.



![]() |
Wówczas jeśli , to
ma rozkład ciągły i jego gęstością jest funkcja
.


![]() |
Różniczkując, dostajemy
![]() |
Łatwo sprawdzić, że , a więc
jest gęstością rozkładu zmiennej
.

![]() |
Ogólniej, aby otrzymać gęstość wektora , musimy odcałkować gęstość
po wszystkich
dla
.
Uwaga: Implikacja w drugą stronę nie zachodzi: wystarczy wziąć dowolną jednowymiarową zmienną losową o rozkładzie ciągłym i rozważyć wektor
(który rozkładu ciągłego już nie posiada, gdyż jest skoncentrowany na zbiorze
, który ma zerową miarę Lebesgue'a).
Ważne przykłady rozkładów ciągłych
1) Rozkład jednostajny (równomierny) na zbiorze , ozn.
. Załóżmy, że
spełnia warunek
. Zmienna losowa
ma rozkład jednostajny na
, jeśli ma gęstość
![]() |
Dla dowolnego mamy wówczas
W szczególności, jeśli oraz
, dostajemy rozkład o gęstości
i dystrybuancie
![]() |
2) Rozkład wykładniczy z parametrem (
), ozn. Exp
. Zmienna losowa
ma taki rozkład, jeśli ma gęstość
![]() |
Jak łatwo policzyć, wówczas
![]() |
Rozkład wykładniczy służy do modelowania czasu oczekiwania na zjawisko całkowicie losowe. Załóżmy, że nieujemna zmienna losowa oznacza taki czas oczekiwania, a całkowitą losowość zapisujemy poprzez własność braku pamięci:
![]() |
Oznaczając , widzimy, iż powyższe równanie jest równoważne
. Dodatkowo,
jest nierosnąca, prawostronnie ciągła oraz spełnia
,
, skąd już wynika, że
dla pewnego
, a zatem
ma rozkład wykładniczy.
3) Rozkład Gaussa (rozkład normalny). Załóżmy, że jest ustalonym wektorem w
, a
jest symetryczną i dodatnio określoną macierzą
. Zmienna losowa
ma rozkład normalny (z parametrami
i
), jeśli jej gęstość wynosi
![]() |
( oznacza iloczyn skalarny w
). Sprawdźmy, że funkcja
istotnie całkuje się do
. Z algebry liniowej wiadomo, że istnieje izometria (macierz ortogonalna)
taka, że
ma postać diagonalną:
![]() |
Podstawiając , dostajemy \begin{align*} \int_{\R^d} g(x)\mbox{d}x& =\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d} \exp\left(-\frac{1}{2} \langle ABy,By\rangle\right)|\mbox{det}B|\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d} \exp\left(-\frac{1}{2}\langle B^{-1}ABy,y\rangle \right)\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\int_{\R^d}\exp\left(-\frac{1}{2} \sum_{k=1}^d a_ky_k^2\right)\mbox{d}y\\ &=\frac{\sqrt{\mbox{det}A}}{(2\pi)^{d/2}}\prod_{k=1}^d \int_\R e^{-a_ky_k^2/2}\mbox{d}y_k\\ &=\frac{\sqrt{\mbox{det}A}}{\sqrt{a_1a_2\ldots a_d}}\prod_{k=1}^d\left(\frac{1}{\sqrt{2\pi}}\int_\R e^{-z_k^2/2}\mbox{d}z_k\right)=1, \end{align*} gdzie w przedostatnim kroku dokonaliśmy podstawienia
, a w ostatnim skorzystaliśmy z równości
![]() |
W szczególnym przypadku , jeśli
i
(i za macierz
weźmiemy
), otrzymujemy gęstość
![]() |
Rozkład ten oznaczamy . W szczególności, rozkład
nazywamy standardowym rozkładem normalnym (standardowym rozkładem Gaussa).
W przypadku zmiennych o rozkładzie ciągłym, mamy następujące kryterium niezależności.















Piszemy ten sam ciąg równości, zaczynając od końca. □











![]() |
a czynniki po prawej stronie to gęstości rozkładów jednostajnych na ,
,
,
, odpowiednio.
W przypadku gdy zmienne losowe są niezależne i mają rozkłady ciągłe, istnieje efektywna metoda liczenia rozkładu ich sumy. Zachodzi następujący fakt.





![]() |
Widzimy więc, że to splot gęstości
i
.

Przykłady:
1) Jeśli ,
są niezależnymi zmiennymi losowymi o rozkładzie jednostajnym na
, to
, a więc
ma gęstość \begin{align*} g_1*g_2(x)&=\int_\R 1_{[0,1]}(x-y)1_{[0,1]}(y)\mbox{d}y\\ & =\int_\R 1_{[x-1,x]}(y)1_{[0,1]}(y)\mbox{d}y\\ &=\big|[x-1,x]\cap [0,1]\big|=\begin{cases} 0 & \mbox{dla }x<0,\\ x & \mbox{dla }0\leq x<1,\\ 2-x & \mbox{dla }1 \leq x<2,\\ 0 & \mbox{dla }x\geq 2. \end{cases} \end{align*}
2) Załóżmy, że ,
są niezależnymi zmiennymi losowymi o rozkładach
,
: zatem
![]() |
Wówczas ma gęstość \begin{align*} g_1*g_2(x)&=\frac{1}{2\pi \sigma_1\sigma_2}\int_\R \exp\left(-\frac{(x-y-m_1)^2}{2\sigma_1^2} -\frac{(y-m_2)^2}{2\sigma_2^2}\right)\mbox{d}y\\ &=\frac{1}{\sqrt{2\pi(\sigma_1^2+\sigma_2^2)}}\exp\left(-\frac{ (x-m_1-m_2)^2}{2(\sigma_1^2+\sigma_2^2)}\right) \end{align*} (dowód ostatniej równości pozostawiamy jako ćwiczenie). Zatem
. I ogólniej, przez indukcję: jeśli
,
,
,
są niezależnymi zmiennymi losowymi o rozkładach
,
,
,
, to
ma rozkład
.
Zadania
1. Rzucamy monetą, dla której prawdopodobieństwo wypadnięcia orła wynosi , aż do momentu wyrzucenia
orłów (łącznie, niekoniecznie pod rząd). Niech
oznacza liczbę rzutów. Wyznaczyć rozkład zmiennej
.
2. Rzucamy dwa razy kostką. Niech ,
oznaczają minimum oraz maksimum z uzyskanych liczb oczek, odpowiednio. Wyznaczyć rozkłady zmiennych
,
oraz sprawdzić, że zmienne
i
mają ten sam rozkład.
3. Na skrzyżowaniu ulic na pewnym kierunku światło czerwone świeci się minutę, a światło zielone - pół minuty (zakładamy, że nie ma żółtego światła). Samochód dojeżdża do skrzyżowania (w danym kierunku) w losowym momencie czasowym. Niech oznacza czas spędzony na skrzyżowaniu; zakładamy, że nie ma korka.
a) Wyznaczyć rozkład zmiennej .
b) Załóżmy, że po 20 sekundach samochód wciąż nie przejechał skrzyżowania; jakie jest prawdopodobieństwo, że opuści je w przeciągu najbliższych sekund?
4. Dystrybuanta zmiennej losowej dana jest wzorem
![]() |
Obliczyć ,
,
,
.
5. Zmienna losowa ma rozkład o dystrybuancie
![]() |
Wyznaczyć dystrybuantę zmiennych oraz
.
6. Niech będzie funkcją prawostronnie ciągłą, niemalejącą, taką że
oraz
. Wykazać, że
jest dystrybuantą pewnej zmiennej losowej w pewnej przestrzeni probabilistycznej.
7. Z talii kart losujemy ze zwracaniem pięć razy po jednej karcie. Niech
oznacza liczbę wyciągniętych pików,
- liczbę wyciągniętych kierów, a
- liczbę wyciągniętych waletów. Czy zmienne
,
są niezależne? Czy zmienne
,
są niezależne?
8. Zmienne losowe ,
,
,
są niezależne i mają ten sam rozkład, zadany wzorem
,
.
a) Czy zmienne ,
są niezależne?
b) Czy zmienne ,
,
są niezależne?
c) Czy zmienne ,
,
,
są niezależne?
9. Zmienne losowe ,
są niezależne, przy czym dla
mamy
oraz
Obliczyć
.
10. Dla dowolnej liczby , niech
oznacza
-tą cyfrę rozwinięcia dwójkowego
,
(jeśli
posiada dwa różne rozwinięcia, to bierzemy to, które zawiera skończoną liczbę jedynek). Wykazać, że
,
,
są niezależnymi zmiennymi losowymi na przestrzeni probabilistycznej
.
11. Zmienne ,
są niezależne, przy czym
nie ma atomów. Udowodnić, że
.
12. Zmienne losowe ,
,
,
są niezależne i mają rozkłady Poissona z parametrami
,
,
,
. Udowodnić, że
ma rozkład Poissona z parametrem
.
13. Zmienna losowa jest niezależna od siebie samej. Udowodnić, że istnieje
takie, że
.
14. Zmienna losowa ma rozkład wykładniczy z parametrem
.
a) Wyznaczyć rozkłady zmiennych oraz
.
b) Czy zmienne te są niezależne?\\ Uwaga: ,
oznaczają część całkowitą i część ułamkową liczby
, odpowiednio.
15. Zmienna losowa ma rozkład jednostajny na przedziale
. Wyznaczyć rozkład zmiennej
.
16. Zmienna losowa ma rozkład normalny
. Wyznaczyć gęstości zmiennych
,
.
17. Tekst broszury zawiera znaków. W trakcie pisania (na komputerze) każdy znak może zostać błędnie wprowadzony z prawdopodobieństwem
. Z kolei redaktor znajduje każdy z błędów z prawdopodobieństwem
, po czym tekst wraca do autora, który znajduje każdy z pozostałych błędów z prawdopodobieństwem
. Oszacować prawdopodobieństwo tego, że po obu korektach broszura będzie zawierała nie więcej niż
błędy.
18. Zmienne losowe ,
,
,
są niezależne i mają rozkłady wykładnicze z parametrami
,
,
,
, odpowiednio. Wyznaczyć rozkład zmiennej
.
19. Zmienna losowa ma rozkład z gęstością
![]() |
a) Wyznaczyć .
b) Obliczyć .
c) Wyznaczyć rozkład zmiennej .
d) Czy ,
są niezależne?
e) Czy ,
są niezależne?
20. Zmienne ,
są niezależne i mają rozkład jednostajny na przedziale
. Obliczyć
.
21. Zmienna losowa ma rozkład Cauchy'ego, tzn. z gęstością
![]() |
Udowodnić, że zmienne ,
mają ten sam rozkład.
22. Niech ,
. Mówimy, że zmienna
ma rozkład gamma z parametrami
(ozn.
), jeśli ma gęstość
![]() |
a) Udowodnić, że jeśli ,
są niezależnymi zmiennymi losowymi,
, to
.
b) Udowodnić, że jeśli ,
,
,
są niezależnymi zmiennymi losowymi o rozkładzie Exp
, to
ma rozkład
.
c) Udowodnić, że jeśli ,
,
,
są niezależnymi zmiennymi losowymi o rozkładzie
, to
ma rozkład
(jest to tzw. rozkład chi kwadrat o
stopniach swobody.
23. Zmienne losowe ,
są niezależne i mają rozkład wykładniczy z parametrem
. Udowodnić, że zmienne
oraz
są niezależne.