Parametry rozkładu zmiennej losowej (wartość oczekiwana i wariancja)






(ii) Jeśli , to mówimy, że
jest całkowalna i oznaczamy to przez
.
(iii) Analogicznie, załóżmy, że jest pewną dodatnią liczbą. Jeśli
, to mówimy że
jest całkowalna z
-tą potęgą i oznaczamy to przez
.
(iv) Mówimy, że zmienna losowa jest ograniczona, jeśli istnieje liczba
taka, że
. Oznaczenie:
.
Uwaga: Powyższe definicje mają także sens gdy jest zmienną wielowymiarową: będzie o tym mowa w dalszej części wykładu. \def\eeee{
. Wówczas wartość oczekiwaną
definiujemy jako wektor
![]() |
o ile całki istnieją. Ponadto, wprowadzamy klasy ,
tak jak wyżej, przy czym
rozumiemy jako normę euklidesową w
.}
Odnotujmy dwie ważne nierówności:
1) Nierówność Minkowskiego. Jeśli ,
są zmiennymi losowymi oraz
, to
![]() |
Istnieje wersja tej nierówności dla : mianowicie,
![]() |
gdzie ess\,sup\, to tzw. istotne supremum zmiennej
.
2) Nierówność H\óldera. Załóżmy, że ,
są zmiennymi losowymi oraz
są liczbami harmonicznie sprzężonymi, tzn. spełniającymi równość
. Wówczas
![]() |
Uwaga: Bezpośrednio z definicji widzimy, że wartość oczekiwana jest operatorem liniowym: ściślej, jeśli ,
, \ldots,
są całkowalnymi zmiennymi losowymi oraz
, to zmienna
jest całkowalna oraz
![]() |
Z analizy znamy następujące trzy twierdzenia o przechodzeniu do granicy pod znakiem całki.





![]() |
W szczególności, zmienna jest całkowalna wtedy i tylko wtedy, gdy














Dygresja: Załóżmy, że ,
są zmiennymi losowymi. Mówimy, że
i
są równe prawie na pewno, jeśli zachodzi równość
. Załóżmy, że
i określmy
![]() |
Jeśli utożsamimy zmienne losowe równe p.n., to jest normą na
. Co więcej, przestrzeń
wraz z tą normą jest liniowa i zupełna (czyli jest przestrzenią Banacha).
Uwaga: Na mocy nierówności H\óldera, mamy jeśli
. Dostajemy stąd inkluzję
.









![]() |
W szczególności, biorąc ,
, dostajemy
![]() |
![]() |
□




Jak łatwo sprawdzić, wariancja posiada następujące własności. Przy założeniu, że , mamy:
- Var
,
- Var
, przy czym Var
wtedy i tylko wtedy, gdy
ma rozkład jednopunktowy.
- Var
Var
dla dowolnych liczb rzeczywistych
.
- Z nierówności Czebyszewa, dla dowolnej liczby
,
Odnotujmy kolejny ogólny fakt.




![]() |
o ile jedna z tych całek istnieje.
(i) Najpierw załóżmy, że jest funkcją charakterystyczną pewnego zbioru
:
. Wówczas dowodzona tożsamość przyjmuje postać
, która oczywiście jest prawdziwa.
(ii) Jeśli jest funkcją prostą, tzn. kombinacją liniową funkcji charakterystycznych, to badana równość zachodzi, gdyż jej obie strony zależą od
w sposób liniowy.
(iii) Załóżmy, że . Wówczas
jest granicą punktową pewnego niemalejącego ciągu
nieujemnych funkcji prostych. Na mocy (ii), mamy
![]() |
a więc wystarczy zbiec z oraz skorzystać z twierdzenia Lebesgue'a o monotonicznym przejściu do granicy.
(iv) Jeśli jest dowolna, to rozbijamy ją na różnicę dwóch nieujemnych funkcji borelowskich:
, stosujemy (iii) do funkcji
i
, a następnie odejmujemy stronami uzyskane dwie tożsamości. Stąd teza. □
Z powyższego faktu wynikają następujące
Wnioski:
1) Jeśli jest zmienną losową, to
oraz
![]() |
(o ile te wielkości istnieją).
2) Wartość oczekiwana i wariancja zależą tylko od rozkładu.
Jak łatwo widać z powyższego twierdzenia, jeśli jest
-wymiarową zmienną o rozkładzie dyskretnym, a
jest funkcją borelowską, to
![]() |
o ile wartość oczekiwana istnieje. Tak więc, w szczególności, dla mamy
![]() |
![]() |
W przypadku gdy zmienna ma rozkład ciągły, jej parametry wyznaczamy przy użyciu następującego faktu.




![]() |
o ile wartość oczekiwana istnieje.
Wobec tego, jeśli jest jednowymiarową zmienną losową o rozkładzie z gęstością
, to
![]() |
Przykłady:
1) Załóżmy, że ,
. Wówczas
, Var
.
2) Przypuśćmy, że to rozkład dwupunktowy, skupiony w
, taki że
,
,
. Wówczas
![]() |
![]() |
3) Załóżmy teraz, że :
,
. Wówczas, jak za chwilę policzymy,
![]() |
Podejście wprost z definicji jest niewygodne: na przykład, mamy
![]() |
i trzeba ,,zwinąć'' tę sumę. Aby uniknąć rachunków, rozważmy niezależne zmienne losowe ,
,
,
o tym samym rozkładzie dwupunktowym zadanym przez
. Wówczas, jak już wiemy,
ma rozkład
, a zatem, z liniowości wartości oczekiwanej,
![]() |
Ponadto,
![]() |
Dla dowolnych różnych , zmienna
ma rozkład dwupunktowy skoncentrowany na
, przy czym
![]() |
na mocy niezależności oraz
. Zatem
![]() |
i w konsekwencji,
![]() |
4) Załóżmy następnie, że zmienna ma rozkład Poissona z parametrem
:
,
. Wówczas
![]() |
Podobnie obliczamy, iż
![]() |
5) Załóżmy, że :
. Wtedy
![]() |
oraz
![]() |
6) Dalej, przypuśćmy, że Exp
,
, tzn.
ma rozkład z gęstością
. Całkując przez części, dostajemy
![]() |
oraz, wykonując analogiczne obliczenia, otrzymujemy Var
7) Wreszcie, przypuśćmy, że , gdzie
oraz
. Wówczas gęstość
dana jest wzorem
![]() |
Dokonując podstawienia , obliczamy, iż \begin{align*} \E X&=\frac{1}{\sqrt{2\pi}\sigma}\int_\R x\cdot \exp\left[-\frac{(x-m)^2}{2\sigma^2} \right]\mbox{d}x\\ &=\frac{1}{\sqrt{2\pi}}\int_\R (\sigma y+m)e^{-y^2/2}\mbox{d}y\\ &=\frac{\sigma}{\sqrt{2\pi}}\int_\R ye^{-y^2/2}\mbox{d}y+ \frac{m}{\sqrt{2\pi}}\int_\R e^{-y^2/2}\mbox{d}y=m. \end{align*} Ponadto, ponownie stosując powyższe podstawienie, otrzymujemy \begin{align*} \mbox{Var}\,X&=\frac{1}{\sqrt{2\pi}\sigma}\int_\R (x-m)^2 e^{-(x-m)^2/(2\sigma^2)}\mbox{d}x\\ &=\frac{\sigma^2}{\sqrt{2\pi}}\int_\R y^2e^{-y^2/2}\mbox{d}y\\ &=\frac{\sigma^2}{\sqrt{2\pi}}\big(-ye^{-y^2/2}\big)\Big|_{-\infty} ^\infty +\frac{\sigma^2}{\sqrt{2\pi}}\int_\R e^{-y^2/2}\mbox{d}y=\sigma^2. \end{align*} Podkreślmy: zatem parametry
i
pojawiające się w oznaczeniu rozkładu normalnego, to odpowiednio jego średnia i wariancja.
8) Warto tu jeszcze podać jeden przykład. Załóżmy, że ma rozkład Cauchy'ego, tzn. rozkład z gęstością
![]() |
Wówczas zmienna nie jest całkowalna: mamy
![]() |
Co więcej, wartość oczekiwana nie istnieje: mamy
![]() |
i podobnie .
Przechodzimy teraz do związków wartości oczekiwanej i wariancji z niezależnością zmiennych.





![]() |


Uwaga: Twierdzenie odwrotne nie zachodzi. Przykładowo, weźmy zmienne ,
o tym samym rozkładzie całkowalnym z kwadratem i połóżmy
,
. Wówczas
, a więc
; ponadto,
, na mocy równości rozkładów. Na ogół zmienne
oraz
nie są jednak niezależne: przykładowo, rozważmy dwukrotny rzut kostką i niech
oznacza liczbę oczek w
-tym rzucie,
. Wówczas
,
są zależne - mają tę samą parzystość.
Przechodzimy do sytuacji wielowymiarowej.






Uwagi:
1) Jeśli ,
są
-wymiarowymi zmiennymi losowymi mającymi wartość oczekiwaną oraz
, to
także posiada wartość oczekiwaną.
2) Zmienna -wymiarowa
ma wartość oczekiwaną wtedy i tylko wtedy, gdy
(gdzie
oznacza tu normę euklidesową). Wynika to natychmiast z oszacowania
![]() |
3) Jeśli -wymiarowa zmienna
ma skończoną wartość oczekiwaną, to
. Istotnie, dla dowolnego wektora
o długości
mamy
![]() |
i biorąc supremum po (bądź, alternatywnie, kładąc
), dostajemy żądaną nierówność.


![]() |
nazywamy kowariancją zmiennych i
. W przypadku gdy Cov
, mówimy, że zmienne
,
są nieskorelowane.
Jak łatwo sprawdzić, kowariancja posiada następujące własności:
(a) Przede wszystkim, jest ona dobrze określona, na mocy nierówności Schwarza.
(b) Zachodzi równość Cov.
(c) Dla dowolnej zmiennej , Cov
Var
.
(d) Zachodzi równość CovCov
(e) Kowariancja jest operatorem dwuliniowym: jeśli ,
, to
![]() |
Ponadto, jeśli oraz
, to Cov
.
Uwaga: Powyższe rozważania pokazują, że jeśli ,
są niezależne, to są nieskorelowane, ale nie na odwrót.




![]() |
W szczególności, jeśli zmienne ,
,
,
są nieskorelowane, to
![]() |
Porównując przypadek jedno- i wielowymiarowy widzimy, iż wartość oczekiwana jednowymiarowej zmiennej losowej jest liczbą, a wartością oczekiwaną wielowymiarowej zmiennej jest wektor. Powstaje naturalne pytanie dotyczące uogólnienia wariancji na przypadek wielowymiarowy. Okazuje się, iż tym uogólnieniem jest tzw. macierz kowariancji.


![]() |
nazywamy macierzą kowariancji zmiennej .
Uwaga: Wartość oczekiwana i macierz kowariancji zmiennej losowej -wymiarowej zależą tylko od rozkładu.











Poczyńmy jeszcze jedną przydatną obserwację. Przypuśćmy, iż macierz kowariancji nie jest dodatnio określona, tzn. dla pewnych ,
,
,
mamy
![]() |
Oznacza to, iż ma rozkład jednopunktowy, tzn. istnieje
takie, że
![]() |
a zatem z prawdopodobieństwem zmienna
przyjmuje wartości w pewnej
-wymiarowej podprzestrzeni afinicznej. □
Odnotujmy pożyteczny
Wniosek: Zmienna ma parami nieskorelowane współrzędne wtedy i tylko wtedy, gdy macierz kowariancji jest diagonalna. W szczególności, jeśli współrzędne
,
,
,
są niezależne, to
ma diagonalną macierz kowariancji (ale nie na odwrót!).




![]() |



Pozostawiamy dowód tego twierdzenia jako ćwiczenie.







Jeśli współrzędne są nieskorelowane, to, jak wiemy, macierz kowariancji jest przekątniowa:
![]() |
Zatem także jest diagonalna i jej wyrazy na głównej przekątnej to
,
,
,
. Wobec tego \begin{align*} g(x)&=\frac{\sqrt{\sigma_1^{-2}\sigma_2^{-2}\ldots\sigma_d^{-2}}}{(2\pi)^{d/2}}\exp\left[-\frac{1}{2}\sum_{j=1}^d (x_j-m_j)\cdot \sigma_j^{-2}\right]\\ &=\prod_{j=1}^d \left(\frac{1}{\sqrt{2\pi}\sigma_j} e^{-(x_j-m_j)^2/(2\sigma_j^2)}\right)\\ &=g_1(x_1)g_2(x_2)\ldots g_d(x_d), \end{align*} gdzie
to gęstość rozkładu
. Stąd niezależność. □
Rozważymy teraz tzw. zagadnienie regresji liniowej, grające ważną rolę w statystyce. Problem możermy sformułować następująco. Załóżmy, że mamy zmienne losowe ,
całkowalne z kwadratem i znamy ich łączny rozkład. Ponadto, przypuśćmy, iż obserwujemy wartości zmiennej
, a zmienna
jest trudniejsza - bądź niemożliwa - do zmierzenia. Powstaje więc interesujące zagadnienie optymalnego przybliżania zmiennej
za pomocą zmiennej
. Oczywiście, musimy odpowiednio postawić ten problem; będziemy szukać optymalnego przybliżenia liniowego, tzn. postaci
,
, a błąd będziemy mierzyć w sensie średniokwadratowym. Innymi słowy, szukamy stałych
, dla których wielkość
jest najmniejsza.
Aby rozwiązać ten problem, zauważmy, iż przy ustalonym , funkcja
jest trójmianem kwadratowym, który przyjmuje swoją najmniejszą wartość w punkcie
. Wystarczy więc wyznaczyć najmniejszą wartość funkcji
![]() |
Jeśli zmienna jest stała p.n. (czyli Var
=0), to wówczas
jest funkcją stałą i widać, że optymalnym liniowym estymatorem zmiennej
jest jej średnia:
. Jeśli zaś Var
, to
jest trójmianem kwadratowym zmiennej
, przyjmującym swoją najmniejszą wartość w punkcie
![]() |
i wówczas
![]() |
Uwagi:
1) Widać, że do powyższych obliczeń nie potrzebowaliśmy całej wiedzy o rozkładzie łącznym zmiennych . Wystarczy nam znajomość średnich i wariancji zmiennych
,
oraz ich kowariancji.
2) Załóżmy, że wariancje oraz
są niezerowe. Dla powyższych (optymalnych)
,
obliczamy, iż
![]() |
gdzie
![]() |
to tzw. współczynnik korelacji. Współczynnik ten posiada następujące własności:
(a) Zachodzi nierówność ,
(b) Mamy oraz, dla dowolnych
,
.
(c) Jeśli , to
dla pewnych
,
; innymi słowy, między
a
jest zależność liniowa.
(d) Równość zachodzi wtedy i tylko wtedy, gdy
,
są nieskorelowane. Wówczas najlepszym przybliżeniem
jest
.
Zadania
1. Dana jest zmienna losowa taka, że
,
. Obliczyć
,
,
oraz Var
.
2. Zmienna losowa ma rozkład Poissona z parametrem
. Obliczyć
.
3. Zmienna losowa ma rozkład z gęstością
![]() |
Obliczyć ,
oraz Var
.
4. Zmienna losowa ma rozkład z dystrybuantą
![]() |
Wyznaczyć .
5. W urnie znajduje się 50 białych kul. Losujemy ze zwracaniem po jednej kuli, przy czym wyciągniętą kulę malujemy na czerwono, jeśli jest biała. Niech oznacza liczbę czerwonych kul w urnie po 20 losowaniach. Wyznaczyć
oraz Var
.
6. Każdy bok i każdą przekątną sześciokąta foremnego malujemy losowo na jeden z trzech kolorów. Wybór każdego koloru jest jednakowo prawdopodobny, kolorowania różnych odcinków są niezależne. Niech oznacza liczbę jednobarwnych trójkątów o wierzchołkach będących wierzchołkami sześciokąta. Obliczyć
.
7. Rzucamy kostką aż do momentu, gdy wyrzucimy wszystkie liczby oczek. Obliczyć wartość oczekiwaną i wariancję liczby rzutów.
8. Udowodnić, że dla dowolnej zmiennej losowej nieujemnej oraz
zachodzi wzór
![]() |
Wywnioskować stąd, że jeśli zmienna ma rozkład dyskretny skoncentrowany na liczbach całkowitych nieujemnych, to
![]() |
9. Liczby ustawiono losowo w ciąg
. Niech
oznacza największą taką liczbę, że
dla
. Obliczyć
.
10. Dany jest ciąg niezależnych zmiennych losowych ,
,
,
o tym samym rozkładzie posiadającym ciągłą dystrybuantę. Niech
. Wyznaczyć rozkład zmiennej
oraz obliczyć
.
11. Kij o długości złamano w punkcie wybranym losowo, z prawdopodobieństwem rozłożonym równomiernie. Obliczyć wartość oczekiwaną stosunku
a) długości kawałka lewego do długości kawałka prawego.
b) długości kawałka krótszego do długości kawałka dłuższego.
12. Zmienne losowe ,
spełniają warunki Var
, Cov
, Var
. Obliczyć Var
oraz Cov
.
13. Zmienna losowa ma wariancję
. Udowodnić, że
![]() |
14. Zmienne losowe są niezależne i mają ten sam rozkład
,
. Niech
będzie ciągiem liczb rzeczywistych i
. Udowodnić, że
![]() |
15. Zmienne są niezależne i mają ten sam rozkład
,
Niech
,
. Udowodnić, że
![]() |
oraz
![]() |
16. Zmienna losowa ma następującą własność: dla
mamy
![]() |
Udowodnić, że (tzn. istnieje taka liczba
, że
).
17. Zmienna losowa ma rozkład normalny w
, o średniej
i macierzy kowariancji
. Niech
będzie przekształceniem afinicznym
na
,
. Udowodnić, że
ma rozkład normalny w
. Wyznaczyć jego średnią oraz macierz kowariancji.
18. Zmienna losowa ma
-wymiarowy rozkład normalny o gęstości
![]() |
Udowodnić, że oraz
(
oznacza tu macierz kowariancji
).
19. Zmienna losowa ma dwuwymiarowy rozkład normalny o średniej
i macierzy kowariancji
![]() |
a) Napisać gęstość zmiennej .
b) Wyznaczyć rozkład zmiennej .
c) Wyznaczyć taką liczbę , by zmienne
,
były niezależne.
20. Nadajnik wysyła sygnał , a odbiornik odbiera sygnał
, gdzie
jest współczynnikiem wzmocnienia, zaś
jest zakłóceniem. Zakładamy, że
i
są niezależnymi zmiennymi losowymi, przy czym
, Var
,
, Var
. Wyznaczyć współczynnik korelacji
i
oraz regresję liniową
względem
(tzn. najlepsze liniowe przybliżenie
za pomocą
).