Przestrzenie liniowe

Przestrzenie liniowe

Dla dowolnego ciała $ \K $, analogicznie jak to robiliśmy dla $ \R $, wprowadza się operację dodawania wektorów - kolumn z $ \K^n $ i mnożenia tych wektorów przez elementy ciała - skalary.

Jeśli $ A $ jest $ (m\times n) $-macierzą o wyrazach z ciała $ \K $, to zbiór $ V $ rozwiązań układu jednorodnego $ AX=\0 $ jest zamknięty ze względu na dodawanie wektorów i mnożenie wektorów przez skalary.

Podobnie, w zbiorze $ W $ wielomianów stopnia nie większego niż $ n $ o współczynnikach rzeczywistych, podzielnych przez wielomian $ x^2+1 $, określone jest naturalne działanie dodawania i mnożenia przez liczby.

Są to przykłady przestrzeni liniowych - obiektów algebraicznych złożonych ze skalarów i wektorów oraz działań na nich, które określa się następująco

Definicja (#) Zbiór $ V $ z ustalonym elementem $ \0 $ (wektor zerowy) i działaniem dodawania ``$ + $'' nazywamy przestrzenią linową nad ciałem $ \K $ jeśli jest ustalone działanie mnożenia ``$ \cdot $'' elementów ciała $ ( $zwanych skalarami$ ) $ przez elementy $ V $ $ ( $zwane wektorami$ ) $ dające w wyniku elementy $ V $, przy czym dla dowolnych $ a,b\in \K $ i $ \al,\be,\ga\in V $ spełnione są warunki $ ( $osiem aksjomatów przestrzeni liniowej$ ) $

\[ \begin{tabular}{l[1cm]ll} $(1)$\quad &$\al+\be=\be+\al$& przemienność dodawania wektorów,\\ $(2)$ &$\al+(\be+\ga)=(\al+\be)+\ga$& łączność dodawania wektorów,\\ $(3)$ &$\al+\0=\al$& wektor zerowy jest elementem neutralnym dodawania wektorów,\\ $(4)$&istnieje $\al'$ takie, że $\al+\al'=\0$& element przeciwny dodawania wektorów,\\ $(5)$&$a\cdot(\be+\ga)=a\cdot \be+a\cdot \ga$ & rozdzielność mnożenia przez skalar względem dodawania wektorów,\\ $(6)$& $(a+b)\cdot\ga=a\cdot\ga + b\cdot\ga$ &rozdzielność mnożenia przez skalar względem dodawania skalarów,\\ $(7)$& $(b\cdot \al)=(ab)\cdot \al$& łączność mnożenia przez skalary,\\ $(8)$& $1\cdot \al=\al$& skalar $1$ jest elementem neutralnym mnożenia. \end{tabular} \]

Jak zobaczymy później, przyjęte aksjomaty pozwalają utożsamiać, ze względu na strukturę algebraiczną, przestrzenie liniowe nad ciałem $ \K $ skończonego wymiaru (innych nie będziemy tu w zasadzie rozpatrywać) z przestrzeniami $ \K^n $, a jednocześnie pozwalają operować na wektorach z $ V $, bez konieczności przypisania im konkretnych współrzędnych.

Równanie $ x+\al=\be $ ma w przestrzeni liniowej $ V $ dokładnie jedno rozwiązanie, bo dodając do obu stron $ \al' $ - ustalony element przeciwny do $ \al $ otrzymujemy, po uporządkowaniu równoważne równanie $ x=\be+\al' $.

W szczególności $ \0 $ i wektor przeciwny do $ \al $ (oznaczany przez $ -\al $) są wyznaczone jednoznacznie.

Iloczyn $ a\al $ (opuszczamy znak mnożenia) znaczy to samo co $ \al a $ (używa się jednak zazwyczaj zapisu $ a\al $).

Uwaga (#) Dla dowolnych $ a\in\K $, $ \al\in V $:

  • [a)] $ a\al=\0 $ jeśli $ a=0 $ lub $ \al=\0 $ \begin{tabular}{l}\\ ($ \al=\0 $, to do obu stron $ a\0+a\0=a(\0+\0)=a\0 $ dodajemy $ -(a\0) $\\ $ a=0 $, to do obu stron $ 0\al+0\al=(0+0)\al=0\al $ dodajemy $ -(0\al) $).\end{tabular}
  • [b)] $ a\al=\0 $, to $ a=0 $ lub $ \al=\0 $      (bo $ a\neq 0 $, to obie strony mnożymy z lewej przez $ a^{-1} $).
  • [c)] $ (-1)\al=-\al $ (bo $ \al+(-1)\al=(1+(-1))\al=0\al=\0 $).

Podamy teraz kilka podstawowych przykładów przestrzeni liniowych nad $ \K $ użytecznych, przy ilustrowaniu wprowadzanych przez nas kolejnych pojęć.

Przykład (#)

  • [(a)] Przestrzeń współrzędnych $ \K^m $.

    Elementami $ \K^m $ (wektorami z $ \K^m $) są kolumny $ m $ skalarów (współrzędnych tego wektora). Wektor zerowy ma wszystkie współrzędne zerowe. Definiujemy działania ``po współrzędnych''

    (+)      $ \mk{c}{a_1\\\vdots\\a_m}+\mk{c}{b_1\\\vdots\\b_m}= \mk{c}{a_1+b_1\\\vdots\\a_m+b_m} $; ($ \cdot $)     $ c\mk{c}{a_1\\\vdots\\a_m}=\mk{c}{ca_1\\\vdots\\ca_m} $.

    Aksjomaty przestrzeni liniowej wynikają z odpowiednich aksjomatów ciała.

  • [(b)] Przestrzeń macierzy $ \M{m}{n}{\K} $.

    Wektorami w $ \M{m}{n}{\K} $ są macierze o wyrazach z $ \K $ mające $ m $ wierszy i $ n $ kolumn, zob.\ [link]. Macierz zerowa ma wszystkie wyrazy zerowe. Wektory - macierze dodajemy sumując ich odpowiednie wyrazy i mnożymy przez skalary - elementy ciała $ \K $, mnożąc przez skalar wszystkie wyrazy macierzy.

    Często wygodnie jest myśleć o $ (m\times n) $-macierzy jako o układzie $ n $ kolumn - wektorów z $ \K^m $. Jeśli $ A=[A_1,\ldots,A_n] $, $ B=[B_1,\ldots B_n] $, $ A_j,B_j\in\K^m $ oraz $ c\in \K $, to $ A+B=[A_1+B_1,\ldots A_n+B_n] $ i $ cA=[cA_1,\ldots cA_n] $.

  • [(c)] Przestrzeń wielomianów $ \K[x] $.

    Wielomianem stopnia $ n $ o współczynnikach w $ \K $ będziemy nazywali wyrażenie $ a_0+a_1 x^1+\ldots+a_n x^n $, gdzie $ a_0,\ldots,a_n\in\K $ oraz $ a_n\neq\0 $, a każdy ze składników $ a_jx^j $ będziemy nazywali jednomianem. Będziemy pomijali w takim wyrażeniu te jednomiany $ a_jx^j $, dla których $ a_j=0 $, a wielomian zerowy (bez niezerowych jednomianów, mający stopień $ -\infty $) będziemy oznaczali przez $ \0 $.

    W zbiorze wielomianów $ \K[x] $ określone są działania dodawania i mnożenia spełniające wszystkie aksjomaty ciała, poza aksjomatem o istnieniu elementu odwrotnego. W szczególności $ \K[x] $ jest przestrzenią liniową nad $ \K $, bo $ c\in\K $ można uważać za jednomian.

Definicja (#) Niech $ V $ będzie przestrzenią liniową nad ciałem $ \K $. Podzbiór $ W $ zbioru wektorów zawierający wektor zerowy nazywamy podprzestrzenią $ V $ jeśli $ W $ jest zamknięty za względu na działanie dodawania i mnożenia przez skalary, to znaczy spełnione są dwa warunki

$ (+) $ \ $ \al+\be\in W $ dla $ \al,\be\in W $; $ (\cdot) $\ $ c\al\in W $ dla $ c\in\K $, $ \al\in W $.
Uwaga (#) Jeśli $ W $ jest podprzestrzenią przestrzeni liniowej $ V $ nad ciałem $ \K $, to $ W $ z działaniami dodawania wektorów i mnożenia wektora przez skalar ograniczonymi do $ W $ jest przestrzenią liniową nad $ \K $, bo dla $ \al\in W $ wektor przeciwny $ -\al=(-1)\al $ też jest w $ W $.

Każda przestrzeń $ V $ liniowa zawiera podprzestrzeń maksymalną i minimalną w sensie inkluzji (zwane niewłaściwymi): samą siebie i podprzestrzeń zerową $ \set{\0} $. W następnej części podamy ogólną metodę generowania podprzestrzeni przestrzeni liniowych $ V $.

Kombinacje liniowe

Kombinacje liniowe pojawiły się już przy okazji omawiania układów równań liniowych.

Definicja (#) Kombinacją liniową wektorów układu $ (\al_1,\ldots,\al_n) $ z przestrzeni liniowej $ V $ nad ciałem $ \K $ o współczynnikach $ x_1,\ldots,x_n $ $ ( $z $ \K) $ nazywamy wektor $ \sum_{j=1}^n x_j\al_j= x_1\al_1+\ldots+x_n\al_n\in V $. Powłoką liniową układu $ (\al_1,\ldots,\al_n) $ nazywamy zbiór $ \lin(\al_1,\ldots,\al_n) $ wszystkich kombinacji liniowych tego układu.
Uwaga (#) Wygodnie jest założyć, że jedyną kombinacją układu pustego (nie zawierającego żadnego wektora) jest wektor zerowy. W szczególności $ \lin(\emptyset)=\set{\0} $.
Uwaga (#) W definicji podprzestrzeni przestrzeni liniowej $ V $ warunki $ (+) $ i $ (\cdot) $ dla $ W\subset V $ można zastąpić mocniejszym warunkiem

$ x_1\al_1+\ldots+x_n\al_n\in W $      dla      $ x_1,\ldots,x_n\in\K $, $ \al_1,\ldots,\al_n\in W $,

który wynika z $ (+) $ i $ (\cdot) $ przez indukcję ze względu na $ n\geq 1 $.

Twierdzenie (#) Powłoka liniowa $ \lin(\al_1,\ldots,\al_n) $ układu wektorów w przestrzeni $ V $ jest najmniejszą podprzestrzenią przestrzeni $ V $ zawierającą wektory $ \al_j $, $ j=1,\ldots,n $.
Dowód: Suma dwóch kombinacji liniowych wektorów $ \al_1,\ldots,\al_n $ oraz wynik pomnożenia takiej kombinacji przez skalar jest kombinacją liniową wektorów $ \al_1,\ldots,\al_n $:

$ (+) $      $ \sum_{j=1}^n x_j\al_j+\sum_{j=1}^n y_j\al_j=\sum_{j=1}^n (x_j+y_j)\al_j $\,; $ (\cdot) $     $ c\sum_{j=1}^n x_j\al_j=\sum_{j=1}^n (cx_j)\al_j $.

Wynika stąd, że $ \lin(\al_1,\ldots,\al_n) $ jest podprzestrzenią liniową $ V $ zawierającą wszystkie wektory $ \al_j $.

Z drugiej strony, jeśli podprzestrzeń liniowa $ W $ przestrzeni $ V $ zawiera $ \al_1,\ldots,\al_n $, to zawiera też wszystkie kombinacje liniowe tych wektorów, zob.\ [link], a więc $ \lin(\al_1,\ldots,\al_n)\subset W $. □

Iloczyn $ AX $ macierzy $ A $ i wektora $ X $ odpowiednich wymiarów wprowadziliśmy w [link], jednak ze względu na wagę tej operacji powtórzymy to w sposób bardziej formalny.

Definicja (#) Iloczynem macierzy $ A=[A_1,\ldots,A_n]\in\M{m}{n}{\K} $ $ ( $gdzie $ A_j $ jest $ j $-tą kolumną $ A) $ i wektora $ X\in\K^n $ o współrzędnych $ x_1,\ldots,x_n $ nazywamy wektor $ AX=\sum_{j=1}^n x_j A_j\in \K^m $.
Uwaga (#) Operacja mnożenia macierzy i wektorów ma następujące własności (zob.\ dowód [link])

$ (+) $      $ AX+AY=A(X+Y) $; $ (\cdot) $     $ c(AX)=A(cX) $,

tzn.\ w terminologii, którą uściślimy poniżej, operacja $ X\to AX $ jest liniowa.

Definicja (#) Mówimy, że układ wektorów $ (\al_1,\ldots,\al_n) $ z $ V $ rozpina $ V $ jeśli $ V=\lin(\al_1,\ldots,\al_n) $.
Uwaga (#) Układ wektorów $ (A_1,\ldots,A_n) $ z przestrzeni $ \K^m $ rozpina $ \K^m $ wtedy i tylko wtedy, gdy dla każdego $ B\in\K^m $ równanie \mbox{$ x_1A_1+\ldots+x_nA_n=B $} jest niesprzeczne, a więc wtedy i tylko wtedy, gdy macierz otrzymana w wyniku redukcji $ A=[A_1,\ldots,A_n] $ do postaci schodkowej ma schodek w każdym wierszu.

Liniowa niezależność

Liniowa niezależność jest centralnym pojęciem związanym z przestrzeniami liniowymi.

Definicja (#) Układ wektorów $ (\al_1,\ldots,\al_k) $ w przestrzeni liniowej $ V $ nad ciałem $ \K $ nazywamy liniowo niezależnym jeśli z $ a_1\al_1+\ldots+a_k\al_k=\0 $ wynika, że $ a_1=\ldots =a_k=0 $. Układ, który nie jest liniowo niezależny nazywamy zależnym.
Uwaga (#) Liniowa niezależność układu $ (\al_1,\ldots,\al_k) $ oznacza, że każdy wektor $ \al\in\lin(\al_1,\ldots,\al_k) $ można zapisać w postaci kombinacji liniowej $ \al=a_1\al_1+\ldots+a_k\al_k $ tylko w jeden sposób (później będziemy interpretowali współczynniki $ a_j $ jako współrzędne wektora $ \al $ względem układu $ (\al_1,\ldots,\al_k) $). Istotnie, jeśli mamy także $ \al={b}_1\al_1+\ldots+{b}_k\al_k $, to $ \0=(a_1-{b}_1)\al_1+\ldots+(a_k-{b}_k)\al_k=\0 $, a liniowa niezależność oznacza, że $ \0 $ może być zapisane tylko jako kombinacja liniowa $ \al_j $ o zerowych współczynnikach.
Twierdzenie (#) Dla układu wektorów $ (\al_1,\ldots,\al_k) $ w przestrzeni liniowej $ V $ nad ciałem $ \K $ następujące warunki są równoważne.

  • [$ (i) $] Układ $ (\al_1,\ldots,\al_k)  $ jest liniowo niezależny.

  • [$ (ii) $] Żaden z wektorów $ \al_j $ nie jest kombinacją liniową pozostałych $ ( $to znaczy $ \al_j\not\in\lin(\al_i)_{i\neq j} $ dla $ j=1,\ldots,k) $.
  • [$ (iii) $] Żaden z wektorów $ \al_j $ nie jest kombinacją liniową poprzednich wektorów\\ $ ( $to znaczy $ \al_1\neq\0 $ i $ \al_j\not\in\lin(\al_1,\ldots,\al_{j-1}) $ dla $ j=2,\ldots,k) $.
Dowód: Dla dowodu $ (i)\Rightarrow(ii) $ załóżmy negację $ (ii) $, czyli istnienie $ j\geq 1 $ takiego, że $ \al_j=\sum_{i\neq j}a_i\al_i $ dla pewnego układu skalarów $ (a_i)_{i\neq j} $. Wtedy $ -\al_j+\sum_{i\neq j}a_i\al_i=\0 $ jest nietrywialnym przedstawieniem wektora zerowego, co przeczy $ (i) $.

Implikacja $ (ii)\Rightarrow(iii) $ jest oczywista.

Dla dowodu $ (iii)\Rightarrow(i) $ rozważmy kombinację $ \sum_{i\leq k} a_i\al_i=\0 $. Gdyby nie wszystkie współczynniki $ a_i $ były zerowe, to dla $ j=\max\{i:a_i\neq\0\} $ mielibyśmy $ \al_j=\sum_{i<j}\frac{-a_i}{a_j}\al_i $, co przeczyłoby $ (iii) $. □

Uwaga (#) Liniowa niezależność układu $ (A_1,\ldots,A_k) $ w $ \K^m $ oznacza, że równanie $ \sum_{i=1}^kx_iA_i= \0 $ ma dokładnie jedno rozwiązanie, czyli w wyniku redukcji macierzy $ A=[A_1,\ldots,A_k] $ do postaci schodkowej otrzymamy macierz $ A' $, mającą schodek w każdej kolumnie (w szczególności $ k\leq m $).

Równoważność warunków $ (i) $ i $ (iii) $ jest dla takiego układu oczywista, bo macierz $ A' $ ma schodek w $ j $-tej kolumnie wtedy i tylko wtedy, gdy równanie $ \sum_{i<j}x_iA_i=A_j $ jest sprzeczne, czyli $ A_j\not\in\lin(A_i)_{i<j} $.

Baza i wymiar

Wyróżnienie $ n $-elementowej bazy w przestrzeni liniowej $ V $ nad ciałem $ \K $ pozwala przypisać każdemu wektorowi $ \al\in V $ wektor z $ \K^n $ (wektor współrzędnych $ \al $ w tej bazie) z zachowaniem operacji dodawania i mnożenia przez skalary.

Definicja (#) Układ wektorów $ (\al_1,\ldots,\al_n) $ w przestrzeni liniowej $ V $ nad ciałem $ \K $ nazywamy bazą $ V $ jeśli układ $ (\al_1,\ldots,\al_n) $ jest liniowo niezależny i rozpina $ V $.
Uwaga (#) Jeśli układ $ (\al_1,\ldots,\al_n) $ jest bazą $ V $, to zgodnie z Uwagą [link], każdy wektor $ \al\in V $ daje się przedstawić jako kombinacja liniowa $ \al=a_1\al_1+\ldots+a_n\al_n $ w dokładnie jeden sposób. Współczynniki tej kombinacji nazywamy współrzędnymi wektora $ \al $ w bazie $ (\al_1,\ldots,\al_n) $. % i zapisując je w kolumnie, interpretujemy jako wektor z $ \K^n $. Dla $ \al,\be\in V $ i $ c\in\K $ współrzędne $ \al+\be $ są sumą współrzędnych tych wektorów w $ \K^n $, a współrzędne $ c\al $ są iloczynem współrzędnych $ \al $ przez skalar $ c $, zob.\ dowód [link].\ \

Przykład (#)

  • [(a)] W przestrzeni $ \K^m $ połóżmy $ \ep_1=\mk{c}{1\\0\\\vdots\\0} $, $ \ep_2=\mk{c}{0\\1\\\vdots\\0} $, \ldots, $ \ep_m=\mk{c}{0\\0\\\vdots\\1} $.

    Układ $ (\ep_1,\ep_2,\ldots,\ep_m) $ jest bazą przestrzeni $ \K^m $. Współrzędne wektora $ X\in\K^m $ są identyczne ze współrzędnymi $ X $ w tej bazie. Bazę $ (\ep_1,\ep_2,\ldots,\ep_m) $ nazywamy bazą standardową $ \K^m $.

  • [(b)] W $ \M{2}{2}{\K} $ połóżmy $ E_{11}=\mk{cc}{1&0\\0&0}, E_{21}=\mk{cc}{0&0\\1&0}, E_{12}=\mk{cc}{0&1\\0&0}, E_{22}=\mk{cc}{0&0\\0&1} $.

    Układ $ (E_{11},E_{21},E_{12},E_{22}) $ jest bazą przestrzeni $ \M{2}{2}{\K} $. Współrzędne macierzy $ A\in\M{2}{2}{\K} $ w tej bazie są wyrazami tej macierzy w porządku, w jakim ustawiliśmy macierze $ E_{ij} $.

    Analogicznie w przestrzeni macierzy $ \M{m}{n}{\K} $ definiuje się bazę mającą $ m\cdot n $ elementów $ E_{kl}\in\M{m}{n}{\K} $, gdzie $ E_{kl} $ jest macierzą mającą na miejscu $ k,l $ jedynkę i wszystkie pozostałe wyrazy zerowe.

  • [(c)] Układ jednomianów $ (x^0,x^1,\ldots,x^n) $ tworzy bazę podprzestrzeni $ \K_n[x] $ wielomianów stopnia $ \leq n $ przestrzeni $ \K[x] $. Współrzędne wielomianu $ w(x) $ w tej bazie są współczynnikami tego wielomianu.% (poczynając od wyrazu wolnego).
Uwaga (#) Układ $ (A_1,\ldots A_n) $ w $ \K^m $ wyznacza macierz $ A=[A_1,\ldots A_n]\in\M{m}{n}{\K} $. Jeśli w wyniku redukcji $ A $ do postaci schodkowej otrzymujemy macierz $ A' $ mającą schodki w kolumnach o numerach $ j_1,\ldots,j_r $, to układ $ (A_{j_1},\ldots A_{j_r}) $ jest bazą $ V=\lin(A_1,\ldots A_n) $, bo dla każdego $ B\in\K^m $ takiego, że układ $ AX=B $ jest niesprzeczny, równanie $ x_{j_1}A_{j_1}+\ldots +x_{j_r}A_{j_r}=B $ ma dokładnie jedno rozwiązanie.

W szczególności dla $ n=m $ układ $ (A_1,\ldots,A_n) $ w $ \K^n $ jest bazą $ \K^n $ wtedy i tyko wtedy, gdy macierz zredukowana $ A' $ ma $ n $ schodków (w każdej kolumnie i w każdym wierszu).

Bazę $ (A_{j_1},\ldots A_{j_r}) $ przestrzeni $ \lin(A_1,\ldots A_n)\subset \K^m $ otrzymujemy wybierając z układu rozpinającego wektory, które nie są kombinacjami poprzednich, zob.\ Uwaga [link]. Tak samo można postępować w przypadku ogólnym.

Twierdzenie (#){\em\bf (o istnieniu bazy).} Jeśli z układu wektorów $ (\al_1,\ldots,\al_n) $ rozpinającego przestrzeń $ V $ wybierzemy wszystkie wektory $ \al_j $ takie, że $ \al_j\not\in\lin(\al_i)_{i<j} $, to otrzymamy bazę $ (\al_{j_1},\ldots,\al_{j_r}) $ przestrzeni $ V $.
Dowód: Z Twierdzenia [link] $ (iii) $ układ $ (\al_{j_1},\ldots,\al_{j_r}) $ jest lniowo niezależny. Niech $ W=\lin(\al_{j_1},\ldots,\al_{j_r}) $. Pokażemy, że $ (\al_{j_1},\ldots,\al_{j_r}) $ rozpina $ V $, czyli $ W=V $. W tym celu wystarczy wykazać, że $ \al_i\in W $ dla $ i\leq n $.

Gdyby nie wszystkie $ v_i $ należały do $ W $, to dla $ j=\min\set{i\leq n: \al_i\not\in W} $ mielibyśmy $ \lin(\al_i)_{i<j}\subset W $ oraz $ \al_j\not\in W $. Zatem $ \al_j\not\in\lin(\al_i)_{i<j} $, więc $ \al_j $ byłby w $ W $ jako jeden z wybranych wektorów, co przeczy wyborowi $ j $. □

Z Twierdzenia [link] wynika.

Twierdzenie (#) {\em\bf (o rozszerzaniu układu liniowo niezależnego do bazy).} Jeśli układ wektorów $ (\al_1,\ldots,\al_k) $ w przestrzeni liniowej $ V $ jest liniowo niezależny, a układ $ (\be_1,\ldots,\be_m) $ rozpina $ V $, to układ $ (\al_1,\ldots,\al_k) $ można rozszerzyć do bazy $ V $ wektorami z układu $ (\be_1,\ldots,\be_m) $.
Dowód: Układ $ (\al_1,\ldots,\al_k,\be_1,\ldots,\be_m) $ rozpina $ V $. Usuwając z tego układu wszystkie wektory będące kombinacjami poprzednich otrzymamy, zgodnie z Twierdzeniem [link], bazę przestrzeni $ V $, a z Twierdzenia [link] $ (iii) $ wynika, że nie usuniemy żadnego z wektorów $ \al_j $. □

Zastosowane w tym dowodzie rozumowanie wykorzystamy też w dowodzie kolejnego twierdzenia, które pozwoli na określenie wymiaru przestrzeni liniowej.

Twierdzenie (#) {\em\bf (Steinitza o wymianie).} Jeśli układ wektorów $ (\al_1,\ldots,\al_k) $ w przestrzeni liniowej $ V $ jest liniowo niezależny, a układ $ (\be_1,\ldots,\be_m) $ rozpina $ V $, to $ k\leq m $ oraz istnieją parami różne indeksy $ i_1,\ldots,i_k\leq m $ takie, że układ otrzymany z $ (\al_1,\ldots,\al_k,\be_1,\ldots,\be_m) $ przez usunięcie wektorów $ \be_{i_1},\ldots,\be_{i_k} $ rozpina $ V $.
Dowód: Nierówność $ k\leq m $ wynika z drugiej części tezy, którą udowodnimy przez indukcję ze względu na $ j\leq k $ dopisując na początku układu $ (\be_1,\ldots,\be_m) $ kolejno wektory $ \al_j $ i usuwając, za każdym razem, wektor $ \be_{i_j} $ tak, by układ otrzymany po $ j $ wymianach pozostawał układem rozpinającym $ V $.

W kroku indukcyjnym dodajemy do układu rozpinającego kolejny wektor $ \al_j $, bezpośrednio po wektorze $ \al_{j-1} $ (na początku, gdy $ j=1 $). Z warunku $ (ii) $ Twierdzenia [link] dostajemy układ liniowo zależny, a z warunku $ (iii) $ tego twierdzenia jeden z pozostających w naszym układzie wektorów $ \be_{i_j} $ jest kombinacją poprzednich, więc po jego usunięciu otrzymamy układ rozpinający $ V $. □

Przestrzeń liniowa może mieć wiele baz (zob.\ Uwaga [link]). Jednakże z pierwszej części tezy Twierdzenia Steinitza wynika, że w przestrzeni $ V $ z bazą mającą $ n $ wektorów, każdy układ liniowo niezależny ma $ k\leq n $ wektorów, a każdy układ rozpinający ma $ m\geq n $ wektorów. Tak więc, wszystkie bazy w $ V $ mają tyle samo elementów.

Definicja (#) Wymiarem przestrzeni liniowej $ V $ mającej bazę skończoną nazywamy liczbę wektorów tej bazy, którą oznaczamy $ \dim V $ $ (\dim\set{\0}=0) $. Jeśli $ V $ nie ma bazy skończonej, mówimy, że wymiar $ V $ jest \mbox{nieskończony}.

Przykład (#) Z Przykładu [link] dostajemy

  • [(a)] $ \dim\K^m=m $,
  • [(b)] $ \dim\M{m}{n}{\K}=mn $,
  • [(c)] $ \dim \K_n[x]=n+1 $.
Uwaga (#) Jeśli $ W $ jest podprzestrzenią przestrzeni $ V $ mającej skończony wymiar, to z Twierdzenia Steinitza $ \dim W\leq\dim V $. Co więcej, z $ \dim W=\dim V $ wynika, że $ W=V $, bo gdyby $  W \neq V $, to bazę $ W $ można by było istotnie rozszerzyć do bazy $ V $, zob.\ Twierdzenie [link].

Odnotujmy jednak, że przestrzenie wymiaru nieskończonego, na przykład $ \K[x] $, mogą zawierać właściwe podprzestrzenie wymiaru nieskończonego. W dalszej części, jeśli nie powiemy wyraźnie inaczej, będziemy zakładać, że wszystkie rozważane przestrzenie mają wymiar skończony.

Rząd macierzy

Z macierzą $ A\in\M{m}{n}{\K} $ są związane trzy przestrzenie: podprzestrzeń rozpięta na kolumnach, podprzestrzeń rozpięta na wierszach i podprzestrzeń rozwiązań jednorodnego układu równań $ AX=\0 $. Dwie pierwsze mają taki sam wymiar - rząd macierzy $ A $, a wymiar trzeciej jest różnicą $ n $ i rzędu $ A $.

Przejdziemy teraz do systematycznego przedstawienia tych zagadnień.

Definicja (#) Przestrzenią kolumn macierzy $ A\in\M{m}{n}{\K} $ nazywamy podprzestrzeń $ K(A) $ przestrzeni $ \K^m $ rozpiętą przez kolumny $ A $.

Z definicji mnożenia macierzy przez wektor ( [link]) wynika, że przestrzeń kolumn $ K(A) $ macierzy $ A $ jest zbiorem wszystkich wektorów $ B $, dla których układ równań $ AX=B $ jest niesprzeczny.

Definicja (#) Rzędem $ \r A $ macierzy $ A $ nazywamy $ \dim K(A) $.

Z Uwagi [link] wynika, że $ \r A $ jest liczbą kolumn ze schodkami w macierzy $ A' $ otrzymanej w wyniku redukcji macierzy $ A $ do postaci schodkowej. Jeśli macierz $ \wt{A} $ powstaje z $ A $ w wyniku operacji elementarnych na wierszach, to $ K(\wt{A}\,) $ różni się na ogół od $ K(A) $, ale $ \r \wt{A} =\r A $, bo $ \wt{A} $ i $ A $ można zredukować do tej samej macierzy w postaci schodkowej.

Definicja (#) Przestrzenią zerową macierzy $ A $ nazywamy podprzestrzeń $ N(A) $ przestrzeni $ \K^n $ złożoną z rozwiązań jednorodnego układu równań $ AX=\0 $.

Następne twierdzenie opisuje rozwiązania układu $ AX=B $ w terminach zdefiniowanych wyżej pojęć.

Twierdzenie (#)(Kroneckera - Capelliego) Niech $ A\in\M{m}{n}{\K} $ i $ B\in\K^m $. Układ równań $ AX=B $ jest niesprzeczny wtedy i tylko wtedy, gdy $ \r A=\r [A|B] $. Jeśli $ X_\ast $ jest rozwiązaniem tego układu, to zbiór wszystkich rozwiązań ma postać $ X_\ast+N(A)=\set{X_\ast+Z:Z\in N(A)} $.
Dowód: Pierwsza część tezy wynika z faktu, że niesprzeczność $ AX=B $ jest równoważna warunkowi $ B\in K(A) $. Druga część oznacza, że $ X $ jest rozwiązaniem wtedy i tylko wtedy, gdy $ X-X_\ast\in N(A) $, a to wynika z równości $ A(X-X_\ast)=AX-AX_\ast=AX-B $ (zob.\ wzory w Uwadze [link]). □

Opiszemy teraz wymiar $ N(A) $ korzystając z faktu, że liczba zmiennych zależnych w rozwiązaniu ogólnym układu $ AX=\0 $ jest liczbą schodków macierzy $ A' $ otrzymanej w wyniku redukcji $ A $ do postaci schodkowej.

Twierdzenie (#) Dla macierzy $ A\in\M{m}{n}{\K} $ \ $ \dim N(A)=n-\r A $.
Dowód: Niech $ p=n-\r A $ będzie liczbą zmiennych niezależnych układu $ AX=\0 $. Zgodnie z Uwagą [link] każde rozwiązanie tego układu jest wyznaczone przez wartości zmiennych niezależnych $ t_1,\ldots,t_p $ i ma postać $ X=t_1X_1+\ldots+t_pX_p $. Z Uwagi [link] wynika, że układ $ (X_1,\ldots,X_p) $ jest bazą $ N(A) $. □

Podprzestrzeń $ V $ przestrzeni $ \K^n $ mająca bazę $ (A_1,\ldots,A_r) $ jest przestrzenią kolumn macierzy $ A=[A_1,\ldots,A_r]\in\M{n}{r}{\K} $. Pokażemy, że $ V $ jest również przestrzenią zerową pewnej macierzy z $ \M{{n-r}}{n}{\K} $.

Twierdzenie (#) Jeśli $ V\subset\K^n $, $ \dim V=r $, to $ V $ jest przestrzenią zerową pewnej macierzy \mbox{$ C\in\M{{n-r}}{n}{\K} $.}
Dowód: Niech $ A\in\M{n}{r}{\K} $ będzie macierzą, której kolumny są bazą $ V $, $ V=K(A) $. Wektor $ Y\in \K^n $ jest w $ V $ wtedy i tylko wtedy, gdy układ równań $ AX=Y $ jest niesprzeczny, a więc gdy po redukcji macierzy $ [A|Y] $ do postaci schodkowej otrzymana macierz $ [A'|Y'] $ nie ma schodka w ostatniej kolumnie. Ponieważ $ \r A = \dim V=r $, to oznacza, że współrzędne $ Y' $ o indeksach $ \geq r+1 $ są zerami.

Wektor $ Y\in\K^n $ jest jedynym rozwiązaniem układu równań $ IX=Y $ o macierzy $ I=[\ep_1,\ldots,\ep_n]\in\M{n}{n}{\K} $, zob.\ Przykład [link] (a).

Wektory $ Y\in V $ można opisać następująco. Niech $ I' $ będzie macierzą otrzymaną z macierzy $ I $ przez prowadzenie na niej operacji elementarnych redukujących $ A $ do $ A' $ i niech $ C\in\M{{n-r}}{n}{\K} $ będzie macierzą złożoną z ostatnich $ n-r $ wierszy macierzy $ I' $. Jedynym rozwiązaniem układu równań $ I'X=Y' $ jest $ Y $, bo ten układ jest równoważny układowi $ IX=Y $, a więc $ Y\in V $ wtedy i tylko wtedy, gdy $ I'Y $ ma zera na ostatnich $ n-r $ miejscach, tzn.\ gdy $ CY=\0 $. Zatem $ V=N(C) $. □

W praktyce macierz $ C $ układu równań opisującego przestrzeń $ K(A)\subset \K^n $ wymiaru $ r $ wyznacza się redukując macierz $ [A|I] $ do macierzy $ [A'|I'] $ takiej, że $ A' $ jest w postaci schodkowej ($ C $ jest złożona z ostatnich $ n-r $ wierszy macierzy $ I' $).

Wiersze macierzy $ A\in\M{m}{n}{\K} $ należą do przestrzeni liniowej macierzy jednowierszowych $ \M{1}{n}{\K} $, którą będziemy oznaczać przez $ \K_n $.

Definicja Przestrzenią wierszy macierzy $ A\in\M{m}{n}{\K} $ nazywamy podprzestrzeń $ W(A) $ przestrzeni $ \K_n $ rozpiętą przez wiersze $ A $.
Twierdzenie (#) Dla macierzy $ A\in\M{m}{n}{\K} $ \ $ \dim W(A)=\dim K(A) $.
Dowód: 0peracje elementarne na wierszach nie zmieniają przestrzeni wierszy. Jest to oczywiste dla operacji typu (II) i (III). Jeśli $ \widetilde{A} $ powstaje z $ A\in\M{m}{n}{\K} $ w wyniku zastosowania operacji (I)$ _{a(i)+(k)} $, to oczywiście $ W(\widetilde{A})\subset W(A) $. Równość wynika z faktu, że operacja (I)$ _{(-a)(i)+(k)} $ prowadzi od $ \widetilde{A} $ do $ A $.

Wystarczy teraz pokazać, ze dla macierzy $ A' $ w postaci schodkowej $ \dim W(A') $ jest równy liczbie schodków tej macierzy. Istotnie, $ W(A') $ jest rozpinana przez swoje niezerowe wiersze $ (w_1',\ldots,w_r') $, które są liniowo niezależne, bo po zmianie kolejności na $ (w_r',\ldots,w_2',w_1') $ spełniają warunek ($ iii $) Twierdzenia [link]. □

Suma prosta podprzestrzeni

W klasie podprzestrzeni liniowych ustalonej przestrzeni liniowej są dwie naturalne operacje: przecięcia oraz sumy algebraicznej. Podamy pewne użyteczne fakty dotyczące tych operacji.

Uwaga (#) Jeśli $ V_1,V_2 $ są podprzestrzeniami przestrzeni liniowej $ V $ to część wspólna $ V_1\cap V_2=\set{\al: \al\in V_1 \mbox{ i }\al\in V_2} $ i $ V_1+V_2 = \set{\al_1+\al_2:\al_1\in V_1, \al_2\in V_2} $ są podprzestrzeniami $ V $.
Definicja (#) Podprzestrzeń $ V_1+V_2 $ przestrzeni $ V $ nazywamy sumą algebraiczną podprzestrzeni $ V_1,V_2 $.
Definicja (#) Sumę algebraiczną $ V_1+V_2 $ nazywamy sumą prostą jeśli dla dowolnie wybranych $ \al_j\in V_j $ z $ \al_1+\al_2=\0 $ wynika, że $ \al_1=\al_2=\0 $. Sumę prostą $ V_1+V_2 $ oznaczamy przez $ V_1\oplus V_2 $.
Uwaga Suma $ V_1+V_2 $ jest sumą prostą wtedy i tylko wtedy, gdy każdy wektor $ \al\in V_1+V_2 $ daje się przedstawić jako suma $ \al=\al_1+\al_2 $, gdzie $ \al_j\in V_j $, na dokładnie jeden sposób (bo z $ \al=\be_1+\be_2=\ga_1+\ga_2 $ wynika, że $ (\be_1-\ga_1)+(\be_2-\ga_2)=\0 $). Wektory $ \al_j $ nazywamy składowymi wektora $ \al\in V_1\oplus V_2 $.
Twierdzenie (#) Dla $ V_1,V_2\subset V $, \ $ V_1+V_2=V_1\oplus V_2 $ wtedy i tylko wtedy, gdy $ V_1\cap V_2=\set{\0} $.
Dowód: Teza wynika z faktu, że $ \0=\al_1+\al_2\in V_1+V_2 $ wtedy i tylko wtedy, gdy $ \al_2=-\al_1\in V_1\cap V_2 $
Twierdzenie (#) Jeśli układ $ \A_j $ jest bazą przestrzeni $ V_j\subset V $ dla $ j=1,2 $ i układ $ \A=(\A_1,\A_2) $ powstaje przez dołączenie do $ \A_1 $ układu $ \A_2 $, to układ $ \A $ jest bazą $ V_1+V_2 $ wtedy i tylko wtedy, gdy $ V_1+V_2=V_1\oplus V_2 $.
Dowód: Układ $ \A $ oczywiście rozpina $ V_1+V_2 $. Każdy wektor $ \al_j\in V_j $ daje się jednoznacznie przedstawić jako kombinacja wektorów bazy $ \A_j $, zob.\ Uwaga [link]. Jednoznaczność rozkładu wektora $ \0 $ na składowe $ \al_j\in V_j $ jest więc równoważna z jednoznacznością zapisu $ \0 $ jako kombinacji wektorów układu $ \A $. □
Stwierdzenie (#) $ V_1+V_2=V_1\oplus V_2 $ wtedy i tylko wtedy, gdy $ \dim V_1+\dim V_2=\dim(V_1+V_2) $.

Ważną własnością przestrzeni liniowych jest fakt, że każdą podprzestrzeń przestrzeni liniowej można uzupełnić do sumy prostej, tzn.\

Stwierdzenie (#) Dla dowolnej podprzestrzeni $ W $ przestrzeni liniowej $ V $ istnieje podprzestrzeń $ U\subset V $ taka, że $ W\oplus U=V $.

Wniosek jest natychmiastową konsekwencją Twierdzenia [link] i twierdzenia o rozszerzaniu dowolnego układu liniowo niezależnego do bazy (zob.\ [link]).

Wyprowadzimy stąd następującą formułę Grassmana.

Twierdzenie (#) Jeśli $ V_1,V_2 $ są podprzestrzeniami przestrzeni liniowej $ V $, to

$$\dim(V_1+V_2)=\dim V_1+\dim V_2 - \dim(V_1\cap V_2).$$
Dowód: Połóżmy $ W=V_1\cap V_2 $ i niech $ U $ będzie podprzestrzenią $ V_2 $ taką, że $ V_2=W\oplus U $ ($ U=V_2 $ jeśli $ W=\set{\0} $). Zauważmy, że $ V_1+V_2=V_1+U $, bo dla $ \al_1+\al_2\in V_1+V_2 $ wektor $ \al_2=\be+\ga\in W\oplus U $, więc $ \al_1+\al_2=\al_1+(\be+\ga)=(\al_1+\be)+\ga\in V_1+U $.

Z $ U\subset V_2 $ mamy $ V_1\cap U=V_1\cap V_2\cap U=W\cap U=\set{\0} $, więc $ V_1+W=V_1\oplus U $ z Twierdzenia [link]. Z Wniosku [link] dostajemy $ \dim (V_1+V_2)=\dim (V_1+U)=\dim V_1+\dim U=\dim V_1+\dim V_2-\dim W $. □