Formy wieloliniowe antysymetryczne

W tym podrozdziale $ S_k $ oznacza grupę permutacji. Przypomnijmy: znakiem permutacji $ \sigma\in S_k $ nazywa się liczbę

\[ \eps(\sigma)=(-1)^{p(\sigma)}, \qquad\mbox{gdzie}\quad  p(\sigma)=\#{}\{(i,j)\colon 1\le i< j\le k, \ \sigma(i)>\sigma(j)\}\, . \]

Znak permutacji $ \sigma $ jest równy $ 1 $ wtedy i tylko wtedy, gdy $ \sigma $ jest złożeniem parzystej liczby transpozycji; jeśli $ \sigma $ jest złożeniem nieparzystej liczby transpozycji, to $ \eps(\sigma)=-1 $. Przekształcenie $ \eps\colon S_k\to \Z_2=\{-1,1\} $ jest homomorfizmem grup.

Definicja Niech $ k\in \N $ i niech $ X $ będzie przestrzenią wektorową nad ciałem $ \R $. Przekształcenie $ k $-liniowe $  	\omega\colon X^k=X\times \ldots \times X\to \R  $ nazywa się $ k $-formą antysymetryczną wtedy i tylko wtedy, gdy równość

\[ \begin{equation}\label{antysym} \omega(\bxi_1,\ldots,\bxi_{i-1},\textcolor{blue}{\bxi_j} ,\bxi_{i+1},\ldots,\bxi_{j-1},\textcolor{blue}{\bxi_i},\bxi_{j+1},\ldots,\bxi_k) = - \omega(\bxi_1,\ldots,\bxi_k)	 \end{equation} \]

zachodzi dla wszystkich $ i,j\in \{1,\ldots,k\} $, $ i<j $, oraz wszystkich wektorów $ \bxi_1,\ldots,\bxi_k\in X $.

Zbiór wszystkich $ k $-form antysymetrycznych oznacza się symbolem $ \Lambda^kX^\ast $. Dla $ k=0 $ przyjmujemy $ \Lambda^0X^\ast=\R $. Dla $ k=1 $ warunek z definicji jest zawsze spełniony; wtedy $ \Lambda^1X^\ast=X^\ast $ jest przestrzenią wszystkich funkcjonałów liniowych na $ X $.

Uwaga Zbiór $ \Lambda^kX^\ast $ jest przestrzenią liniową. Jeśli forma $ \omega\in \Lambda^kX^\ast $ i permutacja $ \sigma\in S_k $, to

\[ 	\omega(\bxi_{\sigma(1)},\ldots,\bxi_{\sigma(k)})=\eps(\sigma)\cdot \omega(\bxi_1,\ldots,\bxi_{k}) 	\]

dla wszystkich wektorów $ \bxi_1,\ldots,\bxi_k\in X $. Wynika to z faktu, że każda permutacja jest złożeniem transpozycji.

Stwierdzenie Jeśli $ \omega\in \Lambda^kX^\ast $ i wektory $ \bxi_1,\ldots,\bxi_k\in X $ są liniowo zależne, to $ \omega(\bxi_1,\ldots,\bxi_{k})=0 $. W szczególności, $ \Lambda^kX^\ast=\{0\} $ dla $ k>\dim X $.
Dowód: Bez zmniejszenia ogólności załóżmy, że $ \bxi_1=a_2\bxi_2+\cdots a_k\bxi_k $. Z liniowości $ \omega $ względem pierwszego argumentu wynika, że

\[ \omega(\bxi_1,\ldots,\bxi_{k})=\sum_{j=2}^ka_j\, \omega(\bxi_j,\bxi_2,\ldots,\bxi_k). \]

Wobec antysym, każdy składnik sumy jest zerem (dwa spośród argumentów $ \omega $ są równe!). □

Przykład [baza i wymiar przestrzeni $ \Lambda^k (\R^n)^\ast $](#) Ustalmy $ k\in \{1,\ldots, n\} $. Niech $ X=\R^n $. Dla każdego uporządkowanego zestawu $ k $ różnych liczb

\[ \begin{equation} 		\label{J} J=(j_1,\ldots,j_k)\in \N^k, \qquad 1\le j_1<j_2<\ldots<j_k\le n		 \end{equation} \]

określimy odwzorowanie liniowe $ dx_J\colon \big(\R^n\big)^k\to \R $ wzorem

\[ \begin{equation} 	\label{dx J} 	dx_J(\bxi_1,\bxi_2,\ldots,\bxi_k)=\det\Big(\big(\bxi_{\mu,j_\nu} 	\big)_{\mu,\nu=1,\ldots,k}\Big)\, . \end{equation} \]

Ponieważ wyznacznik jest antysmetryczną funkcją kolumn (wierszy) macierzy, więc rzeczywiście $ dx_J\in \Lambda^k (\R^n)^\ast $. Zbiór wszystkich zestawów $ J $, określonych w J, oznaczymy symbolem $ \mathcal{J}_k(n) $. Jest rzeczą jasną, że $ \mathcal{J}_k(n) $ ma $ \binom nk $ elementów.

Wykażemy, że formy $ dx_J $, gdzie $ J\in \mathcal{J}_k(n) $, stanowią bazę $ \Lambda_k(\R^n)^\ast $. Niech $ \ee_1,\ldots,\ee_n $ będą wektorami standardowej bazy w $ \R^n $. Zauważmy, że dla $ I,J\in \mathcal{J}_k(n) $, $ J=(j_1,\ldots,j_k) $,

\[ {\dyj xI} (\ee_{j_1},\ldots,\ee_{j_k})=\delta_{IJ}=\begin{cases}1, & I=J, \\0, &\text{w przeciwnym przypadku.}\end{cases} \]

Wartości formy $ \omega\in \Lambda^k(\R^n)^\ast $ wystarczy określić na wszelkich układach wektorów bazy w $ \R^n $ (i każda forma jest przez te wartości określona jednoznacznie). Dlatego równość $ \omega=\sum_Ja_J\, dx_J $ zachodzi wtedy i tylko wtedy, gdy

\[ \begin{equation} 	\label{wzor aJ} 	\omega (\ee_{j_1},\ldots,\ee_{j_k})=a_J \qquad\mbox{dla wszystkich}\qquad J\in \mathcal{J}_k(n).  \end{equation} \]

Zatem formy $ dx_J $ istotnie są bazą $ \Lambda_k(\R^n)^\ast $ i mamy

\[ \begin{equation} 	\label{dim lambda k} 	\dim \Lambda_k(\R^n)^\ast=\#\mathcal{J}_k(n)=\binom nk \qquad\mbox{dla $k=1,\ldots,n$.} \end{equation} \]

    Interpretacja geometryczna. Zanim przejdziemy do kolejnej abstrakcyjnej definicji, wspomnijmy o geometrycznej interpretacji form $ {\dyj xI} $. Otóż, $ k $ liniowo niezależnych wektorów $ \bxi_1,\ldots,\bxi_k\in \R^n $ rozpina $ k $-wymiarowy równoległościan w $ \R^n $. Wobec wzoru dx J oraz geometrycznej interpreatcji wyznacznika, liczba $ {\dyj xI}(\bxi_1,\ldots,\bxi_k) $ jest, z dokładnością do znaku, $ k $-wymiarową objętością rzutu tego równoległościanu na $ k $-wymiarową podprzestrzeń $ \R^I\subset\R^n $, rozpiętą na wektorach $ \ee_{i_1},\ldots,\ee_{i_k} $, gdzie zestaw numerów $ (i_1,\ldots,i_k)=I $. Znak zależy od tego, czy rzuty wektorów $ \xi_j $ na $ \R^I $ tworzą bazę zorientowaną zgodnie ze standardową bazą $ \R^I $, czy nie.

Definicja [iloczyn zewnętrzny] Niech $ k,l\in \N $. Iloczynem zewnętrznym form $ \alpha\in \Lambda^k X^\ast $ i $ \beta\in \Lambda^l X^\ast $ nazywamy formę $ \alpha\wedge\beta\in \Lambda^{k+l}X^\ast $ określoną wzorem

\[ 	\alpha\wedge\beta(\bxi_1,\ldots,\bxi_{k+l})=\sum_{\sigma\in S_{k,l}} \eps(\sigma)\, \alpha(\bxi_{\sigma(1)},\ldots,\bxi_{\sigma(k)})\, \beta(\bxi_{\sigma(k+1)},\ldots,\bxi_{\sigma(k+l)}) 	\]

gdzie $ S_{k,l} $ oznacza podzbiór grupy permutacji $ S_{k+l} $ złożony z tak zwanych $ (k,l) $-tasowań,

\[ S_{k,l}=\big\{\sigma\in S_{k+l}\; \colon\quad \sigma(1)<\ldots <\sigma(k),\quad \sigma(k+1)<\ldots <\sigma(k+l)\big\}\, . \]

Dla $ c\in \Lambda^0X^\ast\equiv \R $ i $ \alpha\in \Lambda^kX^\ast $ przyjmujemy $ c\wedge\alpha=c\,\alpha\in\Lambda^kX^\ast $.

Na przykład, dla $ \alpha,\beta\in \Lambda^1X^\ast $ oraz $ \gamma\in \Lambda^2X^\ast $ mamy wprost z definicji

\[ \begin{align*} (\alpha\wedge\beta)(\bxi,\bta)&=\alpha(\bxi)\beta(\bta)-\alpha(\bta)\beta(\bxi),\\ (\alpha\wedge\gamma)(\bxi,\bta,\bzeta)&=\alpha(\bxi)\gamma(\bta,\bzeta)-\alpha(\bta)\gamma(\bxi,\bzeta) +\alpha(\bzeta)\gamma(\bxi,\bta)\\ &= \alpha(\bxi)\gamma(\bta,\bzeta)+\alpha(\bta)\gamma(\bzeta,\bxi) +\alpha(\bzeta)\gamma(\bxi,\bta) \end{align*} \]

(ostatnia równość wynika z antysymetrii $ 2 $-formy $ \gamma $).

Wprost z definicji wynika też, że iloczyn zewnętrzny $ \alpha\wedge\beta $ jest przekształceniem dwuliniowym, tzn. zależy liniowo od każdego z czynników $ \alpha,\beta $ z osobna.

Lemat [własności iloczynu zewnętrznego] (#) Niech $ k,l,m\in \N\cup\{0\} $. Wówczas:

  1. dla $ \alpha\in \Lambda^k X^\ast $ i $ \beta\in \Lambda^l X^\ast $ jest
    \[ \alpha\wedge\beta=(-1)^{kl}	\beta\wedge\alpha \, ; 	\]
  2. iloczyn zewnętrzny jest łączny, tzn.
    \[ 	(\alpha\wedge\beta)\wedge\gamma=\alpha\wedge(\beta\wedge\gamma) \qquad\mbox{dla}\quad \alpha\in \Lambda^k X^\ast, \ \beta\in \Lambda^l X^\ast, \ \gamma\in \Lambda^m X^\ast; 	\]
  3. dla wszystkich $ J=(j_1,\ldots,j_k)\in\mathcal{J}_k(n) $ jest
    \[ dx_J=dx_{j_1}\wedge\ldots\wedge dx_{j_k}\, . \]
Dowód: Własność (i) wynika łatwo wprost z definicji; trzeba zauważyć, że każde tasowanie $ \sigma\in S_{k,l} $ można zmienić w tasowanie ze zbioru $ S_{l,k} $ za pomocą $ kl $ transpozycji (przestawień).

Aby wykazać łączność, wprowadzimy zbiór `potrójnych tasowań'

\[ S_{k,l,m}=\left\{\sigma\in S_{k+l+m}\ \Bigg|\quad  \begin{array}{l} \sigma(1)< \ldots <\sigma(k), \\ \sigma(k+1)<\ldots <\sigma(k+l), \\ \sigma(k+l+1)<\ldots <\sigma(k+l+m) \end{array} \right\} \]

Zarówno $ \big((\alpha\wedge\beta)\wedge\gamma\big)(\bxi_1,\ldots,\bxi_{k+l+m}) $, jak i $ \big(\alpha\wedge(\beta\wedge\gamma)\big)(\bxi_1,\ldots,\bxi_{k+l+m}) $ są, z definicji iloczynu zewnętrznego i własności znaku permutacji, równe liczbie

\[ \sum_{\sigma\in S_{k,l,m}} \eps(\sigma)\,  \alpha(\bxi_{\sigma(1)},\ldots,\bxi_{\sigma(k)})\, \beta(\bxi_{\sigma(k+1)},\ldots,\bxi_{\sigma(k+l)})\, \gamma(\bxi_{\sigma(k+l+1)},\ldots,\bxi_{\sigma(k+l+m)})\, . \]

Stąd wynika łączność mnożenia zewnętrznego. Iterując powyższy wzór, otrzymuje się przez indukcję, dla wszystkich $ 1 $-form $ \alpha_1,\ldots,\alpha_k\in X^\ast=\Lambda^1X^\ast $ i wektorów $ \bxi_1,\ldots,\bxi_k\in X $, równość

\[ \begin{equation} 	\begin{split} (\alpha_1\wedge\ldots\wedge\alpha_k)(\bxi_1,\ldots,\bxi_k)  &= \sum_\sigma \eps(\sigma)\cdot \alpha_1(\bxi_{\sigma(1)})\cdot\alpha_2(\bxi_{\sigma(2)})\cdot\ldots\cdot \alpha_k(\bxi_{\sigma(k)})\, \\ &=\det\Big(\big(\alpha_\nu(\bxi_{\mu}) \big)_{\mu,\nu=1,\ldots,k}\Big)\, . \end{split}	 \end{equation} \]

Kładąc $ X=\R^n $ oraz $ \alpha_\nu=dx_{j_\nu} $, otrzymujemy punkt (iii) tezy lematu.□

Definicja [przeciągnięcie formy] Jeśli $ A\colon X\to Y $ jest przekształceniem liniowym i $ \omega\in \Lambda^kY^\ast $, to formę $ A^\ast\omega \in \Lambda^kX^\ast $, nazywaną przeciągnięciem $ \omega $ za pomocą $ A $, definiujemy wzorem

\[ A^\ast\omega(\bxi_1,\ldots,\bxi_k)= \omega(A\bxi_1,\ldots,A\bxi_k)\, ,\qquad \bxi_j\in X \mbox{ dla $j=1,\ldots, k$.} \]

Przyporządkowanie $ \omega\mapsto A^\ast \omega $ jest przekształceniem liniowym z $ \Lambda^kY^\ast $ w $ \Lambda^k X^\ast $. Odnotujmy inne jego własności.

Stwierdzenie (#)

  1. Jeśli $ A\colon X\to Y $ i $ B\colon Y\to Z $ są przekształceniami liniowymi, to $ (B\circ A)^\ast\omega=A^\ast(B^\ast\omega) $ dla każdej $ k $-formy $ \omega\in \Lambda^k Z^\ast $.
  2. Wzór $ A^\ast (\alpha  		\wedge \beta) = A^\ast\alpha \wedge A^\ast\beta $ zachodzi dla wszystkich $ A\colon X\to Y $ liniowych oraz wszystkich $ \alpha\in \Lambda^kY^\ast $, $ \beta\in \Lambda^lY^\ast $.
  3. Jeśli $ A=\big(a_{ij}\big) $, gdzie $ {i=1,\ldots,n} $, $ {j=1,\ldots,m} $, jest przekształceniem liniowym z przestrzeni $ \R^m $ w $ \R^n $, przy czym współrzędnymi w $ \R^n $ i $ \R^m $ są, odpowiednio, $ \yy=(y_1,\ldots,y_n) $ i $ \xx=(x_1,\ldots,x_m) $, to wówczas
    \[ \begin{equation} 		\label{linpull dyJ} 		A^\ast({\dyj yJ})=\sum_{I\in \mathcal{J}_k(m)} \det A(J,I)\; {\dyj xI} \qquad\mbox{dla $J\in \mathcal{J}_k(n)$,}	 	\end{equation} \]

    gdzie symbol $ A(J,I) $ oznacza macierz $ k\times k $, powstającą z $ A $ przez wybór wierszy onumerach ze zbioru $ J\in \mathcal{J}_k(n) $ oraz kolumn o numerach ze zbioru $ I\in \mathcal{J}_k(m) $.

Dowód: Pierwsze dwie własności wynikają wprost z definicji; (i) jest praktycznie oczywista, natomiast dowód (ii) jest prostym ćwiczeniem, polegającym na wypisaniu definicji przeciągnięcia, definicji iloczynu zewnętrznego i raz jeszcze definicji przeciągnięcia. Szczegóły pozostawimy Czytelnikowi.

Dla dowodu (iii) skorzystamy z rachunków przeprowadzonych w Przykładzie [link]: jeśli $ \omega=A^\ast({\dyj yJ}) $, to równość

\[ \omega=\sum_{I\in \mathcal{J}_k(m)} {\bigi cI}\; {\dyj xI}, \]

wyrażająca formę $ \omega $ w bazie $ {\dyj xI} $, $ I\in \mathcal{J}_k(m) $, zachodzi wtedy i tylko wtedy, gdy dla każdego zestawu $ I=(i_1,i_2,\ldots,i_k) $ jest

\[ \begin{align*} 	{\bigi cI}=\omega(\ee_{i_1},\ldots,\ee_{i_k}) & = (A^\ast {\dyj yJ}) (\ee_{i_1},\ldots,\ee_{i_k})\\ 	& = \dyj yJ (A\ee_{i_1},\ldots,A\ee_{i_k})\\ 	& = \det \Big( 	\big((A\ee_{i_\mu})_{j_\nu}\big)_{\mu,\nu=1,\ldots,k} 	\Big) = \det A(J,I), \end{align*} \]

gdyż wektory $ A\ee_{i_\mu} $ są po prostu kolumnami macierzy przekształcenia $ A $. □