Vektoriavaruuden kanta

Olkoon \(V \ n\)-ulotteinen vektoriavaruus, \(n < \infty\). Jos joukon \(\{\mathbf{v}_1,\dots,\mathbf{v}_n\}\subset V\) alkiot ovat lineaarisesti riippumattomia vektoreita, niin se on \(V\):n kanta.

Jokaiselle äärellisulotteiselle vektoriavaruudelle (pl. \(\mathbb{R}^0\)) on olemassa kanta, oikeastaan tämä kanta voidaan vieläpä valita äärettömän monella tavalla.

Kantavektorien lukumäärä kertoo avaruuden dimension eli aiemmalla notaatiolla \(\dim(V)=n\).

Kantojen tärkein ominaisuus on seuraava: Jos joukko \(\,B=\{\mathbf{b}_1,\mathbf{b}_2,\dots,\mathbf{b}_n\}\,\) on vektoriavaruuden \(\,V\,\) kanta, niin jokainen vektori \(\,\mathbf{v}\in V\,\) voidaan esittää muodossa \(\,\mathbf{v}=c_1\,\mathbf{b}_1+c_2\,\mathbf{b}_2+\dots+c_n\,\mathbf{b}_n\,\) täsmälleen yhdellä tavalla eli skalaarikertoimet \(c_1, \dots, c_n \in \mathbb{R}\) voidaan valita täsmälleen yhdellä tavalla. Toisin sanoen kannan \(B\) lineaariyhdistelyillä voidaan muodostaa vektoriavaruuden \(V\) kaikki pisteet. Tällöin sanotaan, että \(B\) virittää avaruuden \(V\), mitä voidaan merkitä matematiikassa seuraavasti: \(V =\text{span} \ B\).

Ortogonaalisuus ja ortonormaalius

Oletetaan, että \(\mathbf{v}_1,\mathbf{v}_2 \in V\) ovat vektoreita ja niiden sisätulo on määritelty.

Tällöin vektoreita \(\mathbf{v}_1,\mathbf{v}_2\) sanotaan keskenään ortogonaalisiksi (kohtisuoriksi), jos pätee \(\langle \mathbf{v}_1,\mathbf{v}_2 \rangle = 0\).

Vastaavasti vektoreja \(\mathbf{v}_1,\ldots,\mathbf{v}_n\in V\) sanotaan ortogonaalisiksi, jos \( \langle \mathbf{v}_i,\mathbf{v}_j \rangle=0\) aina kun \(i\neq j\).

Vektoreja \(\mathbf{v}_1,\ldots,\mathbf{v}_n\in V\) sanotaan ortonormaaleiksi , jos

\[ \langle \mathbf{v}_i,\mathbf{v}_j \rangle =\left\{\begin{array}{rl} 0, &i\neq j,\\ 1, & i=j.\end{array}\right. \]

Ortonormaalius siis tarkoittaa sitä, että vektorit ovat keskenään kohtisuorassa ja lisäksi jokaisen niistä normi (pituus) on \(1\).

Huomioita:
  • Ortogonaaliset (ja ortonormaalit) vektorit ovat lineaarisesti riippumattomia.
  • Ortogonaalinen matriisi tarkoittaa, että sen sarakevektorit ovat ortonormaaleja eli siis kohtisuorassa toisiinsa olevia yksikkövektoreita.

Esimerkki

Osoita, että jos \( \mathbf{T}\) on yläkolmiomatriisi ja lisäksi ortogonaalinen, niin \( \mathbf{T}\) on diagonaalimatriisi.

Ratkaisu

Yläkolmiomatriisi \( \mathbf{T}\) on muotoa

\[ \mathbf{T}=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ 0 & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & a_{nn} \end{pmatrix} \] Jos matriisi \( \mathbf{T}\) on ortogonaalinen, on jokainen sarake pituudeltaan 1 ja lisäksi kohtisuorassa kaikkia muita sarakkeita vastaan.

Jotta ensimmäisen sarakkeen pituudeksi tulee 1, täytyy alkion \(a_{11}\) olla \(\pm 1\), sillä kaikki muut alkiot tässä sarakkeessa ovat nollia. Matriisi \( \mathbf{T} \) saadaan siis muotoon:

\[ \mathbf{T}=\begin{pmatrix} \pm 1 & a_{12} & \cdots & a_{1n} \\ 0 & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & a_{nn} \end{pmatrix} \]

Tarkasteltaessa seuraavaa saraketta tulee alkion \(a_{12}\) olla nolla ja alkio \(a_{22}\) olla \( \pm 1\), jotta tämä sarake on kohtisuorassa ensimmäisen sarakkeen kanssa ja pituudeltaan 1. Vastaavasti seuraavan sarakkeen tulee olla nolla kaikilla riveillä, joilla on jo arvo \( \pm 1\) jossain kohdassa, jotta se on kohtisuorassa näitä sarakkeita vastaan. Lisäksi pituuden tulee aina olla 1, joten tämä arvo tulee aina diagonaalille. Päädytään siis siihe, että matriisi \( \mathbf{T}\) on diagonaalimatriisi:

\[ \mathbf{T}=\begin{pmatrix} \pm 1 & 0 & \cdots & 0 \\ 0 & \pm 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \pm 1 \end{pmatrix}. \]

Ortonormaali kanta

Seuraavaksi pohditaan, miten mistä tahansa avaruuden \(V\) kannasta \(B=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\} \subset V\) saadaan ortonormaali.

Vektoriavaruuden ortonormaali kanta on mahdollisimman siisti, ts. se on yleensä helpoin käsitellä sekä laskujen että teoreettisten tulosten kannalta.

Ortonormaalin kannan löytämiseen on seuraava erittäin hyödyllinen algoritmi, jota kutsutaan Gram-Schmidtin ortogonalisoimiseksi.

Algoritmissa vektoreista \(B=\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\}\) siis muodostetaan ortonormaali kanta \(U=\{\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_n\}\) avaruudelle \(V\). Algoritmin implementaatio on kuvailtu myöhemmässä extra-kappaleessa.

Huom. \(c_1\,\mathbf{b}_1+c_2\,\mathbf{b}_2+\dots+c_n\,\mathbf{b}_n \neq c_1\,\mathbf{u}_1+c_2\,\mathbf{u}_2+\dots+c_n\,\mathbf{u}_n, \quad \forall \mathbf{c} \in \mathbb{R}^n \)

eli vaikka \(B\) ja \(U\) virittävätkin saman avaruuden, pisteiden lineaariyhdistelyt eivät yleensä ole samat (pl. origo).

Kannanvaihto*

Tarkastellaan tilannetta, jossa tunnetaan vektorin esitys kannassa \(\,B=\{\mathbf{b}_1,\mathbf{b}_2,\dots,\mathbf{b}_n\}\,\) ja halutaan vaihtaa toiseen kantaan \(\,U=\{\mathbf{u}_1,\mathbf{u}_2,\dots,\mathbf{u}_n\}\,.\)

Lasketaan, miten uudet koordinaatit saadaan lausuttua vanhojen avulla.

Merkitään vektorin \(\,\mathbf{v}\,\) koordinaatteja näissä kannoissa

\[ [\mathbf{v}]_B=(\beta_1,\dots,\beta_n)\quad \text{ja} \quad [\mathbf{v}]_U=(\eta_1,\dots,\eta_n)\ . \]

Oletetaan, että vanhat kantavektorit \(\,\mathbf{b}^j\,\) on lausuttu uusien kantavektoreiden \(\,\mathbf{u}^i\,\) avulla

\begin{equation} \mathbf{b}^j=\sum_{i=1}^n s_{ij}\,\mathbf{u}^i\ ,\qquad j=1,\dots,n\,. \end{equation}

Tällöin saadaan

\[\mathbf{v}=\sum_{i=1}^n\eta_i\,\mathbf{u}^i=\sum_{j=1}^n\beta_j\,\mathbf{b}^j= \sum_{j=1}^n\beta_j\,\sum_{i=1}^n s_{ij}\,\mathbf{u}^i= \sum_{i=1}^n \Big(\sum_{j=1}^n s_{ij}\,\beta_j\Big)\,\mathbf{u}^i\ .\]

Koska vektorin koordinaatit (kannassa \(\,U\,\)) ovat yksikäsitteiset, on oltava

\begin{equation} \eta_i=\sum_{j=1}^n s_{ij}\,\beta_j\ ,\qquad i=1,\dots,n\,. \end{equation}

Merkitään

\[ \mathbf{S}=\begin{pmatrix} s_{11}&\dots&s_{1n}\\\vdots&&\vdots\\s_{n1}&\dots&s_{nn} \end{pmatrix}\,. \]

Tällöin koordinaattien välinen yhtälö voidaan kirjoittaa

\begin{equation} [\mathbf{v}]_U=\mathbf{S}\,[\mathbf{v}]_B\ . \end{equation}

Siten uudet koordinaatit saadaan matriisilla \(\,\mathbf{S}\,\) kertomalla vanhoista, kun \(\,\mathbf{S}\,\):n sarakkeina on vanhojen kantavektoreiden koordinaattivektorit uudessa kannassa.

Matriisia \(\,\mathbf{S}\,\) kutsutaan kannanvaihtomatriisiksi ja se siis välittää yllä olevan mukaisesti koordinaattimuunnoksen.

Kannanvaihtomatriisi on aina kääntyvä, ja vanhat koordinaatit saadaan uusista kaavalla

\[[\mathbf{v}]_B=\mathbf{S}^{-1}\,[\mathbf{v}]_U\ .\]

Gram-Schmidtin ortogonalisointialgoritmi*

Olkoon \(\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\}\) avaruuden \(V\) kanta. Siitä voidaan muodostaa \(V\):n ortonormaali kanta seuraavalla algoritmilla:

  1. Valitaan aluksi \(\mathbf{u}_1:=\mathbf{v}_1/\|\mathbf{v}_1\|\). Saadaan avaruuden \(\mathrm{span}\{\mathbf{v}_1\}\) ortonormaali kanta.
  2. Jatketaan rekursiivisesti: Kun \(\{\mathbf{u}_1,\ldots,\mathbf{u}_k\}\) on vektoriavaruuden \(\mathrm{span}\{v_1,\ldots,v_k\}\) ortonormaali kanta, voidaan valita
    \[ \mathbf{w}_{k+1}:= \mathbf{v}_{k+1}-\langle \mathbf{v}_{k+1},\mathbf{u}_1 \rangle \mathbf{u}_1-\langle \mathbf{v}_{k+1},\mathbf{u}_{2} \rangle \mathbf{u}_2-\ldots -\langle \mathbf{v}_{k+1},\mathbf{u}_k \rangle \mathbf{u}_k. \]

    Nyt \(\langle \mathbf{w}_{k+1},\mathbf{u}_j\rangle =\langle \mathbf{v}_{k+1},\mathbf{u}_j \rangle-\langle \mathbf{v}_{k+1},\mathbf{u}_j \rangle \langle \mathbf{u}_j,\mathbf{u}_j\rangle=0\) kaikilla \(j=1,\ldots,k\), koska \(\langle \mathbf{u}_i,\mathbf{u}_j \rangle=0\) aina kun \(i\neq j\), ja \(\langle \mathbf{u}_j,\mathbf{u}_j \rangle=1\).

    Voidaan siis valita \(\mathbf{u}_{k+1}:= \mathbf{w}_{k+1}/\|\mathbf{w}_{k+1}\|\).

  3. Toistetaan edellistä askelta, kunnes on käyty läpi kaikki vektorit \(\{\mathbf{v}_1,\mathbf{v}_2,\ldots,\mathbf{v}_n\}\). Näin saadaan ortonormaali kanta.

Esimerkki

Olkoon

\[ \mathbf{A}=\begin{pmatrix} 1 & -2 & 1 \\ 2 & 0 & 4 \\ 2 & -4 & 2 \\ 4 & 0 & 0 \end{pmatrix}. \] Etsi matriisin \( \mathbf{A}\) sarakevektoreiden virittämälle avaruudelle ortonormaali kanta.

Ratkaisu:

Gram-Schmidt -prosessi:

\begin{align*} \mathbf{v}_1 & = \mathbf{a}_1, \quad \mathbf{q}_1=\frac{\mathbf{v}_1}{\|\mathbf{v}_1\|} \\ \mathbf{v}_2 & = \mathbf{a}_2- \langle \mathbf{q}_1, \mathbf{a}_2 \rangle \mathbf{q}_1, \quad \mathbf{q}_2=\frac{\mathbf{v}_2}{\|\mathbf{v}_2\|} \\ \mathbf{v}_3 & = \mathbf{a}_3- \langle \mathbf{q}_1, \mathbf{a}_3 \rangle \mathbf{q}_1- \langle \mathbf{q}_2, \mathbf{a}_3 \rangle \mathbf{q}_2, \quad \mathbf{q}_3=\frac{\mathbf{v}_3}{\|\mathbf{v}_3\|} \end{align*} Lasketaan \( \mathbf{q}_1, \mathbf{q}_2, \mathbf{q}_3\): \[ \mathbf{v}_1=\mathbf{a}_1=\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}, \] \[ \mathbf{q}_1=\frac{\mathbf{v}_1}{\|\mathbf{v}_1\|}=\frac{1}{\sqrt{1^2+2^2+2^2+4^2}}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}=\frac{1}{5}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}, \] \begin{array}{ll} \mathbf{v}_2 = \mathbf{a}_2- \langle \mathbf{q}_1, \mathbf{a}_2 \rangle \mathbf{q}_1 & =\begin{pmatrix} -2 \\ 0 \\ -4 \\ 0 \end{pmatrix}-\frac{1}{5}(-2+0-8+0)\cdot \frac{1}{5}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix} \\ & =\begin{pmatrix} -2 \\ 0 \\ -4 \\ 0 \end{pmatrix}+\frac{2}{5}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}=\begin{pmatrix} -8/5 \\ 4/5 \\ -16/5 \\ 8/5 \end{pmatrix}, \end{array} \[ \mathbf{q}_2=\frac{\mathbf{v}_2}{\|\mathbf{v}_2\|}=\frac{1}{\sqrt{\frac{400}{25}}}\begin{pmatrix} -8/5 \\ 4/5 \\ -16/5 \\ 8/5 \end{pmatrix}=\frac{1}{5}\begin{pmatrix} 2 \\ 1 \\ -4 \\ 2 \end{pmatrix}, \] \begin{array}{ll} \mathbf{v}_3 & = \mathbf{a}_3- \langle \mathbf{q}_1, \mathbf{a}_3 \rangle \mathbf{q}_1-\langle \mathbf{q}_2, \mathbf{a}_3 \rangle \mathbf{q}_2 \\ & =\begin{pmatrix} 1 \\ 4 \\ 2 \\ 0 \end{pmatrix}-\frac{1}{5}(1+8+4)\cdot \frac{1}{5}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}-\frac{1}{5}(-2+4-8)\cdot \frac{1}{5} \begin{pmatrix} -2 \\ 1 \\ -4 \\ 2 \end{pmatrix} \\ & =\begin{pmatrix} 1 \\ 4 \\ 2 \\ 0 \end{pmatrix}-\frac{13}{25}\begin{pmatrix} 1 \\ 2 \\ 2 \\ 4 \end{pmatrix}-\frac{6}{25}\begin{pmatrix} -2 \\ 1 \\ -4 \\ 2 \end{pmatrix}=\begin{pmatrix} 1 \\ 4 \\ 2 \\ 0 \end{pmatrix}-\begin{pmatrix} 1 \\ 4/5 \\ 2 \\ 8/5 \end{pmatrix}=\begin{pmatrix} 0 \\ 16/5 \\ 0 \\ -8/5 \end{pmatrix}, \end{array} \[ \mathbf{q}_3=\frac{\mathbf{v}_3}{\|\mathbf{v}_3\|}=\frac{1}{\sqrt{\frac{320}{25}}}\begin{pmatrix} 0 \\ 16/5 \\ 0 \\ -8/5 \end{pmatrix}=\frac{1}{\sqrt{5}}\begin{pmatrix} 0 \\ 2 \\ 0 \\ -1 \end{pmatrix} \] Täten matriisin \( \mathbf{A} \) sarakevektoreiden virittämälle avaruudelle ortonormaali kanta \[ \mathbf{Q}=\begin{pmatrix} 1/5 & -2/5 & 0 \\ 2/5 & 1/5 & 2/\sqrt{5} \\ 2/5 & -4/5 & 0 \\ 4/5 & 2/5 & -1/\sqrt{5} \end{pmatrix}. \]
Last modified: Monday, 2 October 2017, 12:04 PM