Aiemmin on jo havaittu, että avaruus tulee viritettyä kolmella vektorilla; eli kolmen vektorin kaikki lineaariyhdistelyt tuottavat kaikki avaruuden pisteet eli vektorit.

Esimerkki

Olkoon \[ \quad \mathbf{u}=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}, \quad \mathbf{v}=\begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix}, \quad \mathbf{w}=\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}, \] jolloin lineaariyhdistelyt ovat muotoa \( c\mathbf{u}+d\mathbf{v}+e\mathbf{w}\): \[ c\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}+d\begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix}+e\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}=\begin{pmatrix} c \\ d-c \\ e-d \end{pmatrix}. \]

Huomaa, että ilmeisesti jotain on vaadittava valituilta vektoreilta! Vektorit eivät voi olla esimerkiksi samansuuntaisia, sillä silloin ne virittäisivät ainoastaan suoran avaruuteen. Täsmällisemmin sanottuna tämä vaadittu ominaisuus on vektorien lineaarinen riippumattomuus, joka määritellään kohta.


Matriisivektoritulo

Kirjoitetaan aikaisemman esimerkin laskutoimitus matriisimuotoon \(\mathbf{Ax} \), missä on vektorit \( \mathbf{u,v,w}\) muodostavat matriisin \( \mathbf{A}\) sarakkeet ja \( \mathbf{x}\) on vektori, jonka komponentit ovat skalaarit \( c,d,e\).


Esimerkki

\[ c\mathbf{u}+d\mathbf{v}+e\mathbf{w}=(\mathbf{u} \ \mathbf{v} \ \mathbf{w})\begin{pmatrix} c \\ d \\ e \end{pmatrix}=\mathbf{Ax}. \] Eli sijoittamalla vektorien arvot matriisiin \(\mathbf{A} \) saadaan \[ \begin{pmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{pmatrix}\begin{pmatrix} c \\ d \\ e \end{pmatrix}=\begin{pmatrix} c \\ d-c \\ e-d \end{pmatrix}, \] josta saadaan sama tulos kuin aiemmin. Aiempi lasku voidaan kirjoittaa myös välivaiheella \[ \begin{pmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 0 & -1 & 1 \end{pmatrix}\begin{pmatrix} c \\ d \\ e \end{pmatrix}=\begin{pmatrix} (1,0,0)\cdot (c,d,e) \\ (-1,1,0)\cdot (c,d,e) \\ (0,1,1)\cdot (c,d,e) \end{pmatrix}=\begin{pmatrix} c \\ d-c \\ e-d \end{pmatrix} \] eli jokainen vastausvektorin komponentti voidaan nähdä matriisin \(\mathbf{A}\):n vastaavan rivin sekä vektorin \( (c,d,e) \) sisätulona.

Lineaarinen riippumattomuus ja riippuvuus

Olkoot \( \mathbf{x}_1,\ldots , \mathbf{x}_m\) vektoreita ja \( a_1,\ldots ,a_m \) tuntemattomia skalaareja. Vektorit \( \mathbf{x}_j\) ovat lineaarisesti riippumattomia, jos yhtälön

\[ \sum_{j=1}^{m}a_j\mathbf{x}_j=0 \]

ainoa ratkaisu on \( a_1=\ldots = a_m=0 \). Jos muita ratkaisuja on olemassa, ovat vektorit lineaarisesti riippuvia.

Tulkinta: Jos \( \mathbf{A} \):n sarakkeet ovat lineaarisesti riippumattomia, niin \( \mathbf{Ax}=0 \Rightarrow \mathbf{x}=0 \). Tällöin sanotaan, että \( \mathbf{A} \) on säännöllinen. Muulloin \( \mathbf{A} \) on singulaarinen.

Kun tason kantavektorit ovat lineaarisesti riippumattomia, niiden lineaariyhdistelynä voidaan saada mikä tahansa tason piste. Liikuta tason kantavektoreita (punaiset vektorit \(\mathbf{OA}\) ja \(\mathbf{OB}\) ja pistettä \( \mathbf{P} \) ja huomaa, missä tilanteessa pistettä ei voi ilmaista kantavektoreiden avulla. Tässä tilanteessa punaiset vektorit ovat lineaarisesti riippuvia, eivätkä siis muodosta tason kantaa.

Esimerkki

Millä lukuja \(\alpha, \beta, \gamma, \delta\) koskevillla ehdolla vektorit \(\alpha \mathbf{v} + \beta \mathbf{w} \) ja \(\gamma \mathbf{v} + \delta \mathbf{w}\) ovat lineaarisesti riippumattomia, jos vektorit \(\mathbf{v}\) ja \(\mathbf{w}\)

  1. ovat lineaarisesti riippumattomia?
  2. eivät ole lineaarisesti riippumattomia?

Ratkaisu

Jos kaksi vektoria ovat lineaarisesti riippuvia, voidaan ne lausua toistensa avulla, eli \( \mathbf{v}=a\mathbf{w}\). Kun taas vektorit ovat lineaarisesti riippumattomia, niitä ei voida lausua toistensa avulla, eli \( \mathbf{v}\neq a\mathbf{w}\).

Vektorit \( \alpha \mathbf{v}+\beta \mathbf{w}\) ja \( \gamma \mathbf{v}+\delta \mathbf{w}\) voidaan kirjoittaa epäyhtälöksi \(\alpha \mathbf{v}+\beta \mathbf{w}\neq a( \gamma \mathbf{v}+\delta \mathbf{w})\), missä \( a\) on joku vakio.

  1. Kun \( \mathbf{v}\) ja \( \mathbf{w}\) ovat lineaarisesti riippumattomia, voidaan epäyhtälö hajoittaa kahdeksi epäyhtälöksi: \begin{align*} & \alpha \neq a\gamma \\ & \beta \neq a\delta. \end{align*} Nämä kaksi yhtälöä voidaan kirjoittaa muotoon: \[ \frac{\alpha}{\gamma} \neq \frac{\beta}{\delta} \Rightarrow \alpha \delta - \beta \gamma \neq 0. \] Ehto, jolla vektorit \( \alpha \mathbf{v}+\beta \mathbf{w}\) ja \( \gamma \mathbf{v}+\delta \mathbf{w}\) ovat lineaarisesti riippumattomia, on siis \( \alpha \delta - \beta \gamma \neq 0 \).
  2. Kun \( \mathbf{v}\) ja \( \mathbf{w}\) eivät ole lineaarisesti riippumattomia, voidaan kirjoittaa \( \mathbf{v}=b\mathbf{w}\), missä \( b\) on joku vakio.

    Nyt vektorit \( \alpha \mathbf{v}+\beta \mathbf{w}\) ja \( \gamma \mathbf{v}+\delta \mathbf{w}\) voidaan kirjoittaa muotoon:

    \[ \begin{align*} \alpha (b \mathbf{w})+\beta \mathbf{w} \quad &\text{ja} \quad \gamma (b \mathbf{w})+\delta\mathbf{w} \\ \Rightarrow \quad (\alpha b+\beta )\mathbf{w} \quad &\text{ja} \quad (\gamma b+\delta)\mathbf{w}. \end{align*} \]

    Jotta nämä kaksi vektoria voisivat olla lineaarisesti riippumattomia, tulisi niiden osoittaa eri suuntiin. Vektorit voidaan kuitenkin lausua yhden vektorin \( \mathbf{w}\) avulla, eli vektorit \( \alpha \mathbf{v}+\beta \mathbf{w}\) ja \( \gamma \mathbf{v}+\delta \mathbf{w}\) ovat lineaarisesti riippuvia riippumatta, mitä lukuja \( \alpha, \beta, \gamma, \delta \) ovat.


Yhtälöryhmä matriisimuodossa

Vektorit-kappaleen lopussa esitetty yhtälöpari
\[ \left\{ \begin{array}{rl} 4-2y & = 2 \\ x+y & = 5 \end{array}\right. \]
voidaan kirjoittaa myös matriisimuodossa \( \mathbf{Ax}=\mathbf{b}\), missä
\[ \mathbf{A}=\begin{pmatrix} 4 & -2 \\ 1 & 1 \end{pmatrix}, \quad \mathbf{x}=\begin{pmatrix} x_1 \\ x_2 \end{pmatrix}, \quad \text{ja} \ \ \mathbf{b}=\begin{pmatrix} 2 \\ 5 \end{pmatrix}, \]
eli
\[ \begin{pmatrix} 4 & -2 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix}=\begin{pmatrix} 2 \\ 5 \end{pmatrix}. \]

Vastaavasti 3:n muuttujan yhtälöryhmä

\[ \left\{ \begin{array}{ll} x+2y+3z & = 6 \\ 2x+5y+2z & = 4 \\ 6x-3y+z & = 2 \end{array} \right. \]
voidaan kirjoittaa matriisimuodossa \( \mathbf{Ax}=\mathbf{b} \) seuraavasti
\[ \begin{pmatrix} 1 & 2 & 3 \\ 2 & 5 & 2 \\ 6 & -3 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 6 \\ 4 \\ 2 \end{pmatrix}. \]

Yhtälöryhmien geometria

Pienten yhtälöryhmien ratkaisuille voidaan esittää geometriset tulkinnat:

\[ \left\{ \begin{array}{ll} 4-2y & = 2 \\ x+y & = 5 \end{array} \right.; \quad \text{Kahden suoran leikkaus yhdessä pisteessä} \]
\[ \left\{ \begin{array}{ll} x+2y+3z & = 6 \\ 2x+5y+2z & = 4 \\ 6x-3y+z & = 2 \end{array} \right.; \quad \text{Kolmen tason leikkaus yhdessä pisteessä} \]

Geometrisestä tulkinnasta voidaan päätellä, että yhtälöryhmillä on siis joko nolla (esim. yhdensuuntaiset suorat), yksi tai äärettömän monta ratkaisua (esim. samat suorat). Tämä tulos yleistyy myös korkeampiin dimensioihin eli useamman muuttujan yhtälöryhmiin. Tulos pätee siis yleisesti kaikille yhtälöryhmille.

Toinen tapa tulkita yhtälöryhmän ratkaisu on ne skalaarit, joilla kerroinmatriisin \(\mathbf{A}\) sarakkeiden lineaariyhdistely tuottaa vektorin \(\mathbf{b}\). Tämä tulkinta pätee tosin vain silloin, kun yhtälöryhmä on lineaarinen eli sen kaikki termit ovat ensimmäistä astetta. Tällä kurssilla keskitytään lineaarisiin yhtälöryhmiin.

Identiteettikuvaus

Maailman helpoin tehtävä: \(\mathbf{Ix=b}\);

\[ \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} b_1 \\ b_2 \\ b_3 \end{pmatrix}. \]

Matriisi \(\mathbf{I}\) on identiteettikuvaus, pätee \(\mathbf{Ix=x}\) kaikille \(\mathbf{x}\).

Kolmiomatriisit

Kolmiomatriiseissa kaikki diagonaalin (lävistäjäalkioiden) ylä- tai alapuolella olevat alkiot ovat nollia, tässä \(2x2\)-esimerkki molemmista:

Alakolmiomatriisi:

\[ \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}= \begin{pmatrix} 1 \\ 2 \end{pmatrix}; \]

Yläkolmiomatriisi:

\[ \begin{pmatrix} 1 & -1 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}= \begin{pmatrix} 0 \\ 2 \end{pmatrix}. \]

Tätä muotoa olevat yhtälöryhmät on helppo ratkaista takaisinsijoitusmenetelmällä, kuten myöhemmin tullaan huomaamaan.

Last modified: Monday, 9 September 2019, 10:56 AM