Linjärt oberoende

Från Wikipedia
Hoppa till: navigering, sök

Linjärt oberoende är ett centralt begrepp inom linjär algebra. En familj av vektorer sägs vara linjärt oberoende om ingen av dem kan uttryckas som en ändlig linjärkombination av de övriga. I R3 har vi till exempel kolonnvektorerna


\begin{matrix}
\mbox{linj. oberoende}\qquad\\
\underbrace{
  \overbrace{
    \begin{bmatrix}0\\0\\1\end{bmatrix},
    \begin{bmatrix}0\\2\\-2\end{bmatrix},
    \begin{bmatrix}1\\-2\\1\end{bmatrix}
  },
  \begin{bmatrix}4\\2\\3\end{bmatrix}
}\\
\mbox{linj. beroende}\\
\end{matrix}

De första tre vektorerna är linjärt oberoende men den fjärde vektorn kan skrivas som 9 gånger den första plus 5 gånger den andra plus 4 gånger den tredje vektorn. Alltså är de fyra vektorerna ej linjärt oberoende. De säges då vara linjärt beroende.

Definition[redigera | redigera wikitext]

Låt  \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_n vara element i ett vektorrum V och låt  a_1, a_2, \ldots, a_n vara skalärer. Vektorerna är linjärt oberoende om ekvationen

 a_1 \mathbf{v}_1 + a_2 \mathbf{v}_2 + \cdots + a_n \mathbf{v}_n = \mathbf{0}

endast har den triviala lösningen

 a_1 = a_2 = \ldots = a_n = 0 .

Mera allmänt gäller att en familj av vektorer  \{v_{\alpha}\}_{\alpha \in A} där A är en godtycklig indexmängd, är linjärt oberoende om ekvationen

 \sum_{i \in I} a_i v_i = 0

där  I \subset A är en ändlig delmängd av A, bara har den triviala lösningen

 a_i = 0 \,\, \forall i \in I

En mängd vektorer som är linjärt oberoende och som spänner upp ett visst vektorrum utgör en bas för vektorrummet.

Linjärt beroende[redigera | redigera wikitext]

Rn -vektorerna a1, a2,... am där m>= 2 är linjärt beroende om någon av dem är en linjärkombination av de andra.

En ekvivalent definition är att

\sum_{k=1}^m c_k\mathbf{a}_k=\mathbf{0}

utan att alla koefficienter ck är lika med noll.

Exempel 1[redigera | redigera wikitext]

Vectors-lin-dependent.svg

R2 -vektorerna a, b och c är linjärt beroende om det existerar skalärer c1 och c2 sådana att

 \mathbf{c} = c_1 \mathbf{a} + c_2 \mathbf{b}\,

eller

\ c_1 \mathbf{a} + c_2 \mathbf{b} - \mathbf{c} = \mathbf{0}

Exempel 2[redigera | redigera wikitext]

Är de tre vektorerna


\begin{matrix} \\
    \begin{bmatrix}1\\4\\2\\-3\end{bmatrix},
    \begin{bmatrix}7\\10\\-4\\-1\end{bmatrix},
    \begin{bmatrix}-2\\1\\5\\-4\end{bmatrix} \\
\end{matrix}

i R4 linjärt beroende?

Sök alla nollskilda skalärer \lambda_1, \lambda_2 och \lambda_3 sådana att


\begin{matrix} \\
\lambda_1  \begin{bmatrix}1\\4\\2\\-3\end{bmatrix}+
\lambda_2  \begin{bmatrix}7\\10\\-4\\-1\end{bmatrix}+
\lambda_3  \begin{bmatrix}-2\\1\\5\\-4\end{bmatrix}=
           \begin{bmatrix}0\\0\\0\\0\end{bmatrix}
\end{matrix}

Ställ upp ekvationssystemet


\begin{align}
  \lambda_1& \;+  7\lambda_2& &- 2\lambda_3& = 0\\
 4\lambda_1& \;+ 10\lambda_2& &+  \lambda_3& = 0\\
 2\lambda_1& \;-  4\lambda_2& &+ 5\lambda_3& = 0\\
-3\lambda_1& \;-   \lambda_2& &- 4\lambda_3& = 0\\
\end{align}

vilket till exempel kan lösas med gausseliminering för att erhålla


\begin{align}
  \lambda_1 &= -3 \lambda_3 /2  \\
  \lambda_2 &= \lambda_3/2  \\
\end{align}

där \lambda_3 kan väljas godtyckligt. Då dessa lösningar är icke-triviala är vektorerna linjärt beroende.

Exempel[redigera | redigera wikitext]

För att bestämma om en uppsättning vektorer är linjärt oberoende finns det flera sätt att gå tillväga. Ett är att uttnyttja definitionen genom att ställa upp ekvationssystemet  \sum_{i=1}^n a_i v_i = 0 och undersöka dess lösningar. Finns icke-triviala lösningar är vektorerna linjärt beroende, annars linjärt oberoende.

För ett ändligtdimensionellt vektorrum V gäller att  v_1, v_2, \ldots, v_n är linjärt beroende om n > dim V, dimensionen av V.

För en mängd av vektorer,  v_1, v_2, \ldots, v_n , i ett vektorrum av dimension n, går det att avgöra om dessa är linjärt oberoende genom att bilda en matris av vektorerna (uttryckta i någon bas). Vektorerna är linjärt oberoende om och endast om matrisens determinant är nollskild. Ett exempel på hur detta kan göras:

Bilda en matris A av n vektorer i \mathbb{R}^n genom att använda vektorerna som A:s kolonner. Vektorerna är linjärt oberoende om och endast om determinanten till A är nollskild.
Antag att matrisen blir
A = \begin{bmatrix}1&3\\1&2\end{bmatrix}
En linjärkombination av kolonnerna är
 A \mathrm X = \begin{bmatrix}1&3\\1&2\end{bmatrix} \begin{bmatrix}\lambda_1 \\ \lambda_2 \end{bmatrix}
Är AX = 0 för någon nollskild vektor X? A:s determinant är
 \det A = 1\cdot2 - 1\cdot 3 = -1 \ne 0
determinanten är nollskild saknar AX = 0 icke-triviala lösningar och vektorerna (1, 1) och (-3, 2) är linjärt oberoende.

Referenser[redigera | redigera wikitext]

  • S. Axler, Linear Algebra Done Right, Springer Verlag, 1996
  • G. Sparr, Linjär Algebra, Studentlitteratur, 1994