Diagonalisering

Från Wikipedia
Hoppa till: navigering, sök

Diagonalisering är inom linjär algebra en omvandling av en matris till en diagonalmatris. En sådan omvandling sker med en transformationsmatris  T , så att A = TDT^{-1} för en matris  A och en diagonalmatris  D . Man säger att en matris är diagonaliserbar om den kan diagonaliseras, med andra ord är en matris  A diagonaliserbar om det finns en matris T sådan att  A = TDT^{-1} för en diagonalmatris  D .

Villkor för diagonaliserbarhet[redigera | redigera wikitext]

En matris A med format  n \times n , med andra ord en linjär avbildning från ett vektorrum till sig själv  A:V \to V, är diagonaliserbar om och endast om dimensionen av dess egenrum är  n . Detta inträffar då  A har  n egenvektorer som är en bas för vektorrummet. Då kan  A uttryckas som  A = TDT^{-1} , där  T har  A :s egenvektorer som kolonnvektorer och  D har  A :s egenvärden i diagonalen.

Egenvektorerna till en matris är en bas för hela rummet om alla egenvärden har en geometrisk multiplicitet som är lika med deras algebraiska multiplicitet, och alltså är en matris diagonaliserbar under dessa förutsättningar.

Ett tillräckligt (men ej nödvändigt) villkor för att en matris med format n \times n ska ha en bas av egenvektorer är att matrisen har n distinkta egenvärden

Speciella matriser[redigera | redigera wikitext]

Nilpotenta matriser är ej diagonaliserbara, då de endast har egenvärdet 0. Detta skulle innebära att diagonalmatrisen skulle bli en nollmatris och A = TDT^{-1} = 0, vilket inte är sant.

Projektioner är diagonaliserbara, och har talen 1 och 0 i diagonalen.

Enligt spektralsatsen är reella symmetriska matriser diagonaliserbara, och deras egenvektorer är ortogonala. Samma sak gäller för komplexa hermiteska matriser och normala matriser. Då egenvektorerna är ortogonala kan transformationsmatrisen skrivas som en ortogonal matris i det reella fallet och en unitär matris i det komplexa fallet, så att en symmetrisk matris kan skrivas  A = TDT^T , det vill säga med en transponerad istället för en inverterad transformationsmatris till höger, vilket är mycket lättare att räkna ut.

Exempel[redigera | redigera wikitext]

Diagonalisera matrisen

A =
\begin{pmatrix}
10 & -4.5 & -2.5 \\
16 & -7 & -5 \\
12 & -6 & -4
\end{pmatrix}

Först beräknas matrisens egenvärden:

 \lambda_1 = 1 ~~ \lambda_2 = 2 ~~ \lambda_3 = -4

De tre egenvärdena är distinkta och därför är  A diagonaliserbar. Egenvektorerna till egenvärdena beräknas sedan:

\mathbf{v_1} = 
\begin{pmatrix}
1 \\ 2 \\ 0
\end{pmatrix}
~~
\mathbf{v_2} =
\begin{pmatrix}
2 \\ 3 \\ 1
\end{pmatrix}
~~
\mathbf{v_3} =
\begin{pmatrix}
1 \\ 2 \\ 2
\end{pmatrix}

Dessa bildar en bas för vektorrummet. Matrisen T bildas från vektorerna \mathbf{v_1},\mathbf{v_2},\mathbf{v_3} och dess invers beräknas. A = TDT^{-1} blir då


\begin{pmatrix}
10 & -4.5 & -2.5 \\
16 & -7 & -5 \\
12 & -6 & -4
\end{pmatrix}
=
\begin{pmatrix}
1 & 2 & 1 \\
2 & 3 & 2 \\
0 & 1 & 2 
\end{pmatrix}
\begin{pmatrix}
1 & 0 & 0 \\
0 & 2 & 0 \\
0 & 0 & -4
\end{pmatrix}
\begin{pmatrix}
-2 & 1.5 & -0.5 \\
2 & -1 & 0 \\
-1 & 0.5 & 0.5
\end{pmatrix}

Tillämpningar[redigera | redigera wikitext]

Om en matris  A är diagonaliserbar, kan man använda det för att räkna fram potenser  A^n effektivt, eftersom

A=TDT^{-1}
A^2 = (TDT^{-1})^2 = TDT^{-1}TDT^{-1} = TDIDT^{-1} = TD^2T^{-1}
A^n = TD^nT^{-1}

Likartat kan man definiera kvadratroten ur en matris  A som:

\sqrt{A} = T\sqrt{D}T^{-1}

Där diagonalelementen i  \sqrt{D} är roten ur  D s diagonalelement. Detta ger att:

\sqrt{A}^2 = T\sqrt{D}^2T^{-1} = TDT^{-1} = A

Se även[redigera | redigera wikitext]