Home

Eigenwerte

Eigenwerte, auch die Eigenwerte eines linearen Operators, sind Skalare λ, für die es einen nicht-null Vektor v gibt, der Av = λv erfüllt. Solche λ werden als Eigenwerte von A bezeichnet, und zu jedem λ gehört ein Eigenvektor v, der ein Vektor im Kern von (A − λI) ist. Die Eigenwerte ergeben sich aus der Charakteristikpolynom p(λ) = det(A − λI); dessen Nullstellen sind die Eigenwerte, gezählt mit ihrer algebraischen Vielfachheit. Bei reellen Matrizen können Eigenwerte reell oder komplex auftreten; komplexe Eigenwerte treten stets als konjugierte Paare auf. Der zu λ gehörige Eigenraum besteht aus allen Lösungen von (A − λI)v = 0, und die geometrische Vielfachheit ist die Dimension dieses Raums.

Eine Matrix ist diagonalisierbar, wenn die Summe der geometrischen Vielfachheiten aller Eigenwerte n beträgt. Dann existiert

Berechnung: In der Praxis löst man det(A − λI) = 0, was für kleine Matrizen oft analytisch möglich

Anwendungen finden sich in der Stabilitätsanalyse dynamischer Systeme, der Lösung linearer Differentialgleichungssysteme, in Markov-Ketten, Ranking-Algorithmen (z.

eine
invertierbare
Matrix
P
mit
A
=
PDP^{-1},
wobei
D
Diagonalmatrix
ist,
deren
Einträge
die
Eigenwerte
sind.
Eigenwerte
bleiben
unverändert
unter
Äquivalenztransformationen:
Falls
B
=
S^{-1}AS,
besitzt
B
dieselben
Eigenwerte
wie
A.
ist;
für
größere
Matrizen
kommen
numerische
Verfahren
zum
Einsatz.
Gängige
Methoden
sind
das
QR-Algorithmus,
iterative
Verfahren
wie
das
Power-Methoden-Verfahren
zur
Bestimmung
des
dominanten
Eigenwerts
oder
Lanczos-Methoden.
B.
PageRank)
und
spektralen
Methoden
wie
der
Hauptkomponentenanalyse
(PCA).
Bei
symmetrischen
Matrizen
spielt
der
Spektralsatz
eine
zentrale
Rolle:
Realwerte
Eigenwerte
und
orthogonale
Eigenvektoren
ermöglichen
eine
orthogonale
Diagonalisierung.