Eigenwertproblem
aus Wikipedia, der freien Enzyklopädie
Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur gestreckt, und man bezeichnet den Streckungsfaktor als Eigenwert dieses Vektors.
Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells.
Die im Folgenden beschriebene mathematische Problemstellung nennt sich spezielles Eigenwertproblem und bezieht sich nur auf Endomorphismen auf einem Vektorraum, wie sie durch quadratische Matrizen dargestellt werden.
Inhaltsverzeichnis |
[Bearbeiten] Definition
Für einen Eigenvektor einer Abbildung f und dessen Eigenwert λ gilt:
Der wichtige Spezialfall eines Endomorphismus auf einem endlichen Vektorraum kann jeweils durch zwei quadratische (n,n)-Matrizen beschrieben werden. Die obige Gleichung lässt sich in diesem Fall als Matrizengleichung schreiben:
Da im Folgenden nur das spezielle Eigenwertproblem betrachtet wird, gilt für die Matrix B = E, wobei E die Einheitsmatrix bezeichnet. Durch Umformung dieser Gleichung erhält man die zur Berechnung der Eigenwerte wichtigen Gleichungen:
Beide Gleichungen sind äquivalent.
Manchmal bezeichnet man die obige Definition eines Eigenvektors auch als Rechtseigenvektor und definiert dann entsprechend den Begriff des Linkseigenvektors wie folgt:
[Bearbeiten] Berechnung der Eigenwerte einer Matrix
Bei kleinen Matrizen können die Eigenwerte symbolisch mit Hilfe des charakteristischen Polynoms berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier Verfahren der numerischen Mathematik zum Einsatz kommen.
[Bearbeiten] Symbolische Berechnung
Die Eigenwerte definierende Gleichung
stellt ein homogenes lineares Gleichungssystem dar. Da vorausgesetzt wird, ist dieses genau dann lösbar wenn gilt:
Expandiert man die Determinante auf der linken Seite, so erhält man ein Polynom n-ten Grades in λ. Dieses wird als charakteristisches Polynom (siehe dort zur Herleitung) bezeichnet und dessen Nullstellen sind die n Eigenwerte .
[Bearbeiten] Eigenraum zum Eigenwert
Sei λ ein Eigenwert, dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert den Eigenraum zum Eigenwert λ. Der Eigenraum ist definiert durch:
Eine Verallgemeinerung des Eigenraums ist der Hauptraum.
[Bearbeiten] Spektrum und Vielfachheiten
Mehrfache Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählung der verschiedenen Eigenwerte mit ihren Vielfachheiten . Dabei ist und .
Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als algebraische Vielfachheit.
Die Menge der Eigenwerte wird Spektrum genannt und geschrieben. Es gilt also:
Als Spektralradius bezeichnet man den Betrag des betragsmäßig größten Eigenwerts.
Kennt man die Eigenwerte und ihre Vielfachheiten (die algebraische und die später erklärte geometrische), kann man die Jordansche Normalform der Matrix erstellen.
Die geometrische Vielfachheit ist immer kleiner oder gleich der algebraischen Vielfachheit.
[Bearbeiten] Beispiel
Gegeben sei die quadratische Matrix
- .
Subtraktion der mit λ multiplizierten Einheitsmatrix von A:
Ausrechnen der Determinante dieser Matrix (mit Hilfe der Regel von Sarrus):
- det(A − λE) = (0 − λ)( − 1 − λ)(3 − λ) + 4 + 2 − (2λ + 2 + λ + 12 − 4λ)
- = − λ3 + 2λ2 + 4λ − 8
- = − (λ − 2)(λ − 2)(λ + 2)
Die Eigenwerte entsprechen den Nullstellen des Polynoms, d.h. die rechte Seite der obigen Gleichung gleich Null setzen und man erhält:
Der Eigenwert 2 hat algebraische Vielfachheit 2, da er doppelte Nullstelle des charakteristischen Polynoms ist.
[Bearbeiten] Numerische Berechnung
Während die Lösung des charakteristischen Polynoms für Matrizen der Dimension 3 schon nicht so einfach ist, wird es für große Matrizen nahezu unmöglich. Hierzu gibt es Verfahren, die sowohl von der numerischen Stabilität her, als auch vom Rechenaufwand wesentlich besser sind. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie
- der QR-Algorithmus,
- der QZ-Algorithmus,
- der QS-Algorithmus,
sowie spezielle Methoden für symmetrische Matrizen, als auch Methoden für dünnbesetzte große Matrizen, wie
- die Potenzmethode,
- die Inverse Iteration,
- das Lanczos-Verfahren,
- das Arnoldi-Verfahren und
- das Jacobi-Davidson-Verfahren.
[Bearbeiten] Berechnung der Eigenvektoren
Für einen Eigenwert λ lassen sich die Eigenvektoren aus der Gleichung
bestimmen. Die Eigenvektoren spannen einen Raum auf, dessen Dimension mit geometrischer Vielfachheit des Eigenwertes bezeichnet wird. Für einen Eigenwert λ der geometrischen Vielfachheit v lassen sich also Eigenvektoren finden, so dass die Menge aller Eigenvektoren zu λ gleich der Menge der Linearkombinationen von ist. heißt dann Basis von Eigenvektoren zum Eigenwert λ.
Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.
Die geometrische Vielfachheit ist immer kleiner oder gleich der algebraischen Vielfachheit.
[Bearbeiten] Beispiel
Gegeben ist wie im oberen Beispiel die quadratische Matrix A:
Die Eigenwerte wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (der Eigenraum) zum Eigenwert λ1 = 2 berechnet.
man muss also das folgende Lineare Gleichungssystem lösen:
Bringt man jetzt die Matrix auf obere Dreiecksform erhält man:
Die Lösung (und damit die gesuchten Eigenvektoren) ist jetzt der Vektor und alle seine Vielfachen.
Für den Eigenwert λ2 = − 2 geht man genauso vor:
wieder bringt man die Matrix auf Dreiecksform
Hier ist die Lösung der Vektor wieder mit allen seinen Vielfachen.
Zu beiden Eigenwerten existiert jeweils nur ein linear unabhängiger Eigenvektor (der Eigenraum hat Dimension 1) also haben beide Eigenwerte eine geometrische Vielfachheit von 1.
[Bearbeiten] Eigenschaften
- Ist λ ein Eigenwert der regulären Matrix A zu Eigenvektor , so ist Eigenwert der inversen Matrix von A zum Eigenvektor .
- Sind λi die Eigenwerte der Matrix , so gilt
- und ,
- wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist.
- Zu einer symmetrischen reellen Matrix A lässt sich immer eine Basis aus orthogonalen Eigenvektoren angeben. [1] Insbesondere sind Eigenvektoren zu verschieden Eigenwerten zueinander orthogonal.
- Eigenvektoren zum Eigenwert 1 sind Fixpunkte in der Abbildungsgeometrie.
- Anhand der Eigenwerte kann man die Definitheit einer Matrix bestimmen. So sind die Eigenwerte von reellen symmetrischen Matrizen reell. Ist die Matrix echt positiv definit so sind die Eigenwerte reell und echt größer Null.
- Die aus den Vorzeichen der Eigenwerte errechnete Signatur einer symmetrischen Matrix verhält sich gemäß dem Trägheitssatz von Sylvester.
- Jede quadratische Matrix A über dem Körper der komplexen Zahlen ist ähnlich zu einer oberen Dreiecksmatrix B. Die Eigenwerte von A sind genau die Diagonaleinträge der Matrix B.
[Bearbeiten] Praktische Beispiele
Durch Lösung eines Eigenwertproblems berechnet man
- Eigenfrequenzen, Eigenformen und gegebenenfalls auch Dämpfungscharakteristik eines schwingfähigen Systems,
- Knicklast eines Knickstabs (siehe Balkentheorie),
- Beulversagen eines leeren Rohres unter Außendruck,
- Die Hauptkomponenten einer Punktmenge, z. B. zur Kompression von Bildern oder Bestimmung von Faktoren in der Psychologie. (Hauptkomponentenanalyse).
- Hauptspannungen in der Festigkeitslehre: Umrechnung der Spannungen in ein Koordinatensystem, in dem es keine Schubspannungen gibt,
- Hauptträgheitsachsen eines unsymmetrischen Querschnitts, um einen Balken (Träger oder ähnliches) in diesen beiden Richtungen unabhängig voneinander zu berechnen,
- vielfältige andere technische Problemstellungen, die mit der jeweils anders definierten Stabilität eines Systems zu tun haben.
Eigenwerte spielen in der Quantenmechanik eine besondere Rolle. Physikalische Größen wie z. B. der Drehimpuls werden hier durch Operatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z. B. der Hamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes Spektrum, so kann die Energie nur diskrete Werte annehmen, was z. B. für die Energieniveaus in einem Atom typisch ist. Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z. B. Ort und Impuls), wie von der Heisenbergschen Unschärferelation ausgedrückt, ist in diesem Fall letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren gefunden werden kann.
[Bearbeiten] Weblinks
- Online-Tool zum Berechnen von Eigenwerten etc. auch großer Matrizen
- Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, and H. van der Vorst, editors. Templates for the Solution of Algebraic Eigenvalue Problems: A Practical Guide. SIAM, Philadelphia, 2000.
[Bearbeiten] Einzelnachweise
- ↑ Uni Tübingen Symmetrische Abbildungen und Matrizen Theorem 10.75 abgerufen am 19. Februar 2007