6 symmetrische und hermitesche matrizen - math.uni-kiel.de · vektor v ∈ h heißt senkrecht auf...

23
Mathematik f¨ ur Physiker II, SS 2018 Freitag 29.6 $Id: quadrat.tex,v 1.37 2018/07/12 20:16:40 hk Exp $ §6 Symmetrische und hermitesche Matrizen 6.1 Pr¨ a-Hilbertr¨ aume Wir besch¨ aftigen uns gerade mit den Orthogonalbasen u 1 ,...,u n von Pr¨ ahilbertr¨ aumen H und hatten eingesehen das sich bez¨ uglich dieser jeder Vektor x H als x = n k=1 x|u k u k entwickeln l¨ aßt. An den Koeffizienten dieser Entwicklung lassen sich dann auch Grenz- werte von Folgen in H ablesen. Damit k¨ onnen wir jetzt auch leicht die schon an- gek¨ undigte Tatsache beweisen das endlich erzeugte Pr¨ ahilbertr¨ aume immer vollst¨ andig sind. Korollar 6.5: Jeder endlich erzeugte Pr¨ahilbertraum ist vollst¨andig und besitzt eine Orthonormalbasis. Beweis: Sei H ein endlich erzeugter Pr¨ ahilbertraum ¨ uber K ∈{R, C}. Dann wissen wir bereits das H eine Orthonormalbasis u 1 ,...,u n besitzt. Sei (x k ) kN eine Cauchyfolge in H . Ist 1 i n, so gilt f¨ ur alle k,l N nach Lemma 4.(c) stets |x k |u i -x l |u i | = |x k - x l |u i | ≤ ||x k - x l || 2 , d.h. auch (x k |u i ) kN ist eine Cauchyfolge in K . Nach I.§4.Satz 16 existiert in K der Grenzwert λ i := lim k→∞ x k |u i . Setzen wir x := n i=1 λ i u i H , so ist nach Lemma 4.(a) auch x|u i = λ i ur jedes 1 i n, und nach Lemma 4.(d) konvergiert die Folge (x k ) kN in H gegen x. Damit ist jede Cauchyfolge in H konvergent und H ist vollst¨ andig. Seien H ein Pr¨ ahilbertraum und U ein endlich erzeugter Untervektorraum mit Or- thonormalbasis u 1 ,...,u n . F¨ ur jedes x U gilt dann x = n i=1 x|u i u i . Diese Summe hat auch im Fall x/ U eine wichtige Bedeutung. Um diese zu sehen, sei x H und setze y := n i=1 x|u i u i U . Wir behaupten das dann x - y|u = 0 f¨ ur jedes u U gilt. Dies ist klar, f¨ ur jedes 1 i n gilt nach Lemma 4.(a) y|u i = x|u i , also x - y|u i = x|u i -y|u i = 0, und ist u U beliebig, so existieren λ 1 ,...,λ n K mit u = n i=1 λ i u i , also x - y|u = n i=1 λ i x - y|u i = 0. Wir sagen hierzu auch das der Vektor x - y H senkrecht auf dem Teilraum U steht. 22-1

Upload: vanthu

Post on 20-Aug-2019

215 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

$Id: quadrat.tex,v 1.37 2018/07/12 20:16:40 hk Exp $

§6 Symmetrische und hermitesche Matrizen

6.1 Pra-Hilbertraume

Wir beschaftigen uns gerade mit den Orthogonalbasen u1, . . . , un von PrahilbertraumenH und hatten eingesehen das sich bezuglich dieser jeder Vektor x ∈ H als

x =n∑

k=1

〈x|uk〉uk

entwickeln laßt. An den Koeffizienten dieser Entwicklung lassen sich dann auch Grenz-werte von Folgen in H ablesen. Damit konnen wir jetzt auch leicht die schon an-gekundigte Tatsache beweisen das endlich erzeugte Prahilbertraume immer vollstandigsind.

Korollar 6.5: Jeder endlich erzeugte Prahilbertraum ist vollstandig und besitzt eineOrthonormalbasis.

Beweis: Sei H ein endlich erzeugter Prahilbertraum uber K ∈ {R, C}. Dann wissen wirbereits das H eine Orthonormalbasis u1, . . . , un besitzt. Sei (xk)k∈N eine Cauchyfolgein H. Ist 1 ≤ i ≤ n, so gilt fur alle k, l ∈ N nach Lemma 4.(c) stets

|〈xk|ui〉 − 〈xl|ui〉| = |〈xk − xl|ui〉| ≤ ||xk − xl||2,

d.h. auch (〈xk|ui〉)k∈N ist eine Cauchyfolge in K. Nach I.§4.Satz 16 existiert in K derGrenzwert λi := limk→∞〈xk|ui〉. Setzen wir x :=

∑ni=1 λiui ∈ H, so ist nach Lemma

4.(a) auch 〈x|ui〉 = λi fur jedes 1 ≤ i ≤ n, und nach Lemma 4.(d) konvergiert dieFolge (xk)k∈N in H gegen x. Damit ist jede Cauchyfolge in H konvergent und H istvollstandig.

Seien H ein Prahilbertraum und U ein endlich erzeugter Untervektorraum mit Or-thonormalbasis u1, . . . , un. Fur jedes x ∈ U gilt dann x =

∑ni=1〈x|ui〉ui. Diese Summe

hat auch im Fall x /∈ U eine wichtige Bedeutung. Um diese zu sehen, sei x ∈ H undsetze y :=

∑ni=1〈x|ui〉ui ∈ U . Wir behaupten das dann 〈x − y|u〉 = 0 fur jedes u ∈ U

gilt. Dies ist klar, fur jedes 1 ≤ i ≤ n gilt nach Lemma 4.(a) 〈y|ui〉 = 〈x|ui〉, also〈x − y|ui〉 = 〈x|ui〉 − 〈y|ui〉 = 0, und ist u ∈ U beliebig, so existieren λ1, . . . , λn ∈ Kmit u =

∑ni=1 λiui, also 〈x− y|u〉 =

∑ni=1 λi〈x− y|ui〉 = 0. Wir sagen hierzu auch das

der Vektor x− y ∈ H senkrecht auf dem Teilraum U steht.

22-1

Page 2: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

Definition 6.6: Seien H ein Prahilbertraum und U ≤ H ein Untervektorraum. EinVektor v ∈ H heißt senkrecht auf U , geschrieben als v ⊥ U , wenn v auf jedem Vektoru ∈ U senkrecht steht, wenn also 〈v|u〉 = 0 fur jedes u ∈ U gilt.

Sei H wieder ein Prahilbertraum und sei U ≤ H ein Untervektorraum. Seien x ∈ Hund y ∈ U ein Vektor mit x−y ⊥ U . Man sagt dann auch das y der Lotfußpunkt von xauf U ist. Dieser ist zugleich der eindeutig bestimmte Punkt auf U dessen Abstand zu xminimal ist. Um dies einzusehen, verwenden wir den sogenannten Satz des Pythagorasin H

∀(u, v ∈ H) : u ⊥ v =⇒ ||u + v||22 = ||u||22 + ||v||22.

Dies ist leicht zu sehen

||u + v||22 = 〈u + v|u + v〉 = ||u||22 + 2 Re(〈u|v〉) + ||v||22 = ||u||22 + ||v||22.

Ist jetzt y 6= u ∈ U , so gelten auch 0 6= y − u ∈ U und somit x− y ⊥ y − u also liefertder Satz des Pythagoras

||x− u||22 = ||x− y + y − u||22 = ||x− y||22 + ||y − u||22 > ||x− y||22

und somit ist auch ||x− u||2 > ||x− y||2. Damit ist der Lotfußpunkt y tatsachlich dereindeutige Punkt von U dessen Abstand zu x minimal ist. Mit diesen Beobachtungenergibt sich der folgende Satz.

Satz 6.6 (Orthogonalprojektionen)Seien H ein Prahilbertraum und U ein endlich erzeugter Untervektorraum mit Ortho-normalbasis u1, . . . , un. Dann ist

P : H → U ; x 7→n∑

i=1

〈x|ui〉ui

eine von der speziell gewahlten Orthonormalbasis unabhangige, stetige, lineare Abbil-dung, genannt die Orthogonalprojektion auf U . Fur jedes x ∈ H ist Px ∈ U dereindeutige Vektor mit x− Px ⊥ U und auch der eindeutige Vektor mit

||x− Px||2 = min{||x− y||2|y ∈ U}.

Weiter gilt fur jedes x ∈ H die Bessel-Ungleichung

n∑i=1

|〈x|ui〉|2 ≤ ||x||22

und genau dann ist∑n

i=1 |〈x|ui〉|2 = ||x||22 wenn x ∈ U ist.

Beweis: Sei x ∈ H. Wir haben bereits eingesehen, dass x−Px ⊥ U gilt und das ||x−Px||2 < ||x− y||2 fur jedes y ∈ U\{Px} gilt. Insbesondere erfullt Px die angegebenenBedingungen. Ist umgekehrt y ∈ U mit ||x − y||2 ≤ ||x − u||2 fur jedes u ∈ U , so ist

22-2

Page 3: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

insbesondere ||x− y||2 ≤ ||x− Px||2, also y = Px. Ist y ∈ U mit x− y ⊥ U , so habenwir oben auch ||x− y||2 ≤ ||x− u||2 fur jedes u ∈ U eingesehen, und damit ist wiedery = Px. Insbesondere ist Px von der speziell gewahlten Orthonormalbasis u1, . . . , un

unabhangig.

Sei wieder x ∈ H. Wegen x − Px ⊥ U gilt fur jedes 1 ≤ i ≤ n stets x − Px ⊥ ui

und damit auch

〈x|ui〉 = 〈x− Px|ui〉+ 〈Px|ui〉 = 〈Px|ui〉.

Wegen x− Px ⊥ Px folgt mit dem Satz des Pythagoras und Lemma 4.(a,c)

n∑i=1

|〈x|ui〉|2 =n∑

i=1

|〈Px|ui〉|2 = ||Px||22 ≤ ||Px||22 + ||x− Px||22 = ||x||22,

es gilt also die Besselsche Ungleichung. Dabei liegt genau dann Gleichheit vor wenn||x − Px||2 = 0 gilt, wenn also x = Px ist. Gilt also die Gleichheit in der BesselschenUngleichung, so ist x = Px ∈ U und ist umgekehrt x ∈ U , so gilt die Gleichheit inder Besselschen Ungleichung nach Lemma 4.(c). Die Abbildung P ist offenbar linearund weiter zeigt die obige Ungleichung auch ||Px||2 ≤ ||x||2 fur jedes x ∈ H, d.h.P : H → U ist nach §4.Lemma 15 stetig.

Wir wollen zwei Beispiele zu den Orthogonalprojektionen rechnen. Wir setzen

v1 :=

1

−121

, v2 :=

11

−11

und x :=

0110

und betrachten den zweidimensionalen Untervektorraum U = 〈v1, v2〉 des R4. Wir wol-len den Lotfußpunkt von x auf U und den Abstand von x zur Ebene U berechnen.Hierzu bestimmen wir zunachst uber die Gram-Schmidt Orthonormalisierung eine Or-thonormalbasis u1, u2 von U . Es sind w1 = v1, ||w1|| =

√7, 〈v2|w1〉 = −1 und somit

w2 = v2 +1

7w1 =

1

7

86

−58

mit ||w2|| =1

7

√189,

und wir erhalten die Orthonormalbasis

u1 =1√7

1

−121

, u2 =1√189

86

−58

22-3

Page 4: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

von U . Die Projektion Px von x auf U wird zu

〈x|u1〉 =1√7, 〈x|u2〉 =

1√189

also Px =1√7u1 +

1√189

u2 =1

27

4

−375

.

Um jetzt den Abstand von x zur Ebene U zu berechnen, bilde

x− Px =1

27

−43020−5

,

und wir erhalten

min{||x− y|| : y ∈ U} = ||x− Px|| = 1

9

√149.

Wir wollen nun eine weitere kleine Anwendung der Orthogonalprojektionen vorrech-nen, die Berechnung der sogenannten Ausgleichsgerade. Hierbei handelt es sich um dasfolgende Problem. Es seien n Punkte (x1, y1), . . . , (xn, yn) in der Ebene gegeben. Meistdenkt man sich diese Punkte als Meßergebnisse, d.h. die Messung mit xi als Eingabe-wert hat yi als Ausgabewert. Gesucht ist eine lineare Funktion y = f(x) = ax + b, diediese Messungen moglichst gut annahert. Zur Interpretation von

”moglichst gut“ gibt

es dabei viele verschiedene Moglichkeiten. Fur jedes 1 ≤ i ≤ n ist der Fehler beim i-tenPunkt so etwas wie yi − (axi + b), und eine erste Idee ist es den Gesamtfehler durchAddition all dieser Einzelfehler zu bilden. Das ist aber leider nicht sinnvoll, denn aufdiese Art konnen Fehler bei denen die Ausgleichsgerade weit oberhalb des Meßwertsliegt durch Fehler bei denen sie weit unterhalb liegt wieder ausgeglichen werden. Mankonnte anstellen dessen die Betrage |yi−(axi+b)| fur i = 1, . . . , n summieren. Das waredurchaus sinnvoll, ist aber nicht ganz das was fur die Berechnung der Ausgleichsgeradeublicherweise getan wird.

Anstelle der Betrage werden die Quadrate der Einzelfehler addiert. Der Vorteildieser Fehlerbildung ist das großere Fehler starker als kleinere registriert werden, washaufig erwunscht ist. Wir wollen also, dass der Fehler im quadratischen Mittel√√√√ n∑

i=1

(yi − (axi + b))2

moglichst klein wird.

22-4

Page 5: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

–0.8

–0.6

–0.4

–0.2

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

x –1

–0.8

–0.6

–0.4

–0.2

00.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

x

Die beiden obigen Beispiele von Ausgleichsgeraden sind zehn beziehungsweise zwanzigMeßpunkte, die als yi = xi/2− 1 plus eine zufallige Storung gewahlt wurden. Fur dieAusgleichgeraden ergab sich dabei a = 0.428, b = −0.8848 beziehungseise a = 0.477,b = −0.95. Wie berechnet man die optimalen a und b? Um dies zu sehen, fuhren wirdie Vektoren

x :=

x1...

xn

, y :=

y1...

yn

und j :=

1...1

ein. Mit dem Standard Skalarprodukt 〈v|w〉 := v ·w auf dem Rn wird der quadratischeFehler zu (

n∑i=1

(yi − axi − b)2

)1/2

= ||y − ax− bj|| = ||y − (ax + bj)||,

gesucht sind also a, b ∈ R fur die ||y− (ax+ bj)|| minimal wird. In anderen Worten sollax + bj der dem Punkt y ∈ Rn nachstgelegene Punkt der Ebene U := 〈x, j〉 sein, d.h.PUy = ax+bj soll die Orthogonalprojektion von y auf U sein. Da die konkreten Formelnnichts mit dem Rn zu tun haben, wollen wir jetzt ganz allgemein die Orthogonalpro-jektion auf eine Ebene in einem Prahilbertraum H berechnen. Seien also U = 〈v1, v2〉eine Ebene und x ∈ H. Wir wissen bereits wie sich die Orthogonalprojektion berech-nen laßt, ist u1, u2 eine Orthonormalbasis von U , so wird die Orthogonalprojektionzu PUx = 〈x|u1〉u1 + 〈x|u2〉u2. Wir brauchen also eine Orthonormalbasis von U , undhierzu benutzen wir die Gram Schmidt Orthonormalisierung

w1 := v1, w2 := v2 −〈v1|v2〉||v1||2

v1 =1

||v1||2(||v1||2v2 − 〈v1|v2〉v1).

Dabei gilt

||w2||2 =1

||v1||4(||v1||4||v2||2− 2||v1||2〈v1|v2〉2 + 〈v1|v2〉2||v1||2) =

||v1||2||v2||2 − 〈v1|v2〉2

||v1||2.

22-5

Page 6: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

Mit der Orthogonalbasis ui = wi/||wi|| (i = 1, 2) ist also

PU(x) = 〈u1|x〉u1 + 〈u2|x〉u2 =〈w1|x〉||w1||2

w1 +〈w2|x〉||w2||2

w2

=〈v1|x〉||v1||2

v1 +〈v2 − 〈v1|v2〉

||v1||2 v1|x〉||w2||2

(v2 −

〈v1|v2〉||v1||2

v1

)=〈v1|x〉||v1||2

v1 +||v1||2〈v2|x〉 − 〈v1|v2〉〈v1|x〉

||v1||2· ||v1||2

||v1||2||v2||2 − 〈v1|v2〉2

(v2 −

〈v1|v2〉||v1||2

v1

)=〈v1|x〉||v1||2||v2||2 − 〈v1|x〉〈v1|v2〉2 − ||v1||2〈v2|x〉〈v1|v2〉+ 〈v1|v2〉2〈v1|x〉

||v1||2(||v1||2||v2||2 − 〈v1|v2〉2)v1

+||v1||2〈v2|x〉 − 〈v1|v2〉〈v1|x〉||v1||2||v2||2 − 〈v1|v2〉2

v2 = av1 + bv2

mit

a :=〈v1|x〉||v2||2 − 〈v2|x〉〈v1|v2〉||v1||2||v2||2 − 〈v1|v2〉2

, b :=〈v2|x〉||v1||2 − 〈v1|x〉〈v1|v2〉||v1||2||v2||2 − 〈v1|v2〉2

.

Fur die Ausgleichsgerade mussen wir v1 = x, v2 = j und y fur x einsetzen, und erhalten

a =n (∑n

i=1 xiyi)− (∑n

i=1 xi) (∑n

i=1 yi)

n (∑n

i=1 x2i )− (

∑ni=1 xi)

2 ,

b =(∑n

i=1 x2i ) (∑n

i=1 yi)− (∑n

i=1 xi) (∑n

i=1 xiyi)

n (∑n

i=1 x2i )− (

∑ni=1 xi)

2 .

Dies ist die Formel fur die Ausgleichsgerade. Diese Formel ist zwar schon recht kom-pliziert, aber geometrisch gesehen wird hier einfach nur ein Lotfußpunkt bestimmt.

6.2 Symmetrische und hermitesche Matrizen

Wir kommen jetzt zu den symmetrischen Matrizen uber R beziehungsweise den hermi-teschen Matrizen uber C zuruck. Wir hatten bereits gesehen, dass diese bezuglich desjeweiligen Skalarprodukts im Rn beziehungsweise Cn die Gleichung 〈Ax|y〉 = 〈x|Ay〉fur alle Vektoren x, y erfullen. Dabei verwenden wir jetzt die im vorigen Abschnitteingefuhrte Schreibweise fur das Skalarprodukt. Im folgenden Satz werden wir die we-sentlichen Eigenschaften derartiger Matrizen herleiten. Beachte dabei das wir den kom-plexen Fall als den allgemeinen Fall auffassen konnen, eine reelle, symmetrische Matrixist als komplexe Matrix hermitesch.

Satz 6.7 (Hauptsatz uber symmetrische und hermitesche Matrizen)Seien K = R und A eine symmetrische n× n-Matrix uber R oder K = C und A einehermitesche n× n-Matrix uber C. Dann gelten:

(a) Die Matrix A ist diagonalisierbar und hat nur reelle Eigenwerte.

22-6

Page 7: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

(b) Sind λ, µ zwei verschiedene Eigenwerte von A und u ∈ Eλ(A), v ∈ Eµ(A) zu-gehorige Eigenvektoren, so ist 〈u|v〉 = 0.

(c) Es gibt eine aus Eigenvektoren von A bestehende Orthonormalbasis des Kn.

Beweis: Sei λ ∈ C ein Eigenwert von A. Dann gibt es einen Vektor u ∈ Cn mit Au = λuund u 6= 0. Da die Matrix A in beiden Fallen hermitesch ist, folgt

λ||u||2 = λ〈u|u〉 = 〈λu|u〉 = 〈Au|u〉 = 〈u|Au〉 = 〈u|λu〉 = λ||u||2,

also λ = λ und somit λ ∈ R. Damit sind alle Eigenwerte von A reell und insbesonderezerfallt das charakteristische Polynom χA uber K in Linearfaktoren. Sind λ, µ ∈ R zweiverschiedene Eigenwerte von A mit zugehorigen Eigenvektoren u, v, so rechnen wir

λ〈u|v〉 = 〈λu|v〉 = 〈Au|v〉 = 〈u|Av〉 = 〈u|µv〉 = µ〈u|v〉

also (λ− µ)〈u|v〉 = 0 und wegen λ 6= µ folgt 〈u|v〉 = 0.Nun zeigen wir, dass die Matrix A uber K diagonalisierbar ist, und hierzu wollen wir

§5.Lemma 9 verwenden. Sei also λ ∈ R ein Eigenwert von A. Dann ist auch (A−λ)∗ =A∗ − λ = A− λ, d.h. auch A− λ ist im Fall K = R symmetrisch und im Fall K = Chermitesch. Sei u ∈ Kern(A− λ)2, also (A− λ)2u = 0. Dann haben wir auch

||(A− λ)u||2 = 〈(A− λ)u|(A− λ)u〉 = 〈u|(A− λ)2u〉 = 0,

also ist (A−λ)u = 0 und somit u ∈ Kern(A−λ). Dies zeigt Kern(A−λ)2 ⊆ Kern(A−λ).Nach §5.Lemma 9 ist A diagonalisierbar, es gibt also eine aus Eigenvektoren von Abestehende Basis des Kn. Bezeichnet λ1, . . . , λr die verschiedenen Eigenwerte von Aund ist ni fur jedes 1 ≤ i ≤ r die geometrische Vielfachheit von λi, so gibt es also eineBasis

v11, . . . , v1,n1 , . . . , vr1, . . . , vr,nr

des Kn so, dass vij ∈ Eλi(A) fur 1 ≤ i ≤ r, 1 ≤ j ≤ ni gilt. Ist 1 ≤ i ≤ r, so

ist vi1, . . . , vi,nieine Basis des Eigenraums Eλi

(A) und durch Gram-Schmidt Ortho-normalisierung erhalten wir eine Orthonormalbasis ui1, . . . , ui,ni

von Eλi(A). Damit ist

auchu11, . . . , u1,n1 , . . . , ur1, . . . , ur,nr

eine aus Eigenvektoren bestehende Basis des Kn mit ||uij|| = 1 fur alle 1 ≤ i ≤ r,1 ≤ j ≤ ni. Wir behaupten das es sich sogar um eine Orthonormalbasis des Kn

handelt. Ist 1 ≤ i ≤ r und sind 1 ≤ k, l ≤ ni mit k 6= l, so ist 〈uik|uil〉 = 0, und sind1 ≤ i, j ≤ r mit i 6= j, 1 ≤ k ≤ ni, 1 ≤ l ≤ nj so ist wegen λi 6= λj, uik ∈ Eλi

(A),ujl ∈ Eλj

(A) ebenfalls 〈uik|ujl〉 = 0.

Es gibt nicht nur eine aus Eigenvektoren bestehende Orthonormalbasis des Kn, wirkonnen auch eine berechnen. Die Berechnung einer solchen Orthonormalbasis des Kn

22-7

Page 8: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

ist mit uns schon bekannten Rechenverfahren einfach moglich. Die Rechnung lauft inden folgenden Schritten ab:

Gegeben: Eine symmetrische oder hermitesche n× n Matrix A.

Gesucht: Eine aus Eigenvektoren von A bestehende Orthonormalbasis des Kn.

Verfahren: Die Rechnung lauft in den folgenden Schritten ab:

1. Berechne die Eigenwerte λ1, . . . , λs von A. Diese sind alle reell.

2. Fur jeden Eigenwert λ = λi (1 ≤ i ≤ s) lose das homogene lineare Gleichungs-system (λ−A)x = 0 und bestimme eine Basis vi1, . . . , vini

seines Losungsraums.Anders gesagt soll eine Basis des Eigenraums Eλ(A) berechnet werden. Dies kannman beispielsweise wie ublich durch Gauß Elimination tun.

3. Wende auf jede der in Schritt (2) gefundenen Basen vi1, . . . , vini(1 ≤ i ≤ n) der

jeweiligen Eigenraume das Gram Schmidtsche Orthonormalisierungsverfahren an,und erhalte eine Orthonormalbasis ui1, . . . , uini

des Eigenraums Eλi(A).

4. Setze die in Schritt (3) fur λ = λi, i = 1, . . . , s gefundenen Basen zu einerOrthonormalbasis

u11, . . . , u1n1 , . . . , us1, . . . , usrs

des Kn zusammen. Dies ist die gesuchte Orthonormalbasis u1, . . . , un.

Da dieses Verfahren sich nur aus uns schon bekannten Einzelschritten zusammensetzt,wollen wir hier nur ein Beispiel rechnen, namlich die symmetrische Matrix

A =

9 −1 −1 1

−1 9 1 −1−1 1 9 −1

1 −1 −1 9

.

Wir suchen eine aus Eigenvektoren von A bestehende Orthonormalbasis des R4. ZurBestimmung der Eigenwerte berechnen wir das charakteristische Polynom

χA(x) =

∣∣∣∣∣∣∣∣x− 9 1 1 −1

1 x− 9 −1 11 −1 x− 9 1−1 1 1 x− 9

∣∣∣∣∣∣∣∣22-8

Page 9: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

=

∣∣∣∣∣∣∣∣x− 9 1 1 −1

0 x− 8 0 x− 80 0 x− 8 x− 8−1 1 1 x− 9

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣x− 9 x− 8 x− 8 −1

0 x− 8 0 x− 80 0 x− 8 x− 8−1 0 0 x− 9

∣∣∣∣∣∣∣∣= (x− 8)2

∣∣∣∣∣∣∣∣x− 9 x− 8 x− 8 −1

0 1 0 10 0 1 1−1 0 0 x− 9

∣∣∣∣∣∣∣∣ = (x− 8)2

∣∣∣∣∣∣∣∣x− 9 x− 8 x− 8 15− 2x

0 1 0 00 0 1 0−1 0 0 x− 9

∣∣∣∣∣∣∣∣= (x− 8)2

(x− 9)

∣∣∣∣∣∣1 0 00 1 00 0 x− 9

∣∣∣∣∣∣+∣∣∣∣∣∣

x− 8 x− 8 15− 2x1 0 00 1 0

∣∣∣∣∣∣

= (x− 8)2

((x− 9)2 −

∣∣∣∣ x− 8 15− 2x1 0

∣∣∣∣) = (x− 8)2((x− 9)2 + 15− 2x)

= (x− 8)2(x2 − 20x + 96) = (x− 8)3(x− 12).

Wir haben also zwei Eigenwerte λ1 = 8 und λ2 = 12. Beginnen wir mit λ = 12. DieGauß Elimination lauft dann als

3 1 1 −11 3 −1 11 −1 3 1

−1 1 1 3

−1 1 1 31 3 −1 11 −1 3 13 1 1 −1

−1 1 1 30 4 0 40 0 4 40 4 4 8

−1 1 1 30 4 0 40 0 4 40 0 4 4

→−1 1 1 3

0 4 0 40 0 4 4

Die Losungsmenge ist also gegeben durch

u = −v, y = −v, x = y + u + 3v = v

und somit

E12(A) =

⟨1

−1−1

1

.

Zur Orthonormalisierung muss dieser Basisvektor nur normiert werden, also

u4 :=

12

−12

−1212

.

Dass wir nur einen Eigenvektor zu normieren haben, ist glucklicherweise der Normalfall,wir bereits mehrfach erwahnt hat eine zufallig gewahlte Matrix in der Regel lauter

22-9

Page 10: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

verschiedene Eigenwerte, die damit alle einen eindimensionalen Eigenraum haben. Furλ = 8 ergibt sich fur den Eigenraum dagegen

−1 1 1 −11 −1 −1 11 −1 −1 1

−1 1 1 −1

−→ −1 1 1 − 1 =⇒ x = y + u− v.

Eine Basis des Eigenraums E8(A) ist gegeben durch

v1 =

1100

, v2 =

1010

, v3 =

−1

001

.

Hier sind wir also im untypischen Fall und mussen noch etwas weiter rechnen. Auf dieVektoren v1, v2, v3 mussen wir nun die Gram Schmidt Orthonormalisierung anwenden.Diesmal suchen wir dabei keine Orthonormalbasis des gesamten R4 sondern nur eineOrthormalbasis des von v1, v2, v3 aufgespannten Teilraums. Wir rechnen

w1 := v1 =

1100

, w1 · w1 = 2, w2 = v2 −1

2w1 =

12

−12

10

, w2 · w2 =3

2,

w3 = v3 +1

2w1 +

1

3w2 =

−1

31313

1

, w3 · w3 =4

3

und normieren

u1 =

1√2

1√2

00

, u2 =

√2√3w2 =

1√6

− 1√6

2√6

0

, u3 =

√3

2w3 =

− 1

2√

31

2√

31

2√

33

2√

3

.

Damit haben wir die gesuchte Orthonormalbasis des R4 berechnet.Wir wollen den Satz 7 noch ein klein wenig umformulieren und ihn in Termen von

Matrizen angeben. Hierzu benotigen wir einen weiteren kleinen Begriff.

Definition 6.7 (Orthogonale und unitare Matrizen)Sei n ∈ N mit n ≥ 1. Eine reelle n×n-Matrix A heißt orthogonal wenn AAt = AtA = 1gilt, d.h. wenn A invertierbar mit A−1 = At ist. Eine komplexe n × n-Matrix A heißtunitar wenn AA∗ = A∗A = 1 ist, d.h. wenn A invertierbar mit A−1 = A∗ ist.

Eine reelle n× n-Matrix A ist offenbar genau dann orthogonal wenn sie als komplexeMatrix unitar ist, in diesem Sinne sind unitare Matrizen der allgemeine Fall. Nach

22-10

Page 11: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

I.§8.Korollar 12 ist eine Matrix A ∈ Rn×n auch genau dann orthogonal wenn AAt = 1oder AtA = 1 gilt, denn dann ist A bereits invertierbar und durch Multiplikation mitA−1 von links oder rechts folgt A−1 = At. Entsprechend ist eine komplexe MatrixA ∈ Cn×n bereits unitar wenn AA∗ = 1 oder A∗A = 1 gilt. Beachte weiter das Agenau dann orthogonal beziehungsweise unitar ist wenn die transponierte Matrix At

dies ist. Im reellen Fall K = R ist dies trivial. Im komplexen Fall beachte (At)∗ = A,also (At)∗At = AAt = AA∗ und analog At(At)∗ = A∗A, also ist genau dann (At)∗At =At(At)∗ = 1 wenn AA∗ = A∗A = 1 ist, wenn also A unitar ist. Wir stellen jetztden Zusammenhang zwischen orthogonalen beziehungsweise unitaren Matrizen undOrthonormalbasen her.

Lemma 6.8 (Charakterisierung orthogonaler und unitarer Matrizen)Seien K ∈ {R, C}, n ∈ N mit n ≥ 1 und A ∈ Kn×n. Dann sind die folgenden Aussagenaquivalent:

(a) Es ist K = R und A ist orthogonal oder K = C und A ist unitar.

(b) Fur alle x, y ∈ Kn gilt 〈Ax|Ay〉 = 〈x|y〉.

(c) Die Spalten von A bilden eine Orthonormalbasis des Kn.

(d) Die Zeilen von A bilden eine Orthonormalbasis des Kn.

Beweis: (a)=⇒(b). Es reicht den Fall K = C zu behandeln, die reellen Matrizen sinddann ein Spezialfall. Seien also x, y ∈ Cn. Dann gilt

〈Ax|Ay〉 = (Ax)tAy = xtAtAy = xtA∗Ay = xty = 〈x|y〉.

(b)=⇒(c). Bezeichne u1, . . . , un die Spalten von A, d.h. fur 1 ≤ i ≤ n ist ui = Aei

wenn e1, . . . , en wie immer die Standardbasis des Kn ist. Fur 1 ≤ i, j ≤ n mit i 6= jgilt dann

〈ui|uj〉 = 〈Aei|Aej〉 = 〈ei|ej〉 = 0

und fur 1 ≤ i ≤ n ist auch

||ui||2 =√〈ui|ui〉 =

√〈Aei|Aei〉 =

√〈ei|ei〉 = 1.

Damit ist u1, . . . , un eine Orthonormalbasis des Kn.(c)=⇒(a). Seien wieder u1, . . . , un die Spalten von A = (aij)1≤i,j≤n. Fur 1 ≤ i, j ≤ nist dann

(A∗A)ij =n∑

k=1

akiakj = utjui = 〈uj|ui〉 = δij,

also ist A∗A = 1. Wie bereits bemerkt, folgt hieraus das A im reellen Fall orthogonalund im komplexen Fall unitar ist.(a)⇐⇒(d). Die Zeilen von A sind die Spalten von At, also sind die Zeilen von A genaudann eine Orthonormalbasis des Kn wenn At orthogonal beziehungsweise unitar ist,

22-11

Page 12: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

und wie schon angemerkt ist dies genau dann der Fall wenn A orthogonal beziehungs-weise unitar ist.

Wir hatten eine reelle qudratische Matrix A orthogonal genannt wenn AAt = AtA = 1gilt, und entsprechend ist eine komplexe quadratische Matrix unitar wenn AA∗ =A∗A = 1 ist. Gleichwertig hierzu ist das die Spalten von A eine Orthonormalbasisdes Kn bilden, wobei wieder K = R oder K = C ist je nachdem ob wir reelle oderkomplexe Matrizen betrachten. Ist also u1, . . . , un eine Orthonormalbasis des Kn, so istdie Transformationsmatrix S von der Basis u1, . . . , un zur Standardbasis des Kn, d.h.die Matrix deren Spalten u1, . . . , un sind, im reellen Fall orthogonal und im komplexenFall unitar. Damit ist S−1 = S∗. Ist also weiter A eine n × n-Matrix uber K, so wirddie ahnliche Matrix bezuglich der Basis u1, . . . , un zu S−1AS = S∗AS. Unser Satz 7wird zu

Korollar 6.9: Seien K ∈ {R, C}, n ∈ N mit n ≥ 1 und A ∈ Kn×n symmetrisch imFall K = R und hermitesch im Fall K = C Dann existiert fur K = R eine orthogonaleMatrix S ∈ Rn×n und fur K = C eine unitare Matrix S ∈ Cn×n mit

StAS =

λ1

. . .

λn

fur K = R und S∗AS =

λ1

. . .

λn

fur K = C

wobei λ1, . . . , λn die mit Vielfachheit aufgezahlten Eigenwerte von A sind.

Beweis: Klar nach Satz 7.

Im oben gerechneten Beispiel der symmetrischen 4× 4-Matrix

A =

9 −1 −1 1

−1 9 1 −1−1 1 9 −1

1 −1 −1 9

.

ist S die orthogonale Matrix

S =1

6

3√

2√

6 −√

3 3

3√

2 −√

6√

3 −3

0 2√

6√

3 −3

0 0 3√

3 3

mit StAS =

8

88

12

.

6.3 Quadratische Formen und Hauptachsentransformation

22-12

Page 13: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

10

20

30

40

–4–2

24 y

–4–224

x

Wir wollen die bisher vorgestellte Theorie nunzur Untersuchung quadratischer Funktionen inmehreren Variablen nutzen, also Funktionen wiebeispielsweise

f(x, y) = x2 + y2 − xy − x− y + 1.

Allgemein ist eine quadratische Funktion in nVariablen eine Funktion der Form

f : Rn → R; x 7→∑

1≤i,j≤n

aijxixj +n∑

i=1

bixi + c

mit Konstanten aij, bi, c ∈ R (1 ≤ i, j ≤ n). Furn = 2 sieht die allgemeine quadratische Funktio-nen also ausgeschrieben wie folgt aus

a11x2 + a12xy + a21yx + a22y

2 + b1x + b2y + c.

Fur unsere obige Beispielfunktion konnten wiretwa

a11 = a22 = c = 1, a12 = b1 = b2 = −1 und a21 = 0

setzen. Da die definierende Summenformel etwas unhandlich ist, geht man nun zu einerMatrixbeschreibung der quadratischen Funktion f uber. Hierzu setzt man

A :=

a11 · · · a1n...

. . ....

an1 · · · ann

und b :=

b1...bn

und hat fur jedes x ∈ Rn

∑1≤i,j≤n

aijxixj =n∑

j=1

(n∑

i=1

aijxi

)xj =

n∑j=1

(Atx)jxj = (Atx) · y

und∑n

i=1 bixi = b · x. Die quadratische Funktion f in n Variablen konnen wir damitin der kompakten Form

f(x) = (Atx) · x + b · x + c

schreiben. Fur 1 ≤ i, j ≤ n mit i 6= j taucht das Produkt xixj zweimal auf, einmal alsaijxixj und ein anderes Mal als ajixjxi = ajixixj. Diese beiden Summanden konnenwir zusammenfassen und als

aijxixj + ajixjxi = (aij + aji)xixj =aij + aji

2xixj +

aij + aji

2xjxi

22-13

Page 14: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

schreiben. Diese neuen Koeffizienten (aij + aji)/2 sind symmetrisch in i und j. Damitkonnen wir immer erreichen, dass die Matrix A symmetrisch ist. In unserer Beispiel-funktion werden

A =

(1 −1

2

−12

1

)und b =

(−1−1

).

Die offizielle Definition einer quadratischen Funktion wird jetzt zu:

Definition 6.8: Sei n ∈ N. Eine quadratische Funktion in n Variablen ist eine Funktionder Form

f : Rn → R; x 7→ (Ax) · x + b · x + c

wobei A eine symmetrische n× n Matrix uber R ist, b ∈ Rn ein Vektor ist und c ∈ Reine reelle Zahl ist. Ist dabei b = 0 und c = 0, so nennt man f auch eine quadratischeForm.

Zum besseren Verstandnis von f ist es hilfreich sich die Niveaumengen

Mt := {x ∈ Rn|f(x) = t}

fur verschiedene Werte von t anzuschauen. Fur unsere Beispielfunktion f(x, y) = x2 +y2 − xy − x− y + 1 haben diese Mengen die Form

0.5

1

1.5

2

y

0.5 1 1.5 2

x

0.5

1

1.5

2

y

0.5 1 1.5 2

x

Niveaumengen Die Niveaumenge f(x, y) = 1

Wie Sie sehen sind die Niveaumengen hier allesamt Ellipsen. Fur die Niveaumenge M1

haben wir auch die beiden Hauptachsen der Ellipse eingezeichnet, d.h. die Achsen aufdenen die Ellipse minimalen oder maximalen Abstand von ihrem Schwerpunkt hat.Als Hauptachsentransformation bezeichnet man jetzt die Koordinatentransformationbei der der Nullpunkt des Koordinatensystems in den Schwerpunkt der Ellipse gelegt

22-14

Page 15: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

wird und die beiden Hauptachsen der Ellipse als Koordinatenachsen verwendet werden.Bezuglich eines Koordinatensystem mit Schwerpunkt im Nullpunkt bei dem die beidenHauptachsen die Koordinatenachsen sind, hat eine Ellipse mit den Halbradien a, b > 0die Form

a

bx2

a2+

y2

b2= 1.

Wir suchen also ein Koordinatensystem in dem unsere Niveaumenge M1 diese Formannimmt. Insbesondere konnen wir dann auch die beiden Halbradien unserer Ellipseberechnen. Es stellt sich heraus, dass man dann auch fur allgemeinere quadratischeFunktionen eine

”Hauptachsentransformation“ durchfuhren kann, dass das ganze also

im Allgemeinen mit Ellipsen eigentlich nichts zu tun hat.Kommen wir also zur allgemeinen Situation

f(x) = (Ax) · x + b · x + c

in n Variablen zuruck. Als erstes Ziel wollen wir den Nullpunkt unserer angestrebtenHauptachsentransformation finden. Wir untersuchen dazu erst einmal wie sich das Ver-schieben des Nullpunkts auf die quadratische Funktion auswirkt. Nehmen wir einmalan wir legen den Nullpunkt in den Punkt u ∈ Rn. Sei x ∈ Rn. Denken wir uns xbezuglich des neuen Koordinatenursprungs u, so sind die Koordinaten von x bezuglichdes alten Nullpunkts gleich x + u. Setzen wir dies in die quadratische Funktion ein, sowird

f(x + u) = (A(x + u)) · (x + u) + b · (x + u) + c = (Ax + Au) · (x + u) + b · (x + u) + c

= (Ax) · x + (Ax) · u + (Au) · x + (Au) · u + b · x + b · u + c

= (Ax) · x + (2Au + b) · x + c + (Au) · u + b · u.

Setzen wir also

b′ := 2Au + b und c′ := c + (Au) · u + b · u = f(u),

so wirdf(x) := f(x + u) = (Ax) · x + b′ · x + c′.

Wie mussen wir u wahlen damit f moglichst einfach wird? Hier gibt es zwei moglicheFalle, die wir gleich durchgehen werden.Fall 1. Es ist b ∈ Bild A. Dann konnen wir ein u ∈ Rn mit

Au = −1

2b =⇒ b′ = 2Au + b = 0

22-15

Page 16: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

wahlen und haben den linearen Anteil eliminiert.Fall 2. Es ist b /∈ Bild A. Dann zerlegen wir den Vektor b in eine Summe b = b1 + b2

mit einem Teil b1 ∈ Bild(A) und einem Vektor b2 der senkrecht auf dem Bild von Asteht, d.h. b1 ist die Orthogonalprojektion von b auf das Bild von A. Wegen b /∈ Bild Aist b1 6= b, also b2 6= 0. In diesem Fall wahlen wir u ∈ Rn mit

Au = −1

2b1 =⇒ b′ = 2Au + b = b2,

und wir haben den linearen Anteil senkrecht zum Bild von A gemacht. Weiter ver-einfachen konnen wir in diesem Fall leider nicht, zumindest nicht durch Wahl desKoordinatenursprungs.

Untersuchen wir einmal die Situation in unserem Beispiel f(x, y) = x2 + y2 − xy −x− y + 1. Hier ist die Matrix A invertierbar mit

A =

(1 −1

2

−12

1

)=⇒ A−1 =

4

3

(1 1

212

1

)und fur den Nullpunkt u erhalten wir

u = −1

2A−1b = −2

3

(1 1

212

1

)(−1−1

)=

(11

).

Der Vektor u ist also tatsachlich genau der Mittelpunkt unserer Ellipse, wie man imobigen Bild der Niveaumenge M1 tatsachlich sehen kann. Wegen f(u) = 0 wird damit

f(x) = (Ax) · x beziehungsweise f(x, y) = x2 + y2 − xy.

Bei der Transformation auf die Hauptachsen der Ellipse als Koordinatenachsen bleibtder Nullpunkt unverandert. Da der konstante Term keine Rolle spielt, mussen wir alsonur noch eine quadratische Form

f(x) = (Ax) · x

mit einer symmetrischen n × n Matrix A betrachten. Nach Korollar 9 existiert eineorthogonale n× n Matrix S mit

StAS =

λ1

. . .

λn

=: D

wobei λ1, . . . , λn die Eigenwerte von A sind. Diese Matrix existiert nicht nur, son-dern wir hatten auch gesehen wie man sie ausrechnen kann. Die Matrix S ist dieTransformationsmatrix von einer aus Eigenvektoren von A bestehenden Orthonormal-basis u1, . . . , un zur Standardbasis des Rn, d.h. die Matrix deren Spalten die Vektorenu1, . . . , un sind. Bezeichnet x Koordinaten bezuglich der Basis u1, . . . , un, so ist Sx der

22-16

Page 17: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

entsprechende Vektor in den Standardkoordinaten. In diesen transformierten Koordi-naten wird die quadratische Form also zu

f(x) := f(Sx) = (ASx) · (Sx) = (StASx) · x = (Dx) · x = λ1x21 + · · ·+ λnx

2n.

An dieser Formel sehen wir insbesondere das die geometrische Form der quadratischenFunktion von den Vorzeichen der Eigenwerte der Matrix A bestimmt wird. Nehmenwir einmal das zweidimensionale Beispiel f(x, y) = λ1x

2 + λ2y2.

–2

0

2x

–3 –2 –1 0 1 2 3

y

0

2

4

6

8

10

12

14

16

18

–3–2

–10

12

3

x

–3

–2

–1

0

1

2

3

y

–8

–6

–4

–2

0

2

4

6

8

λ1, λ2 > 0 λ1 · λ2 < 0

Sind beide Eigenwerte λ1, λ2 positiv, so haben wir bis auf Skalierungen der x- undy-Achse das Rotationparaboloid f(x, y) = x2 + y2. Sind λ1, λ2 beide negativ, so liegtanalog ein nach unten geoffnetes Rotationsparaboloid vor. Haben λ1 und λ2 verschiede-ne Vorzeichen, also λ1λ2 < 0, so hat unsere Funktion nach Umskalieren und eventuellenSpiegeln an der Diagonalen die Form von f(x, y) = x2 − y2, ist also eine Sattelflache.

Wir setzen jetzt das Beispiel der quadratischen Funktion f(x, y) = x2 + y2 − xy −x− y +1 fort. Wir hatten bereits gesehen, dass wir u = (1, 1) als Koordinatenursprung

nehmen sollten, und das dann f(x, y) = f(x + 1, y + 1) = x2 + y2 − xy ist. Nachunserer eben angestellten Uberlegung erfordert die Berechnung der Hauptachsen dieBestimmung einer aus Eigenvektoren von A bestehenden Orthonormalbasis des R2.Rechnen wir dies einmal fur unsere quadratische Form f(x, y) = x2 + y2 − xy durch.Das charakteristische Polynom wird zu

A =

(1 −1

2

−12

1

)=⇒ χA(x) = x2 − tr(A)x + det(A) = x2 − 2x +

3

4

und die Eigenwerte sind damit

λ = 1±√

1− 3

4= 1± 1

2, also λ1 =

1

2und λ2 =

3

2.

22-17

Page 18: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

Die Berechnung von Eigenvektoren liefert

fur λ =1

2

12−1

2

−12

12

=⇒ x = y und fur λ =3

2

−12−1

2

−12−1

2

=⇒ x = −y,

also

v1 =

(11

), v2 =

(−1

1

)und normiert u1 =

(12

√2

12

√2

), u2 =

(−1

2

√2

12

√2

).

Wir verwenden jetzt ein Koordinatensystem mit Ursprung in u = (1, 1) und den Ko-ordinatenachsen u1, u2, die wir eben ausgerechnet haben. Ist dann S die Transforma-tionsmatrix

S :=

(12

√2 −1

2

√2

12

√2 1

2

√2

),

so entspricht der Punkt x im neuen Koordinatensystem dem Punkt Sx + u im altenKoordinatensystem, und wir haben mit f(x) = f(Sx + u) nun

f(x, y) = λ1x2 + λ2y

2 =1

2x2 +

3

2y2.

Damit haben wir die Hauptachsentransformation in diesem Beispiel durchgefuhrt. Ander obigen Formel kann man auch noch die Radien der beiden Hauptachsen unsererEllipse f(x, y) = 1 ablesen. Es ist ja

f(x, y) =x2

a2+

y2

b2mit a :=

√2 und b :=

√2

3=

1

3

√6

der kleinere Radius der Ellipse ist also b =√

6/3 und der große ist a =√

2. Damithaben wir zum einen die Hauptachsentransformation fur die quadratische Funktionf(x, y) = x2 + y2 − xy − x − y + 1 durchgefuhrt und zum anderen die beiden Halb-radien der durch f(x, y) = 1 gegebenen Ellipse ausgerechnet. Letzterer geometrischerAspekt spielt fur uns keine große Rolle, das Entscheidende ist die Bestimmung des zurHauptachsentransformation verwendeten Koordinatensystems.

Wir wollen uns auch noch anschauen wie der obige Fall 2 zu behandeln ist, alsowenn b /∈ Bild(A) gilt. Da die Matrix A symmetrisch ist, haben wir fur alle x ∈ Rn

und alle y ∈ Kern A stets (Ax) · y = x · (Ay) = 0, d.h. Bild und Kern von A stehensenkrecht aufeinander. Dies konnen wir auch leicht in Satz 7 ablesen, ist u1, . . . , un eineaus Eigenvektoren bestehende Orthonormalbasis, so ist das Bild gleich dem Erzeugnisder Eigenvektoren ui zu von Null verschiedenen Eigenwerten und der Kern ist derEigenraum zu λ = 0 also das Erzeugnis der restlichen ui. Haben wir also f(x) =(Ax) · x + b · x + c mit b 6= 0 senkrecht auf dem Bild von A, so ist auch Ab = 0. Inanderen Worten ist b ein Eigenvektor zum Eigenwert 0 von A. Es gibt nun wieder eineorthogonale Matrix S mit

D := StAS =

λ1

. . .

λn

,

22-18

Page 19: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

wobei λ1, . . . , λn die Eigenwerte von A sind. Dabei numerieren wir die Eigenwer-te von A so durch, dass die ersten r := rang A Eigenwerte von Null verschiedensind λ1, . . . , λr 6= 0 wahrend die hinteren n − r Eigenwerte alle gleich Null sindλr+1 = · · · = λn = 0. Bei der Berechnung des zum Eigenwert 0 gehorenden Teilsder aus Eigenvektoren von A bestehenden Orthonormalbasis des Rn, hatten wir zu-erst eine Basis vr+1, . . . , vn dieses Eigenraums bestimmt, und auf diese dann das GramSchmidtsche Orthonormalisierungsverfahren angewandt. Wegen Ab = 0, b 6= 0 konnenwir die Basis dann mit vr+1 = b wahlen, und es wird ur+1 = vr+1/||vr+1|| = b/||b||.Damit ist b = µur+1 mit µ := ||b||. Es folgt

f(x) := f(Sx) = (ASx) · (Sx) + b · (Sx) + c = (StASx) · x + (Stb) · x + c

= (Dx) · x + (Stb) · x + c

fur alle x ∈ R. Dabei gilt Ser+1 = ur+1, also auch

Stb = µStur+1 = µS−1ur+1 = µer+1.

Insgesamt ist somit

f(x1, . . . , xn) = λ1x21 + · · ·+ λrx

2r + µxr+1 + c.

Damit haben wir den linearen Anteil unserer quadratischen Funktion zwar nicht zumVerschwinden gebracht, haben ihn aber zumindest zu einer einfachen Standardformnormiert. Auch zu dieser Situation wollen wir ein dreidimensionales Beispiel rechnen.Wir betrachten die quadratische Funktion

f(x, y, z) = x2 + y2 + z2 −√

2xy +√

2yz + x + y − 1

In der Vektordarstellung haben wir dann f(x) = (Ax) · x + b · x + c mit

A =

1 −12

√2 0

−12

√2 1 1

2

√2

0 12

√2 1

, b =

110

und c = −1.

Es stellt sich heraus, dass es genau wie im schon behandelten Fall 1 sinnvoll ist, zunachsteinmal die Eigenwerte von A zu berechnen. Das charakteristische Polynom ergibt sichals

χA(x) =

∣∣∣∣∣∣x− 1 1

2

√2 0

12

√2 x− 1 −1

2

√2

0 −12

√2 x− 1

∣∣∣∣∣∣= (x− 1)

∣∣∣∣ x− 1 −12

√2

−12

√2 x− 1

∣∣∣∣− 1

2

√2

∣∣∣∣ 12

√2 0

−12

√2 x− 1

∣∣∣∣= (x− 1)

(x2 − 2x +

1

2

)− 1

2(x− 1) = x(x− 1)(x− 2),

22-19

Page 20: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

und wir haben die drei Eigenwerte λ1 = 1, λ2 = 2 und λ3 = 0. Als nachsten Schrittbestimmen wir eine aus Eigenvektoren von A bestehende Orthonormalbasis des R3.Hierzu suchen wir zunachst einmal Eigenvektoren fur die von Null verschiedenen Ei-genwerte. Fur λ1 = 1 ist die Rechnung

0 12

√2 0

12

√2 0 −1

2

√2

0 −12

√2 0

−→12

√2 0 −1

2

√2

0 12

√2 0

0 −12

√2 0

−→ 1 0 −10 1 0

also y = 0, x = z mit dem normierten Eigenvektor

u1 =

12

√2

012

√2

.

Fur λ2 = 2 haben wir

1 12

√2 0

12

√2 1 −1

2

√2

0 −12

√2 1

−→1 1

2

√2 0

0 12

−12

√2

0 −12

√2 1

−→1 1√

20

0 1 −√

2

also y =√

2z, x = −(√

2/2)y = −z mit dem normierten Eigenvektor

u2 =

−12

12

√2

12

.

Das Bild von A wird jetzt von den beiden Vektoren u1, u2 aufgespannt, und wir mussennun die Orthogonalprojektion des Vektors b auf dieses Bild berechnen, also

b · u1 =1

2

√2 und b · u2 =

1

2(√

2− 1),

und die Orthogonalprojektion b1 von b wird

b1 := (b · u1)u1 + (b · u2)u2 =1

2

√2u1 +

1

2(√

2− 1)u2 =

14(3−

√2)

14(2−

√2)

14(1 +

√2)

.

Die Zerlegung von b hat jetzt die Form

b = b1 + b2 mit b2 := b− b1 =

14(1 +

√2)√

24

(1 +√

2)

−14(1 +

√2)

.

Wegen b2 6= 0 zeigt diese Rechnung insbesondere das b /∈ Bild(A) ist, wir sind alsoim obigen Fall 2. Im nachsten Schritt berechnen wir einen passenden Nullpunkt u und

22-20

Page 21: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

hierfur suchen wir einen Vektor u mit Au = −b1/2. Zur Bestimmung von u mussenwir erfreulicherweise kein lineares Gleichungssystem mehr losen, wir haben schon allenotigen Daten beisammen. Die Vektoren u1, u2 sind ja Eigenvektoren von A mit Au1 =λ1u1 und Au2 = λ2u2, d.h. wir haben auch

b1 = (b · u1)u1 + (b · u2)u2 =b · u1

λ1

(λ1u1) +b · u2

λ2

(λ2u2) =b · u1

λ1

Au1 +b · u2

λ2

Au2

= A ·(

b · u1

λ1

u1 +b · u2

λ2

u2

).

Folglich konnen wir als Losung von Au = −b1/2 beispielsweise

u := −1

2

(b · u1

λ1

u1 +b · u2

λ2

u2

)= −1

2

(1

2

√2u1 +

1

4(√

2− 1)u2

)=

− 116

(5−√

2)

− 116

(2−√

2)

− 116

(3 +√

2)

verwenden. Mit u als Koordinatenursprung ist dann wegen

f(u) =1

32(2√

2− 39)

auch

f(x) = (Ax) · x + b2 · x +1

32(2√

2− 39).

Wir brauchen noch einen Eigenvektor zum Eigenwert 0, und hierfur konnen wir unserenschon berechneten Vektor b2 verwenden. Es ist

||b2||2 =1

16(12 + 8

√2) =

1

4(3 + 2

√2) =

1

4(1 +

√2)2 =⇒ µ := ||b2|| =

1

2(1 +

√2)

also wird

u3 =b2

||b2||=

12

12

√2

−12

und die endgultige orthogonale Matrix ist

S =

12

√2 −1

212

0 12

√2 1

2

√2

12

√2 1

2−1

2

.

Fur die transformierte Funktion f(x) = f(Sx + u) ist damit

f(x, y, z) = x2 + 2y2 +1

2(1 +

√2)z +

1

32(2√

2− 39).

Wir wollen jetzt das vollstandige Verfahren zur Herstellung der Hauptachsentransfor-mation angeben. In unserem Fall 2 hatten wir eine Losung u von Au = −b1/2 direkt

22-21

Page 22: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

in Termen des Skalarprodukts hingeschrieben, und dieselbe Uberlegung funktioniertebenso in Fall 1. Damit ist es gar nicht notig explizit ein lineares Gleichungssystem zulosen und wir erhalten ein gemeinsames Verfahren fur beide Falle. Das Verfahren zurBerechnung der Hauptachsentransformation lauft wie folgt ab:

Gegeben: Eine quadratische Funktion f(x) = (Ax)·x+b·x+c mit einer symmetrischenn× n Matrix A, einem Vektor b ∈ Rn und einer Zahl c ∈ R.

Gesucht: Ein Koordinatenursprung u ∈ Rn und eine Orthonormalbasis u1, . . . , un

des Rn so, dass die transformierte Funktion f(x) = f(Sx + u) entweder die Form

f(x) = λ1x21 + · · ·+ λnx

2n + c′ oder die Form f(x) = λ1x

21 + · · ·+ λrx

2r + µxr+1 + c′ hat.

Dabei ist S die orthogonale Matrix deren Spalten die Vektoren u1, . . . , un sind.

Verfahren: Die Rechnung lauft in den folgenden Schritten ab.

1. Berechne die Eigenwerte λ1, . . . , λn von A aufgezahlt entsprechend ihrer jewei-ligen Vielfachheit. Die Numerierung erfolge so, dass λ1, . . . , λr 6= 0 und λr+1 =. . . = λn = 0 ist, wobei r := rang(A) der Rang von A ist. Dabei muss r nicht extraausgerechnet werden, sondern ergibt sich durch Zahlen der Eigenwerte ungleichNull.

2. Berechne fur jeden der von Null verschiedenen Eigenwerte λ von A eine Ortho-normalbasis des Eigenraums Eλ(A). Dies geschieht wieder indem zuerst durchLosen des homogenen linearen Gleichungssystems (A− λ)x = 0 irgendeine Basisvon Eλ(A) berechnet wird, und dann auf diese die Gram Schmidt Orthonorma-lisierung angewandt wird.

3. Fasse die in Schritt (2) berechneten Orthonormalbasen zu einer Orthonormalbasisu1, . . . , ur des Bildes von A zusammen.

4. Berechne b∗ := (b · u1)u1 + · · ·+ (b · ur)ur und verwende

u := −1

2

(b · u1

λ1

u1 + · · ·+ b · ur

λr

ur

)als den Koordinatenursprung.

5. Ist r < n, so lose das homogene lineare Gleichungssystem Ax = 0 um eine Basisv1, . . . , vn−r des Kerns von A zu erhalten. Im Fall b 6= b∗ wahle die Basis mitv1 = b− b∗ und setze µ := ||b− b∗||. Weiter wende die Gram Schmidt Orthonor-malisierung auf v1, . . . , vn−r an, und bezeichne die erhaltene Orthonormalbasisdes Kerns von A mit ur+1, . . . , un.

6. Der Koordinatenursprung ist der in Schritt (4) berechnete Punkt u und die ausden Hauptachsen bestehende Orthonormalbasis entsteht durch Zusammensetzender in den Schritten (3) und (5) berechneten Teilbasen, also u1, . . . , un. Im Fallb = b∗ hat die transformierte quadratische Funktion keinen linearen Anteil mehrund im anderen Fall b 6= b∗ tritt ein linearer Anteil mit dem in (5) berechnetenµ auf.

22-22

Page 23: 6 Symmetrische und hermitesche Matrizen - math.uni-kiel.de · Vektor v ∈ H heißt senkrecht auf U, geschrieben als v ⊥ U, wenn v auf jedem Vektor u ∈ U senkrecht steht, wenn

Mathematik fur Physiker II, SS 2018 Freitag 29.6

Dieses Verfahren erlaubt es allgemein jede quadratische Funktion in n Variablen ent-weder auf die Gestalt f(x) = λ1x

21 + · · · + λnx

2n + c oder auf die Gestalt f(x) =

λ1x21 + · · ·+λrx

2r +µxr+1 + c fur ein r < n zu transformieren. Beispiele zur Anwendung

des Verfahrens werden in Aufgabe (53) behandelt.

22-23