vorlesungsmanuskript zu lineare algebra i · (u2) 8v2u 8 2k : v 2u. abstrakt ausgedrückt heiÿt...

90

Upload: others

Post on 02-Sep-2019

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Vorlesungsmanuskript zu

Lineare Algebra I

Werner BalserInstitut für Angewandte Analysis

Wintersemester 2007/08

Page 2: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Inhaltsverzeichnis

1 Vektorräume 5

1.1 Lineare Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Einfache Folgerungen aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.4 Lineare Hülle, lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.5 Erzeugendensystem und Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.6 Existenz von Basen in endlich-dimensionalen Räumen . . . . . . . . . . . . . . . . . . . . 13

1.7 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.8 Wechsel des Skalarenkörpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.9 Summe von Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Matrizen 19

2.1 De�nition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.2 Das Produkt von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.4 Zeilen- und Spaltenrang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.5 Elementare Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.6 Normalform und Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.7 Zeilenstufenform und Rangberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.8 Invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Lineare Gleichungssysteme 30

3.1 Das Gauÿsche Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.2 Struktur der Lösungsmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2

Page 3: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

3.3 Berechnen der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4 Determinanten 35

4.1 Gruppen und Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4.2 Vorzeichen von Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.3 De�nition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.4 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.5 Weitere Eigenschaften von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.6 Entwicklungssätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

5 Euklidische und unitäre Räume 46

5.1 De�nition des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

5.2 Die Norm eines Vektors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5.3 Orthogonalität und Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.4 Orthogonalsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5.5 Beste Approximation, orthogonale Projektion und Fourierkoe�zienten . . . . . . . . . . . 52

6 Lineare Abbildungen 54

6.1 De�nition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

6.2 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

6.3 Lineare Abbildungen und Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

6.4 Isomorphie und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

6.5 Der Dualraum, die duale Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

6.6 Die adjungierte Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

6.7 Längentreue Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6.8 De�nite Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

6.9 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

7 Lineare Abbildungen und Matrizen 65

7.1 Die Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7.2 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

7.3 Ähnliche Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

7.4 Hermitesche, normale und unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3

Page 4: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

7.5 Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

8 Normalformen und De�nitheit von Matrizen 75

8.1 Trigonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

8.2 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

8.3 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

8.4 Diagonalisierung normaler Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . 79

8.5 De�nite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

9 Ergänzungen 83

9.1 Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

9.2 Drehungen und Spiegelungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4

Page 5: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 1

Vektorräume

1.1 Lineare Räume

Im Folgenden sei K ein Körper. Wir können uns unter K entweder R oder C vorstellen, auÿer wenn wirausdrücklich einen anderen Körper voraussetzen. Die meisten der folgenden Resultate gelten aber genausofür einen beliebigen Körper K. Wir nennen K auch den Skalarenkörper, und ein Element λ ∈ K heiÿtmanchmal auch ein Skalar. Die genaue De�nition eines Körpers, und speziell von R und C, wird in derVorlesung Analysis I gegeben. Allgemeine Körper werden in der Vorlesung Algebra behandelt.

De�nition 1.1.1 Eine Menge V , zusammen mit zwei Abbildungen

+ : V × V −→ V, (v, w) 7−→ v + w,

· : K× V −→ V, (λ, v) 7−→ λ · v (= λ v),

heiÿt ein linearer Raum oder ein Vektorraum über K, wenn folgende Axiome alle gelten:

(V1) ∀ u, v, w ∈ V : u+ (v + w) = (u+ v) + w (Assoz.-Ges. der Addit.)

(V2) ∃ 0 ∈ V ∀ v ∈ V : v + 0 = v (Existenz eines Nullvektors)

(V3) ∀ v ∈ V ∃ v ∈ V : v + v = 0 (Exist. eines additiven Inversen)

(V4) ∀ v1, v2 ∈ V : v1 + v2 = v2 + v1 (Kommutativges. der Addition)

(V5) ∀ v ∈ V ∀ λ, µ ∈ K : λ (µ v) = (λµ) v (Assoz.-Ges. der Multiplik.)

(V6) ∀ v, w ∈ V , ∀ λ ∈ K : λ (v + w) = λ v + λw (1. Distrib.-Ges.)

(V7) ∀ v ∈ V , ∀ λ, µ ∈ K : (λ+ µ) v = λ v + µ v (2. Distrib.-Ges.)

(V8) ∀ v ∈ V : 1 v = v

Ist dies der Fall, so heiÿen die Elemente von V auch Vektoren. Für den Fall K = R spricht man auchvon einem reellen, für K = C von einem komplexen Vektorraum.

Beispiel 1.1.2 Beachte für dieses Beispiel sowie die ganze Vorlesung, dass N = {1, 2, 3, . . .} die Mengeder natürlichen Zahlen bezeichnet. Insbesondere ist 0 6∈ N, was in manchen Büchern und Vorlesungenanders sein kann, und wir schreiben N0 = N ∪ {0}.

Die folgenden Mengen sind alle Vektorräume über K:

5

Page 6: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

(a) Die Menge Kn aller Spaltenvektoren der Länge n ∈ N mit Elementen in K, d. h., die Menge aller

x =

x1x2...xn

= (x1, . . . , xn)T ,

mit Zahlen xj ∈ K. Dabei ist für x wie oben und einen zweiten Spaltenvektor

y =

y1y2...yn

= (y1, . . . , yn)T

sowie λ ∈ K Addition und Skalarmultiplikation de�niert durch

x + y =

x1 + y1x2 + y2

...xn + yn

, λ x =

λx1λx2...

λxn

.

Für n = 1 ist Kn �praktisch gleich� K. Für n = 2 bzw. n = 3 und K = R kann man x als Punkt derEbene bzw. des Raumes au�assen und nennt deshalb auch allgemein die Zahlen xk die Koordinatendes Vektors x. Beachte auch, dass die Schreibweise x = (x1, . . . , xn)T ein Spezialfall der sogenanntenTransposition einer Matrix ist, welche in De�nition 2.3.1 noch genauer behandelt wird.

(b) Die Menge C[a, b] aller stetigen Funktionen auf einem festen abgeschlossenen Intervall [a, b], a ≤ b,mit Werten in K und der üblichen Addition und Multiplikation.

(c) Die Menge K[t] aller Polynome in einer Variablen t mit Koe�zienten in K. Man liest das SymbolK[t] als �K adjungiert t�.

(d) Die Menge Kn[t] aller Polynome vom Grad ≤ n mit Koe�zienten in K.

(e) Die Menge aller Funktionen auf einem festen, nicht-leeren De�nitionsbereich D mit Werten in K,oder allgemeiner, mit Werten in einem festen aber beliebigen Vektorraum V über K.

(f) Kartesische Produkte von beliebig vielen Vektorräumen über K.

(g) Die Menge KJ aller Abbildungen f einer nicht-leeren Menge J in K mit f(j) 6= 0 höchstens fürendlich viele j ∈ J . Vergleiche hierzu auch Aufgabe 5.1.6.

Falls K = R oder = C ist, hat ein Vektorraum V entweder nur ein Element, welches dann der Nullvektorsein muss, oder unendlich viele Elemente, da ja dann K selber bereits eine unendliche Menge ist; vergleichedazu auch Aufgabe 1.2.5. Es gibt aber auch Körper mit endlich vielen, z. B. zwei, Elementen, und fürsolche Körper ist dann z. B. auch Kn eine endliche Menge. Solche Fälle spielen aber in dieser Vorlesungkeine Rolle.

Aufgabe 1.1.3 Zeige, dass Kn ein Vektorraum ist, d. h., zeige dass für die oben de�nierten Verknüp-fungen in Kn alle Axiome eines Vektorraumes erfüllt sind.

Aufgabe 1.1.4 Begründe, warum die Menge der Polynome vom Grad n, bei festem n ∈ N, keinenVektorraum bildet.

Aufgabe 1.1.5 Sei K ein Körper mit p ≥ 2 Elementen. Berechne die Anzahl der Elemente von Knbzw.Kn[t], für n ∈ N, sowie von K[t].

6

Page 7: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 1.1.6 (Vektoren und MAPLE) Begleitend zur Vorlesung werden wir das Computeralgebra-Paket MAPLE benutzen, das, wie auch viele andere solche Systeme, mit Vektoren aus Kn, aber auch mitPolynomen symbolisch, d. h. �formelmäÿig�, rechnen kann. Die Kommandozeilen

> restart;

> with(LinearAlgebra);

> x := Vector([1, 2, 3]);

> y := Vector([3, 2, 1]);

> z := VectorAdd(x,y);

berechnen die Summe der zuvor eingegebenen Vektoren x und y. Finde einen Rechner, auf demMAPLE inder Version 8 oder höher installiert ist, starte das Paket mit xmaple8 oder einem ähnlichen Kommando,gib dann obige Zeilen ein und beobachte, was passiert. Dabei ist das erste Kommando �> restart� nichtunbedingt notwendig, aber immer angeraten, da es �Reste� von etwaigen früheren Befehlen beseitigt unddas Programm sozusagen in den Ausgangszustand versetzt. Der zweite Befehl ruft ein Programmpaketzum Thema lineare Algebra auf. Es gibt auch noch ein zweites Paket mit dem Namen �linalg�, welchessich in etlichen Punkten von diesem hier aufgerufenen Paket unterscheidet.

1.2 Einfache Folgerungen aus den Axiomen

Im Folgenden bezeichnet V immer einen Vektorraum über K. Allein mit Hilfe der Axiome kann manweitere Rechenregeln beweisen, die in jedem Vektorraum gelten müssen:

Behauptung 1.2.1 In jedem Vektorraum V über K gelten folgende Aussagen:

(a) Es gibt nur einen Nullvektor in V .

(b) Für alle v ∈ V gilt 0 v = 0; dabei steht links die Zahl 0, rechts der Nullvektor.

(c) Zu jedem v ∈ V gibt es nur ein additives Inverses v, das wir im Folgenden auch mit −v bezeichnen,denn es gilt auch −v = (−1) v für alle v ∈ V .

(d) λ v = 0 ⇐⇒ λ = 0 oder v = 0 (oder beides).

(e) Die Gleichung v + x = w, mit v, w ∈ V , besitzt genau eine Lösung x ∈ V , nämlich x = w + (−v).

(f) Die Gleichung αx = v, mit α ∈ K \ {0} und v ∈ V , besitzt genau eine Lösung, nämlich x = α−1 v.

Beweis: Zu (a): Vorausgesetzt sei 0 + v = 0 + v = v für alle v ∈ V ; zu zeigen ist 0 = 0. DurchEinsetzen von 0 bzw. 0 für v folgt 0 = 0 + 0 = 0 + 0 = 0, und das war zu zeigen. Zu (b): Sei w = 0 vgesetzt. Mit Hilfe des zweiten Distributivgesetzes folgt w = (0 + 0) v = w + w. Durch Addition einesadditiven Inversen von w zu beiden Seiten der Gleichung folgt w = 0. Zu (c): Es gilt für jedes v ∈ V :v + (−1) v = (1 − 1) v = 0 v = 0 nach (b). Also ist (−1) v ein additives Inverses zu v. Sei v ein weiteressolches. Dann folgt unter Verwendung von Kommutativ- und Assoziativgesetz der Vektoraddition: v =v + 0 = v + v + (−1) v = v + v + (−1) v = 0 + (−1) v = (−1) v. Zu (d): Genauso wie bei (b) zeigt man,dass λ 0 = 0 für jedes λ ∈ K. Sei jetzt λ v = 0, und sei o. B. d. A. angenommen, dass λ 6= 0 ist. Dannfolgt 0 = λ−1 0 = (λ−1 λ) v = v, wobei die Axiome (V5) und (V8) verwendet wurden. Die Beweise von(e) und (f) werden als Übungsaufgabe gestellt. 2

Aufgabe 1.2.2 Beweise die Aussagen (e) und (f) der obigen Behauptung.

7

Page 8: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Bemerkung 1.2.3 Wir schreiben in Zukunft also immer −v für das additive Inverse eines Vektors v.Statt w + (−v), für v, w ∈ V , schreiben wir dann auch kurz w − v und sprechen von der Di�erenz derVektoren w und v. In einem Vektorraum V gibt es also neben der Addition und der Multiplikation mitSkalaren eine dritte, abgeleitete Operation, die Subtraktion. Beachte aber, dass im Allgemeinen weder einProdukt von Vektoren noch etwa gar ein Quotient de�niert ist.

Aufgabe 1.2.4 (Allgemeine Distributivgesetze) Zeige: Für alle n ∈ N, λ, λ1, . . . , λn ∈ K undv, v1, . . . , vn ∈ V gilt immer

λ

n∑k=1

vk =

n∑k=1

λ vk ,( n∑k=1

λk

)v =

n∑k=1

λk v .

Aufgabe 1.2.5 Zeige: In einem Vektorraum über R oder C gibt es entweder nur einen oder unendlichviele Vektoren. Warum ist dies nicht richtig für allgemeine Körper K?

1.3 Unterräume

De�nition 1.3.1 Eine nichtleere Teilmenge U ⊂ V heiÿt ein Unterraum oder Teilraum, falls U abge-schlossen bezüglich der Addition und der Multiplikation mit Skalaren ist, d. h., falls gilt:

(U1) ∀ v, w ∈ U : v + w ∈ U ,

(U2) ∀ v ∈ U ∀ λ ∈ K : λ v ∈ U .

Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen � + � und � · � von U ×U nach Uabbilden.

Satz 1.3.2 Sei U ein Unterraum eines Vektorraums V über K. Dann ist U selber wieder ein Vektorraumüber K; d. h. also, in U sind alle Vektorraumaxiome (V1) � (V8) erfüllt.

Beweis: Die Gültigkeit von (V1) und (V4) � (V8) ist sofort klar, da nur die Menge der Vektorenverkleinert wurde. Da aus (U2) für λ = 0 folgt, dass 0 ∈ U ist, gilt auch (V2), und für λ = −1 folgt aus(U2) auch (V3). 2

Aufgabe 1.3.3 Zeige: V selber sowie die Teilmenge {0}, welche also nur aus dem Nullvektor besteht,sind immer Unterräume von V . Man nennt diese beiden auch die trivialen Unterräume von V . Zeigeweiter, dass für ein v ∈ V die Menge aller Vielfachen {λ v : λ ∈ K} ebenfalls ein Unterraum ist.

Aufgabe 1.3.4 Zeige: Die Menge aller Polynome ist ein Unterraum des Vektorraums aller Funktionenmit De�nitionsbereich K.

Aufgabe 1.3.5 Die Vektoren aus R2 bzw. R3 kann man sich in natürlicher Weise als Punkte einer Ebenebzw. des Raumes veranschaulichen. Untersuche, welche Geraden in der Ebene bzw. im Raum Unterräumesind.

Lemma 1.3.6 Seien Uj, j ∈ J , Unterräume von V . Dann ist auch ihr Durchschnitt

U =⋂j∈J

Uj

ein Unterraum von V .

8

Page 9: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Die Gültigkeit von (U1) und (U2) für U ist unmittelbar klar auf Grund der De�nition desDurchschnitts, aber wir müssen noch zeigen, dass U nicht leer ist. Dies folgt aber, da nach Satz 1.3.2jedes Uj selber ein Vektorraum ist und somit den Nullvektor enthalten muss, und dieser ist dann auchElement des Durchschnitts U . 2

Aufgabe 1.3.7 Untersuche, ob die Vereinigung zweier Unterräume wieder ein Unterraum ist.

1.4 Lineare Hülle, lineare Unabhängigkeit

De�nition 1.4.1 Gegeben seien eine beliebige Anzahl von Vektoren vj ∈ V , für j ∈ J 6= ∅. Dabeisoll erlaubt sein, dass auch einige der Vektoren vj gleich sind, und deshalb sprechen wir statt von derMenge besser von dem System der Vektoren (vj , j ∈ J). Ist J1 ⊂ J , so heiÿt (vj , j ∈ J1) Teilsystem von(vj , j ∈ J). Gelegentlich werden wir auch Teilmengen von V als Systeme au�assen, was ohne weiteresmöglich ist, während umgekehrt ein System im allgemeinen keine Teilmenge von V ist. Für endlich vielej1, . . . , jn ∈ J und Skalare λ1, . . . , λn ∈ K heiÿt die Summe

v =

n∑k=1

λk vjk (1.4.1)

eine Linearkombination der (vj , j ∈ J). Der Nullvektor ist also immer eine Linearkombination, da jaalle λk gleich 0 sein können. Die Menge aller Linearkombinationen von (vj , j ∈ J) heiÿt die lineareHülle dieser Vektoren, und wir schreiben für diese Menge in Zeichen L(vj , j ∈ J). Die Vektoren (vj , j ∈J) heiÿen linear unabhängig, falls für beliebige Indizes j1, . . . , jn ∈ J und Zahlen λ1, . . . , λn ∈ K dieGleichung

n∑k=1

λk vjk = 0 (1.4.2)

nur dann gilt, wenn alle λk = 0 sind. Ist dies nicht so, d. h., gilt (1.4.2) für mindestens eine Wahl vonj1, . . . , jn ∈ J und λ1, . . . , λn, die nicht alle gleich 0 sind, so heiÿen die Vektoren linear abhängig.

Bemerkung 1.4.2 Es ist bequem, statt (1.4.1) kürzer

v =∑j∈J

λj vj (1.4.3)

zu schreiben. Dabei sollen die λj alle aus dem Körper K sein, und es ist wichtig zu beachten, dasshöchstens endlich viele dieser Skalare von 0 verschieden sein dürfen. Wir stellen uns dabei vor, dass dierechts stehende Summe zwar formal unendlich viele Elemente enthalten kann, dass wir aber alle Termemit λj = 0 ignorieren können, sodass nur eine endliche Summe zu berechnen ist oder sogar nur die leereSumme übrig bleibt, welche per De�nition immer den Nullvektor ergibt. Mit dieser Kurzschreibweise zeigtsich dann die lineare Unabhängigkeit des Systems (vj , j ∈ J) dadurch, dass die Gleichung (1.4.3) fürv = 0 nur dann bestehen kann, wenn alle λj = 0 sind. Es ist sinnvoll, auch ein leeres System zuzulassen,für welches also J = ∅ ist. Dieses soll als linear unabhängig angesehen werden, und entsprechend derKonvention, dass eine leere Summe den Wert 0 haben soll, sehen wir den Nullvektor als die einzigeLinearkombination des leeren Systems an.

Beispiel 1.4.3 Die Menge K[t] aller Polynome mit Koe�zienten in K ist ein Vektorraum über K. JedesPolynom p(t) =

∑nj=0 aj t

j ist o�enbar eine Linearkombination des Systems der Monome (tj , j ∈ N0).Nach dem sogenannten Identitätssatz für Polynome, der in der Vorlesung Analysis behandelt wird, istp(t) = 0 für alle t ∈ K gleichwertig mit a0 = . . . = an = 0. Dies bedeutet dasselbe wie die Aussage, dassdie Monome linear unabhängig sind.

9

Page 10: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 1.4.4 Formuliere die obigen Begri�e der Linearkombination und der linearen Unabhängigkeitnoch einmal für den wichtigsten Spezialfall eines endlichen Systems (v1, . . . , vn) von Vektoren in V .

Lösung: Da bei einer Linearkombination auch einige der Zahlen λk = 0 sein dürfen, kann man o. B. d.A. so sagen:

Für beliebige Skalare λ1, . . . , λn ∈ K heiÿt∑nk=1 λk vk eine Linearkombination von (v1, . . . , vn). Das

System (v1, . . . , vn) heiÿt linear unabhängig, falls die Gleichung

n∑k=1

λk vk = 0 (1.4.4)

nur gilt, wenn alle λk = 0 sind. Ist dies nicht so, d. h., gilt (1.4.2) für mindestens eine Wahl von λ1, . . . , λn,die nicht alle gleich 0 sind, so heiÿt das System linear abhängig. Statt �das System (v1, . . . , vn) ist linear(un)abhängig� soll es auch erlaubt sein zu sagen �die Vektoren v1, . . . , vn sind linear (un)abhängig�. 2

Aufgabe 1.4.5 Zeige: Ein System von unendlich vielen Vektoren ist genau dann linear unabhängig,wenn jedes endliche Teilsystem linear unabhängig ist.

Aufgabe 1.4.6 Zeige: Ein System aus einem Vektor v ∈ V ist genau dann linear unabhängig, wenn vnicht der Nullvektor ist. Zwei Vektoren v1, v2 sind genau dann linear abhängig, wenn einer der Vektorenein skalares Vielfaches des anderen ist.

Behauptung 1.4.7 Für jedes System (vj , j ∈ J) aus V gelten immer folgende Aussagen:

(a) Sind die Vektoren (vj , j ∈ J) linear unabhängig, und ist J1 ⊂ J , so ist auch (vj , j ∈ J1) linearunabhängig.

(b) Gilt vj = 0 für ein j ∈ J , oder vj = vk für j, k ∈ J mit j 6= k, so ist (vj , j ∈ J) linear abhängig.

(c) Ist J 6= ∅, und sind die Vektoren (vj , j ∈ J) linear unabhängig, so gibt es zu jedem v ∈ L(vj , j ∈ J)eindeutig bestimmte Skalare λj ∈ K, j ∈ J , von denen höchstens endlich viele 6= 0 sind, sodass(1.4.3) gilt.

(d) Wenn J mindestens zwei Elemente enthält, ist (vj , j ∈ J) genau dann linear abhängig, wenn es einj0 ∈ J gibt, für welches vj0 als Linearkombination der übrigen vj geschrieben werden kann.

Beweis: Zu (a): Folgt sofort aus der De�nition der linearen Unabhängigkeit. Zu (b): Setze J1 = {j}im ersten bzw. J1 = {j, k} im zweiten Fall und wende Teil (a) sowie Aufgabe 1.4.6 an. Zu (c): Jedesv ∈ L(vj , j ∈ J) kann per De�nition als Linearkombination (1.4.1) dargestellt werden, und dies kannkurz in der Form (1.4.3) geschrieben werden, wobei von den möglicherweise unendlich vielen Skalarenλj höchstens endlich viele von 0 verschieden sind. Wenn auch eine zweite solche Darstellung für v mitKoe�zienten αj gilt, so folgt o�enbar 0 =

∑j∈J (λj−αj) vj , was auf Grund der linearen Unabhängigkeit

nur sein kann, wenn für alle j ∈ J gilt αj = λj . Zu (d): Genau dann ist (vj , j ∈ J) linear abhängig,wenn

∑j∈J λj vj = 0 gilt für eine Wahl von λj ∈ K, wobei für mindestens ein j0 ∈ J gilt λj0 6= 0. Diese

Gleichung ist aber äquivalent zu

vj0 = −∑

j∈J\{j0}

λjλj0

vj ,

was zu zeigen war. 2

Satz 1.4.8 Für ein System (vj , j ∈ J) ist die lineare Hülle L(vj , j ∈ J) ein Unterraum von V , und zwargenau der Durchschnitt aller Unterräume von V , welche alle vj enthalten.

10

Page 11: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Sei U der Durchschnitt aller Unterräume, welche alle vj enthalten. Nach Lemma 1.3.6 ist Uselber ein Unterraum, und nach De�nition folgt, dass U alle Linearkombinationen der vj enthalten muss.Also ist L(vj , j ∈ J) ⊂ U . Umgekehrt zeigt man schnell, dass L(vj , j ∈ J) selber ein Unterraum ist, unddeshalb folgt L(vj , j ∈ J) = U . 2

Aufgabe 1.4.9 Zeige: Drei Vektoren in R2 sind immer linear abhängig. Finde zwei Vektoren in R2,welche linear unabhängig sind.

1.5 Erzeugendensystem und Basis

De�nition 1.5.1 Vektoren (vj , j ∈ J) aus V heiÿen ein Erzeugendensystem für V , falls jeder Vektoraus V eine Linearkombination der vj ist, d. h., falls L(vj , j ∈ J) = V ist. Wenn die (vj , j ∈ J) zugleichein Erzeugendensystem und linear unabhängig sind, heiÿen sie auch eine Basis von V .

O�enbar ist das leere System Basis von V genau dann, wenn V nur aus dem Nullvektor besteht. Ob es ineinem allgemeinen Vektorraum eine Basis gibt, ist zunächst nicht klar und soll noch genauer untersuchtwerden. In manchen Vektorräumen gibt es aber eine natürliche Basis:

Behauptung 1.5.2 Im Vektorraum der Polynome sind die Monome eine Basis. In Kn entsprechendiesen Monomen die Spaltenvektoren

ek =

0...010...0

← k , 1 ≤ k ≤ n , (1.5.1)

wobei der Pfeil andeuten soll, dass die einzige 1 an der Stelle Nr. k steht. Diese sind ebenfalls eine Basis,und wir nennen diese auch die kanonische Basis von Kn. Allgemeiner sind in KJ wie in Beispiel 1.1.2(g) diejenigen Funktionen, welche an einer Stelle j ∈ J den Wert 1 annehmen und sonst gleich 0 sind,eine Basis. Beachte aber, dass dies nicht so ist, wenn wir die Menge aller Funktionen auf J mit Wertenin K betrachten.

Aufgabe 1.5.3 Zeige die Richtigkeit der vorstehenden Behauptung.

Aufgabe 1.5.4 (Einheitsvektoren und MAPLE) MAPLE kennt die oben de�nierten Einheitsvek-toren in Kn. Führe die Kommandos

> restart;

> with(LinearAlgebra);

> x := UnitVector(1,5);

> y := UnitVector(4,5);

> z := VectorAdd(x,y,4,-1);

11

Page 12: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

aus und �nde insbesondere heraus, was die beiden Parameter 4 und −1 im letzten Kommando bedeuten.

Aufgabe 1.5.5 Sei (vj , j ∈ J) ein Erzeugendensystem für V . Zeige: Falls ein j0 ∈ J existiert, fürwelches vj0 eine Linearkombination der übrigen Vektoren vj ist, so ist auch (vj , j ∈ J \ {j0}) ein Erzeu-gendensystem von V . Wir sagen dann auch, dass das Erzeugendensystem (vj , j ∈ J) verkürzbar ist.

Eine Basis eines Vektorraums kann also aus endlich, aber auch aus unendlich vielen Vektoren bestehen;dies ist wichtig für den nächsten Abschnitt. Hier zeigen wir noch folgendes Resultat:

Proposition 1.5.6 Für ein nicht-leeres Systems (vj , j ∈ J) von Vektoren in einem Vektorraum V überK sind folgende Aussagen äquivalent:

(a) Die (vj , j ∈ J) bilden eine Basis von V .

(b) Die (vj , j ∈ J) sind ein unverkürzbares Erzeugendensystem von V ; d. h., sie sind ein Erzeugenden-system von V , und für jede Teilmenge J1 ⊂ J gilt: Wenn (vj , j ∈ J1) ebenfalls eine Erzeugenden-system von V ist, so folgt J1 = J .

(c) Die (vj , j ∈ J) sind ein unverlängerbares linear unabhängiges System; d. h., sie sind linear unab-hängig, und für jede Obermenge J1 ⊃ J gilt: Falls (wj , j ∈ J1) ein linear unabhängiges System ist,und falls wj = vj ist für alle j ∈ J , so folgt J1 = J .

(d) Jeder Vektor v ∈ V lässt sich auf genau eine Weise als eine Linearkombination der (vj , j ∈ J)schreiben; d. h., es gibt eindeutig bestimmte λj ∈ K, j ∈ J , nur endlich viele 6= 0, für welche (1.4.3)gilt.

Beweis: Wir zeigen: (a)=⇒ (b) =⇒ (c) =⇒ (d) =⇒ (a).

Zu (a)=⇒ (b): Falls es ein j0 ∈ J \J1 gäbe, dann müsste vj0 eine Linearkombination der (vj , j ∈ J1) sein,also gäbe es λj ∈ K, j ∈ J1 mit

vj0 =∑j∈J1

λj vj .

Setzt man λj0 = −1 und λj = 0 für j ∈ J \ (J1 ∪ {j0}), so folgt∑j∈J

λj vj = 0 ,

was der linearen Unabhängigkeit von (vj , j ∈ J) widerspricht.

Zu (b) =⇒ (c): Da das System (vj , j ∈ J) ein Erzeugendensystem für V 6= {0} ist, kann es nicht nuraus dem Nullvektor bestehen. Falls es linear abhängig wäre, wäre nach Behauptung 1.4.7 (d) ein vj0 eineLinearkombination der übrigen Vektoren vj , und nach Aufgabe 1.5.5 ergäbe sich ein Widerspruch zu (b).Also ist (vj , j ∈ J) linear unabhängig. Wenn das System verlängerbar wäre, dann gäbe es einen Vektorv ∈ V , der nicht als Linearkombination von (vj , j ∈ J) geschrieben werden könnte, was aber ebenfalls (b)widerspräche.

Zu (c) =⇒ (d): Falls ein v ∈ V keine Linearkombination von (vj , j ∈ J) wäre, könnte man diesenVektor zum System hinzufügen, ohne die lineare Unabhängigkeit zu verlieren. Also ist jedes v eine solcheLinearkombination, und aus Behauptung 1.4.7 (c) folgt, dass diese Darstellung eindeutig ist.

Zu (d) =⇒ (a): Klar ist, dass (vj , j ∈ J) ein Erzeugendensystem ist. Da jeder Vektor, also auch der Null-vektor, nur auf eine Weise als Linearkombination darstellbar ist, folgt auch die lineare Unabhängigkeit.

2

12

Page 13: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

1.6 Existenz von Basen in endlich-dimensionalen Räumen

De�nition 1.6.1 Ein Vektorraum V über K heiÿt endlich-dimensional, falls er ein Erzeugendensystemaus endlich vielen Vektoren besitzt; falls nicht, nennen wir ihn unendlich-dimensional. Da das leere Systemaus endlich vielen Vektoren besteht und Erzeugendensystem des Vektorraums ist, welcher nur aus demNullvektor besteht, folgt dass dieser endlich-dimensional ist.

Aufgabe 1.6.2 Zeige: Der Vektorraum K[x] aller Polynome ist unendlich-dimensional.

Die Existenz einer Basis in einem endlich-dimensionalen Raum folgt aus dem nächsten Satz:

Satz 1.6.3 (Basisauswahlsatz) Sei V 6= {0} ein Vektorraum über K, und sei (v1, . . . , vm) ein Er-zeugendensystem von V , also insbesondere ist V endlich-dimensional. Dann gibt es eine Teilmenge{j1, . . . , jn} ⊂ {1, . . . ,m} so, dass (vj1 , . . . , vjn) eine Basis von V ist.

Beweis: Falls das System (v1, . . . , vm) linear unabhängig ist, dann ist es bereits eine Basis, und dieBehauptung gilt für {j1, . . . , jn} = {1, . . . ,m}. Falls nicht, ist einer der Vektoren vj eine Linearkombina-tion der übrigen. Durch Änderung der Numerierung können wir erreichen, dass dies für j = n zutri�t,und mit Aufgabe 1.5.5 folgt, dass dann (v1, . . . , vm−1) ebenfalls Erzeugendensystem von V ist. DurchWiederholung dieses Schlusses ergibt sich die Behauptung in endlich vielen Schritten. 2

Aufgabe 1.6.4 Zeige, dass die Polynome (t2 − t + 1, t2 + t, t − 1, t) ein Erzeugendensystem für R2[t]sind, und wähle daraus ein Basis aus.

Bemerkung 1.6.5 (Basen in unendlich-dimensionalen Räumen) Auch in unendlich-dimensiona-len Räumen gibt es immer eine Basis. Der Beweis beruht auf dem sogenannten Zornschen Lemma, waszum Auswahlaxiom der Mengenlehre äquivalent ist. In dieser und späteren Vorlesungen spielt die Existenzvon Basen in unendlicher Dimension keine groÿe Rolle, und wir lassen deshalb den Beweis hier aus.

Aufgabe 1.6.6 (Basen und MAPLE) Finde heraus, welche MAPLE-Kommandos geeignet sind, umBasen von Unterräumen von Kn zu �nden.

1.7 Dimension

In jedem Vektorraum V 6= {0} gibt es unendlich viele verschiedene Basen, wie sich aus dem folgendenLemma ergibt:

Lemma 1.7.1 (Austauschlemma) Sei V 6= {0} Vektorraum über K, und sei (vj , j ∈ J) eine Basisvon V . Sei weiter v ∈ V \ {0}; also kann v in der Form (1.4.3) geschrieben werden, wobei nicht alleλj = 0 sein können. Wähle ein j0 ∈ J mit λj0 6= 0. Dann ist auch das System, welches aus der Basisdurch Ersetzen von vj0 durch v entsteht, wieder eine Basis von V .

Beweis: Für ein beliebiges w ∈ V wollen wir zeigen, dass die Gleichung

w = α v +∑

j∈J\{j0}

αj vj

13

Page 14: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

durch eindeutig bestimmte Koe�zienten α, αj ∈ K erfüllbar ist, von denen höchstens endlich viele nichtverschwinden. Durch Einsetzen von (1.4.3) kann diese Gleichung umgeschrieben werden in die Form

w = αλj0 vj0 +∑

j∈J\{j0}

(αj + αλj

)vj .

Da (vj , j ∈ J) eine Basis von V ist, gibt es eindeutig bestimmte βj ∈ K mit

w =∑j∈j

βj vj ,

und da nach Voraussetzung λj0 6= 0 ist, können die Beziehungen βj0 = αλj0 und βj = αj + αλj fürj ∈ J \ {j0} eindeutig nach α und αj aufgelöst werden. Also ist das neue System ebenfalls eine Basis desRaumes V . 2

Aufgabe 1.7.2 Sei U ein Unterraum von Cn, n ≥ 1, mit folgender Eigenschaft: Für jeden Vektoru = (u1, . . . , un)T ∈ U ist auch u = (u1, . . . , un)T in U enthalten. Sei weiter (u1, . . . , um) eine Basis vonU . Zeige mit Hilfe des Austauschlemmas: Für jedes j = 1, . . . ,m kann man den Vektor uj entweder durchu1 + uj oder durch u1 − uj ersetzen, ohne die lineare Unabhängigkeit des Systems zu verlieren. Schlieÿehieraus, dass es eine Basis von U gibt, welche nur aus reellen Vektoren uj besteht.

Aufgabe 1.7.3 Die Monome sind bekanntlich eine Basis von R[t]. Untersuche, welches Monom durchdas Polynom t2 − 1 ersetzt werden kann, so dass wir weiterhin eine Basis von R[t] haben.

Satz 1.7.4 (Austauschsatz von Steinitz) Sei V 6= {0} Vektorraum über K, und sei (vj , j ∈ J) eineBasis von V . Sei weiter (w1, . . . , wm) ein endliches linear unabhängiges System von Vektoren aus V .Dann gibt es j1, . . . , jm ∈ J derart, dass das System, welches aus (vj , j ∈ J) durch Ersetzen von vjkdurch wk, für 1 ≤ k ≤ m, entsteht, ebenfalls Basis von V ist. Insbesondere sind die jk alle voneinanderverschieden, sodass J mindestens m Elemente haben muss.

Beweis: Folgt aus dem Austauschlemma mit vollständiger Induktion über m: Für m = 1 ist nichts mehrzu zeigen. Also sei angenommen, dass der Satz für ein m ≥ 1 richtig ist. Für ein linear unabhängigesSystem (w1, . . . , wm, wm+1) wenden wir dann die Induktionshypothese auf (w1, . . . , wm) an und könnensomit annehmen, dass es j1, . . . , jm ∈ J gibt, für welche (nach der Ersetzung) vjk = wk gilt für k =1, . . . ,m. Der Vektor wm+1 kann dann in der Form

wm+1 =∑j∈J

λj vj

geschrieben werden. Wäre λj = 0 für alle j ∈ J \ {j1, . . . , jm}, so wäre wm+1 eine Linearkombination dervjk = wk, was der linearen Unabhängigkeit des Systems (w1, . . . , wm, wm+1) widerspräche. Also gibt esein jm+1 ∈ J \ {j1, . . . , jm} mit λjm+1

6= 0. Anwendung des Austauschlemmas auf dieses jm+1 zeigt danndie Gültigkeit der Behauptung auch für m+ 1. 2

Korollar zu Satz 1.7.4 Sei V endlich-dimensional. Dann haben zwei Basen von V immer die gleicheAnzahl von Elementen.

Beweis: Sei (v1, . . . , vn) Basis von V , und sei (w1, . . . , wm) linear unabhängig. Dann folgt m ≤ n ausdem Austauschsatz. Wenn (w1, . . . , wm) ebenfalls eine Basis von V ist, kann man die Bezeichnungenvertauschen, und daraus ergibt sich die Behauptung. 2

14

Page 15: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 1.7.5 Zeige: Genau dann gilt dimV =∞, wenn es ein abzählbar-unendliches System (vj , j ∈N) in V gibt, welches linear unabhängig ist.

De�nition 1.7.6 Als Dimension eines Vektorraumes V über K de�nieren wir

dimV =

∞ falls V unendlich-dimensional ist,

n ∈ N0 falls V eine Basis aus n Vektoren besitzt.

Insbesondere ist dimV = 0 genau dann, wenn V nur aus dem Nullvektor besteht.

Aufgabe 1.7.7 (Dimension und MAPLE) Finde selber die Funktion der Kommandos > Dimensionbzw. > Dimensions heraus.

Aufgabe 1.7.8 Finde die Dimension der Vektorräume Kn, Kn[t] und K[t].

Korollar zu Satz 1.7.4 Ist U ein Unterraum von V , so folgt dimU ≤ dimV . Ist sogar dimU =dimV <∞, so folgt U = V .

Beweis: Falls U unendlich-dimensional ist, gibt es wegen Aufgabe 1.7.5 ein abzählbar-unendliches Sys-tem (uj , j ∈ N) in U , welches linear unabhängig ist, und dies ist selbstverständlich auch in V linearunabhängig. Also gilt die Behauptung in diesem Fall. Im anderen Fall sei (u1, . . . , um) eine Basis vonU , also insbesondere dimU = m. Für dimV = ∞ ist nichts mehr zu zeigen, also sei n = dimV < ∞vorausgesetzt. Mit dem Austauschsatz von Steinitz folgt dann m ≤ n, und bei Gleichheit muss (uj , j ∈ N)bereits Basis von V sein, woraus U = V folgt. 2

Aufgabe 1.7.9 Finde ein Beispiel eines Vektorraumes V über K, welcher einen echten Unterraum U 6=V besitzt, so dass dimU = dimV ist.

Aufgabe 1.7.10 Sei n ∈ N, und sei V ein n-dimensionaler Vektorraum über K. Zeige:(a) Für m > n sind m Vektoren in V immer linear abhängig.

(b) Für m < n sind m Vektoren in V kein Erzeugendensystem von V .

(c) Falls n Vektoren in V linear unabhängig oder ein Erzeugendensystem sind, so bilden sie bereits eineBasis von V .

Sozusagen komplementär zum Basisauswahlsatz ist der folgende Ergänzungssatz, der auch oft angewandtwerden kann:

Satz 1.7.11 (Basisergänzungssatz) Sei V ein n-dimensionaler Vektorraum über K, sei 0 ≤ m < n,und sei (v1, . . . , vm) ein linear unabhängiges System in V . Dann kann man Vektoren vm+1, . . . , vn sowählen, dass (v1, . . . , vn) eine Basis von V ist.

Beweis: Wähle irgendeine Basis (w1, . . . , wn) von V und wende den Austauschsatz von Steinitz an! 2

Aufgabe 1.7.12 Ergänze den Vektor

v =

(11

)∈ R2

zu einer Basis von R2.

15

Page 16: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 1.7.13 Seien n ∈ N und D eine Menge mit n Elementen. Zeige: Der Vektorraum aller Abbil-dungen von D nach K hat die Dimension n.

1.8 Wechsel des Skalarenkörpers

Jeder Vektorraum über C ist o�enbar auch Vektorraum über R, denn dazu muss die Multiplikation mitSkalaren nur auf R eingeschränkt werden. Hinsichtlich der Dimension gilt folgendes:

Satz 1.8.1 Sei V ein n-dimensionaler Vektorraum über C, wobei auch n =∞ zugelassen sei. Fasst manV als Vektorraum über R auf, so hat V die Dimension 2n, wobei 2∞ =∞ sein soll.

Beweis: Sei dimV = ∞ (über C). Dann gibt es ein linear unabhängiges System (vj , j ∈ N). DiesesSystem bleibt linear unabhängig, wenn wir V über R betrachten, und deshalb gilt die Behauptung indiesem Fall. Im anderen Fall sei (v1, . . . , vn) eine Basis von V (über C). Wir zeigen, dass das System(v1, . . . , vn, i v1, . . . , i vn) Basis von V über R ist. Dazu sei ein v ∈ V betrachtet. Mit λj = αj + i βj ,αj , βj ∈ R, gilt die Gleichung v =

∑nj=1 λj vj genau dann, wenn

v =( n∑

j=1

αj vj

)+( n∑

j=1

βj i vj

),

und das war zu zeigen. 2

Wenn V Vektorraum über R ist, kann man zunächst ein v ∈ V nicht mit einer komplexen Zahl multipli-zieren. Man kann aber V �in kanonischer Weise vergröÿern� und so zu einem Vektorraum über C machen;dies geschieht analog zur Konstruktion der komplexen Zahlen:

Satz 1.8.2 (Komplexi�zierung) Sei V ein Vektorraum über R. Dann ist auch V × V = {(v1, v2) :v1, v2 ∈ V } ein Vektorraum über R, und wir können jedes v ∈ V mit (v, 0) ∈ V × V identi�zieren, sodass V ein Unterraum von V × V wird. Für α, β ∈ R, und (v1, v2) ∈ V × V sei

(α+ i β) (v1, v2) = (α v1 − β v2, β v1 + α v2)

gesetzt. Dann wird V × V zu einem Vektorraum über C, wobei die Paare (0, v) gerade den Vektoreni v = i (v, 0) entsprechen.

Aufgabe 1.8.3 Beweise den obigen Satz!

1.9 Summe von Unterräumen

De�nition 1.9.1 Sei V ein Vektorraum über K,und seien A und B beliebige Teilmengen von V . Wirde�nieren

A + B = {a+ b : a ∈ A , b ∈ B} (1.9.1)

als die Summe von A und B. Besteht A nur aus einem einzigen Vektor a, so schreiben wir statt A + Bauch a + B. Beachte, dass man sich die Menge a + B als die Translation oder Verschiebung von B umden Vektor a vorstellen kann. Ist U ein Unterraum von V sowie v ∈ V , so heiÿt die Menge v + U aucheine lineare Mannigfaltigkeit in V , und wir sagen, dass die Dimension dieser linearen Mannigfaltigkeitgleich der von U ist.

16

Page 17: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 1.9.2 Seien U1 und U2 Unterräume eines Vektorraumes V über K. Dann sind auch U1 + U2 undU1 ∩ U2 Unterräume von V , und es gilt

dim(U1 + U2) + dim(U1 ∩ U2) = dimU1 + dimU2 ,

auch falls einige der Räume unendlich-dimensional sind.

Beweis: Dass der Durchschnitt von Unterräumen ebenfalls Unterraum ist, ist in Lemma 1.3.6 gezeigtworden. Seien jetzt u, u ∈ U1 + U2. Dann gibt es nach De�nition Vektoren u1, u1 ∈ U1 und u2, u2 ∈ U2

mit u = u1 + u2 und u = u1 + u2. Also folgt u + u = (u1 + u1) + (u2 + u2) = u1 + u2, mit u1 ∈ U1,u2 ∈ U2, und somit ist u + u ∈ U1 + U2. Für α ∈ K ist αu = αu1 + αu2, und daraus folgt genausoαu ∈ U1 + U2. Um die Dimensionsgleichung zu erhalten, bemerken wir zunächst, dass (U1 ∪ U2) ⊂(U1 + U2) gilt. Wenn also einer der beiden Unterräume Uj unendlich-dimensional ist, dann gibt es dorteine Folge von linear unabhängigen Vektoren, und somit ist auch U1 + U2 unendlich-dimensional, unddann gilt die Gleichung. Seien jetzt beide Unterräume endlich-dimensional. Dann ist auch U1∩U2 endlich-dimensional, und wir wählen eine Basis (v1, . . . , vν) von U1 ∩ U2 (beachte, dass der Durchschnitt auchnur aus dem Nullvektor bestehen kann, sodass diese Basis auch leer sein kann, was ν = 0 entspricht. Mitdem Basisergänzungssatz können wir weitere Vektoren u11, . . . , u1µ1

und u21, . . . , u2µ2so wählen, dass

(v1, . . . , vν , u11, . . . , u1µ1) bzw. (v1, . . . , vν , u21, . . . , u2µ2) Basis von U1 bzw. U2 ist. Wir zeigen nun, dass(v1, . . . , vν , u11, . . . , u1µ1 , u21, . . . , u2µ2) Basis von U1+U2 ist (woraus die Behauptung durch Abzählen derBasisvektoren folgt): Jeder Vektor aus U1+U2 ist von der Form u = u1+u2, und uj ist Linearkombinationder gewählten Basis von Uj . Also ist das angegebene System ein Erzeugendensystem von U1 + U2. Fürdie lineare Unabhängigkeit setzen wir an

0 =

ν∑j=1

αj vj +

µ1∑k=1

βk u1k +

µ2∑`=1

γ` u2` = v + u1 + u2 .

Dann ist v + u1 ∈ U1 und u2 ∈ U2. Wegen −u2 = v + u1 folgt aber, dass v + u1 ∈ U2, also sogar imDurchschnitt U1∩U2 ist. Daher muss gelten βk = 0 für k = 1, . . . , µ1. Wegen der linearen Unabhängigkeitvon (v1, . . . , vν , u21, . . . , u2µ2

) folgt dann aber, dass auch alle αj und γ` verschwinden müssen. 2

De�nition 1.9.3 Seien U1 und U2 Unterräume eines Vektorraumes V über K, und sei U1 ∩ U2 = {0}.Dann nennen wir die Summe U1 + U2 auch eine direkte Summe und schreiben U1 ⊕ U2. In diesem Fallgilt also die Gleichung

dim(U1 ⊕ U2) = dimU1 + dimU2 ,

und zu jedem u ∈ U1 ⊕ U2 gibt es genau ein Paar u1 ∈ U1 und u2 ∈ U2 mit u = u1 + u2. Entsprechendde�nieren wir die Summe U1 + . . . + Um endlich vieler Unterräume U1, . . . , Um von V als die Mengealler u = u1 + . . . + um mit uj ∈ Uj, 1 ≤ j ≤ m, und nennen die Summe direkt und schreiben dannU1 ⊕ . . .⊕ Um, wenn für uj ∈ Uj die Gleichung

0 = u1 + . . .+ um

nur dann bestehen kann, wenn u1 = . . . = um = 0 ist. Beachte auch die Analogie zur linearen Unabhän-gigkeit.

Aufgabe 1.9.4 Untersuche, wann die Summe zweier eindimensionaler Unterräume von V eine direkteSumme ist.

Aufgabe 1.9.5 Sei m ∈ N, seien U1, . . . , Um Unterräume eines endlich-dimensionalen Vektorraumes Vüber K, und sei U = U1 + . . .+ Um. Zeige: Genau dann ist diese Summe direkt, wenn folgendes gilt:

• Sind (u(j)

1 , . . . , u(j)sj ) Basen für Uj, für jedes j = 1, . . . ,m, so ist das System

(u(1)

1 , . . . , u(1)

s1 , u(2)

1 , . . . , u(2)

s2 , . . . , u(m)

1 , . . . , u(m)

sm ) ,

also sozusagen die Vereinigung dieser Basen, eine Basis für U .

17

Page 18: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 1.9.6 Sei m ∈ N, seien U1, . . . , Um Unterräume eines Vektorraumes V über K, und sei U =U1 + . . .+Um. Zeige: Genau dann ist diese Summe direkt, wenn es zu jedem u ∈ U eindeutig bestimmteuj ∈ Uj gibt, für welche u = u1 + . . .+ um ist.

Aufgabe 1.9.7 Sei m ∈ N, seien U1, . . . , Um Unterräume eines Vektorraumes V über K, und sei U =U1 + . . .+ Um. Zeige, dass U die lineare Hülle der Vereinigung aller Uj ist.

Aufgabe 1.9.8 Finde selbst eine mögliche De�nition für die Summe, bzw. die direkte Summe, einerbeliebigen Anzahl von Unterräumen eines Vektorraums.

18

Page 19: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 2

Matrizen

2.1 De�nition und elementare Eigenschaften

De�nition 2.1.1 Seien n,m ∈ N. Eine Abbildung

{1, . . . ,m} × {1, . . . , n} −→ K , (j, k) 7−→ ajk (2.1.1)

kann man sich als ein rechteckiges Zahlenschema

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

veranschaulichen. Dieses Schema heiÿt eine m×n-Matrix, oder eine Matrix vom Typ m×n. Die Zahlenajk heiÿen die Elemente von A, und wir schreiben manchmal auch kurz A =

[ajk]. Die m× 1-Matrizen

sk =

a1ka2k...

amk

, 1 ≤ k ≤ n ,

heiÿen die Spalten von A, die 1× n-Matrizen

zj =[aj1, aj2, . . . , ajn

], 1 ≤ j ≤ m,

werden die Zeilen von A genannt. Also hat eine Matrix vom Typ m× n gerade m Zeilen und n Spalten.Im Fall n = m sprechen wir von einer quadratischen Matrix. Die Menge der m× n-Matrizen wird auchmit Km×n bezeichnet. Zwei Matrizen A und B vom gleichen Typ m× n werden addiert, indem man zujedem Element von A das an der gleichen Stelle stehende Element von B hinzuzählt. Anders ausgedrücktheiÿt das:

A =[ajk], B =

[bjk]

=⇒ A + B =[ajk + bjk

].

Eine Matrix A wird mit einem Faktor λ ∈ C multipiziert, indem man jedes ihrer Elemente mit λ mal-nimmt.

Satz 2.1.2 Für n,m ∈ K ist Km×n mit den oben eingeführten Verknüpfungen ein Vektorraum über Kder Dimension nm.

19

Page 20: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Da diese Matrixmenge eigentlich Abbildungen der Form (2.1.1) sind, ist die Vektorraumeigen-schaft klar wegen Beispiel 1.1.2. Da der De�nitionsbereich der Abbildungen nm Elemente umfasst, folgtdie Behauptung mit Aufgabe 1.7.13. 2

Aufgabe 2.1.3 Seien n,m ∈ N. Gib eine Basis in Km×n an und vergleiche mit der kanonischen Basisin Kn. Wie sieht der Nullvektor in Km×n aus? Wir bezeichnen diesen auch als Nullmatrix.

Aufgabe 2.1.4 (Eingabe von Matrizen in MAPLE) MAPLE kennt auch Matrizen. Die Befehlsfol-ge

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);

> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);

> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);

de�niert z. B. drei Matrizen A,B,C, mit welchen dann auch gerechnet werden kann; siehe dazu dienoch folgenden Aufgaben. Untersuche selber, ob man die Angabe der Zeilen- und/oder Spaltenzahl auchweglassen kann, und was geschieht, wenn die eingegebenen Zeilen zu kurz oder zu lang, zu wenige oderzu viele sind.

Aufgabe 2.1.5 Entscheide, welche der folgenden Matrizen addiert werden können, und berechne gege-benenfalls ihre Summe.

A =

[1 1−1 2

], B =

[1 0 10 0 2

], C =

[1 −1−1 −2

],

D =[−1 2

], E =

[12

], F =

[−1 −2

].

Multipliziere alle diese Matrizen mit dem Faktor λ = 2.

Aufgabe 2.1.6 (Matrixaddition mit MAPLE) Die folgende Sequenz von MAPLE-Kommandos ad-diert die entsprechenden Matrizen:

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);

> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);

> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);

> A1 := Add(A,B);

> A2 := Add(A,C);

> A3 := Add(A,B,2,3);

Finde heraus, welche Bedeutung die optionalen Parameter 2 und 3 im letzten Kommando haben. Findeauch einen Weg, wie man mit Hilfe von MAPLE eine Matrix mit einer Zahl multipliziert.

20

Page 21: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

2.2 Das Produkt von Matrizen

De�nition 2.2.1 Wir setzen für a1, . . . , an, b1, . . . , bn ∈ C

[a1, . . . , an

] b1...bn

=

n∑j=1

aj bj .

Das heiÿt: Für eine Zeile und eine Spalte gleicher Länge ist jeweils ein Produkt de�niert, und das Ergebnisdieser Operation ist ein Skalar. Allgemein de�nieren wir: Wenn A und B Matrizen sind, und wenn dieZeilen von A dieselbe Länge wie die Spalten von B haben, dann ist das Produkt AB die Matrix C =

[cjk],

für die cjk gerade das Produkt der j-ten Zeile von A mit der k-ten Spalte von B ist. Mit anderen Worten:Ist

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

, B =

b11 b12 . . . b1sb21 b22 . . . b2s...

......

bn1 bn2 . . . bns

,

so ist AB =[cjk]mit

cjk =

n∑ν=1

ajν bνk , 1 ≤ j ≤ m, 1 ≤ k ≤ s .

Aufgabe 2.2.2 Zeige für A,B,C wie oben: Die k-te Spalte von C ist gleich dem Produkt von A mit derk-ten Spalte von B, die j-te Zeile von C ist das Produkt der j-ten Zeile von A mit B.

Aufgabe 2.2.3 Berechne die Produkte folgender Matrizen:

[1 1 0 −10 −1 2 0

] 1−1−2

0

, [−1 1

1 3

] [a −b2 a+ b

].

Lösung: Das Ergebnis ist [0−3

]bzw.

[−a+ 2 2 b+ aa+ 6 3 a+ 2 b

].

2

Aufgabe 2.2.4 (Matrixmultiplikation mit MAPLE) MAPLE kann auch Matrizen multiplizieren:

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);

> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);

> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);

> V1 := VandermondeMatrix([1,2,3,4]);

21

Page 22: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

> V2 := VandermondeMatrix([a,b,c,d]);

> A3:=MatrixMatrixMultiply(A,B);

> A4:=MatrixMatrixMultiply(A,C);

> A4:=MatrixMatrixMultiply(C,A);

> A5:=MatrixMatrixMultiply(V1,V2);

Wie steht es mit der Gültigkeit des Kommutativgesetzes bei der Matrixmultiplikation? Beachte, dassMAPLE auch mit Matrizen umgehen kann, deren Elemente nicht Zahlen sondern Variablen sind, unddass das System auch sogenannte Vandermondesche Matrizen kennt, die später noch eine Rolle spielenwerden.

Beispiel 2.2.5 Für

A =

[0 01 0

], X =

[x11 x12x21 x22

]gilt o�enbar

AX =

[0 0x11 x12

], X A =

[x12 0x22 0

],

und daraus folgt A2 = AA = 0. Das bedeutet, dass eine Matrixgleichung AX = B im Allgemeinenkeine Lösung haben wird, und wenn doch, braucht die Lösung nicht eindeutig bestimmt zu sein. Weitersieht man, dass für Matrizen A und X die Produkte AX und X A beide de�niert sein können, aber imAllgemeinen verschieden ausfallen. Mit anderen Worten heiÿt das, dass für die Matrixmultiplikation imAllgemeinen kein Kommutativgesetz gilt.

Aufgabe 2.2.6 Berechne und vergleiche AB und BA für

A =

[0 01 0

], B =

[1 00 0

].

2.3 Rechenregeln

De�nition 2.3.1 Für eine beliebige m× n-Matrix

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

heiÿt

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

die zu A konjugiert komplexe Matrix. Weiter nennen wir

AT =

a11 a21 . . . am1

a12 a22 . . . am2

......

...a1n a2n . . . amn

,

22

Page 23: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

welche die Zeilen von A als Spalten enthält und umgekehrt, die transponierte Matrix oder kurz die Trans-ponierte zu A. Für eine quadratische Matrix

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

an1 an2 . . . ann

heiÿen die Zahlen a11, . . . , ann die Diagonalelemente von A. Falls ajk = 0 ist für alle k < j, d. h., wennalle Elemente unterhalb der Diagonalen verschwinden, dann heiÿt A eine obere Dreiecksmatrix. Fallsdagegen ajk = 0 ist für alle k > j, dann sprechen wir von einer unteren Dreiecksmatrix. Falls sogarbeides gilt, d. h., falls alle Elemente auÿer evtl. den Diagonalelementen verschwinden, dann heiÿt A eineDiagonalmatrix. Wenn A eine Diagonalmatrix mit den Diagonalelementen λ1, . . . , λn ist, schreiben wirmanchmal

A = diag [λ1, . . . , λn] .

Die n× n-Matrix

I =

1 0 0 . . . 00 1 0 . . . 00 0 1 . . . 0...

......

. . ....

0 0 0 . . . 1

,

also die Diagonalmatrix, deren Diagonalelemente alle gleich 1 sind, heiÿt Einheitsmatrix. Wenn man dassogenannte Kronecker-Delta

δjk =

{0 für j 6= k1 für j = k

einführt, kann man sagen, dass I die Elemente δjk hat.

Aufgabe 2.3.2 (Matrizen und MAPLE) Finde MAPLE-Kommandos zur Berechnung der transpo-nierten Matrix sowie zur einfachen Eingabe von Diagonalmatrizen und der Einheitsmatrix, welche inEnglisch �identity matrix� heiÿt und deshalb in dieser Vorlesung auch mit I bezeichnet wird. In der Lite-ratur ist aber auch das Symbol E üblich.

Satz 2.3.3 (Rechenregeln für Matrizen) Für feste Zahlen n,m, r, s ∈ N gelten die folgenden Aussa-gen:

(a) A ∈ Km×n, B ∈ Kn×r, λ ∈ K =⇒ λ (AB) = (λA)B = A (λB).

(b) A ∈ Km×n, B, C ∈ Kn×r =⇒ A (B + C) = AB +AC.

(c) A,B ∈ Km×n, C ∈ Kn×r =⇒ (A+B)C = AC +BC.

(d) A ∈ Km×n, B ∈ Kn×r , C ∈ Kr×s =⇒ (AB)C = A (BC).

(e) A ∈ Km×n, I = [δjk] ∈ Kn×n =⇒ A I = A.

(f) I = [δjk] ∈ Kn×n, A ∈ Kn×r =⇒ I A = A.

(g) A,B ∈ Km×n =⇒ (A+B)T = AT +BT .

(h) A ∈ Km×n, B ∈ Kn×r =⇒ (AB)T = BT AT .

Aufgabe 2.3.4 Beweise den oben stehenden Satz.

Aufgabe 2.3.5 Zeige: Wenn man eine Matrix A passender Gröÿe von rechts bzw. links mit einer Diago-nalmatrix Λ = diag[λ1, . . . , λn] multipliziert, so erhält man das Produkt, indem man die k-te Spalte bzw.Zeile von A mit dem Faktor λk malnimmt.

23

Page 24: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

2.4 Zeilen- und Spaltenrang

De�nition 2.4.1 Sei A ∈ Km×n. Die lineare Hülle der Zeilen bzw. Spalten von A heiÿt Zeilenraum bzw.Spaltenraum von A; die Dimension dieser Räume heiÿt Zeilenrang bzw. Spaltenrang von A.

Beispiel 2.4.2 Für eine Matrix, deren erste Spalten die ersten s Vektoren der kanonischen Basis vonKm sind, während evtl. weitere Spalten nur noch Nullen enthalten, liest man ab dass ihr Zeilen- und Spal-tenrang beide gleich s sind. Im Folgenden soll gezeigt werden, dass die Werte von Zeilen- und Spaltenrangfür beliebige Matrizen immer übereinstimmen.

Aufgabe 2.4.3 Zeige: Für jede Matrix A ∈ Km×n ist der Spaltenrang von A höchstens gleich n, derZeilenrang höchstens gleich m. Finde einfache Beispiele dafür, dass diese Abschätzungen scharf sind.

Aufgabe 2.4.4 Finde den Zeilen- und Spaltenrang der Einheitsmatrix.

Aufgabe 2.4.5 Zeige: Für A ∈ Km×n und x ∈ Kn ist Ax ein Vektor des Spaltenraums, also eineLinearkombination der Spalten von A. Finde selber eine analoge Aussage für die Zeilen von A.

2.5 Elementare Operationen

De�nition 2.5.1 Sei n ∈ N, n ≥ 2. Jede der folgenden drei Arten von quadratischen n-reihigen Matrizenheiÿt eine Elementarmatrix der Gröÿe n:

(a) Für λ ∈ K \ {0} und 1 ≤ j ≤ n sei Ej(λ) die Diagonalmatrix, deren j-tes Diagonalelement gleichλ ist, während die übrigen Diagonalelemente gleich 1 sind.

(b) Für 1 ≤ j < k ≤ n sei Pjk = Pkj die Matrix, welche aus der Einheitsmatrix durch Vertauschen derj-ten und k-ten Spalte entsteht.

(c) Für 1 ≤ j, k ≤ n, j 6= k, sei Ejk die Matrix mit Einsen überall auf der Diagonalen und einerzusätzlichen Eins in der Position (j, k), sowie Nullen in allen übrigen Positionen.

Aufgabe 2.5.2 Seien n ≥ 2 und A ∈ Kn×m. Zeige, dass die Multiplikation von links mit Elementar-matrizen der Gröÿe n folgenden Zeilenoperationen für A entspricht:

(a) Ej(λ)A entsteht aus A durch Multiplikation der Elemente in der j-ten Zeile mit dem Faktor λ.

(b) Pjk A entsteht aus A durch Vertauschen der Zeilen Nr. j und k.

(c) Ejk A entsteht aus A durch Addition der Zeile Nr. k zur Zeile Nr. j.

Benutze Regel (h) aus Satz 2.3.3, um herauszu�nden, welche Wirkung eine Multiplikation von rechts mitElementarmatrizen der Gröÿe m hat.

De�nition 2.5.3 Für eine Matrix A heiÿt jede der Operationen, welche nach Aufgabe 2.5.2 der Multi-plikation von links bzw. rechts mit einer Elementarmatrix passender Gröÿe entspricht, eine elementareZeilen- bzw. Spaltenoperation für A. Beachte, dass jede solche Operation umkehrbar ist. Wenn eine Ma-trix B aus A durch endlich viele dieser elementaren Zeilen- und Spaltenoperationen entsteht, dann heiÿtB äquivalent zu A.

24

Page 25: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 2.5.4 Wir wollen im Folgenden jede Hintereinanderausführung von endlich vielen elementarenZeilen- oder Spaltenoperationen als erlaubt bezeichnen. Überprüfe durch eine Kombination von Operatio-nen des Typs (a),(c), dass auch die Addition eines Vielfachen einer Zeile bzw. Spalte zu einer anderenZeile bzw. Spalte eine erlaubte Operation ist.

Aufgabe 2.5.5 (Elementare Operationen mit MAPLE) Finde selber die Befehle in MAPLE, wel-che den oben eingeführten elementaren Zeilen- und Spaltenoperationen entsprechen.

De�nition 2.5.6 (Äquivalenzrelationen) Sei eine nicht-leere Menge X gegeben. Eine Teilmenge R ⊂X ×X heiÿt eine Relation auf X. Wir sagen dass ein x1 ∈ X zu einem x2 ∈ X in Relation steht, wenndas Paar (x1, x2) zu R gehört. Eine solche Relation auf X heiÿt eine Äquivalenzrelation, falls für beliebigex, x1, x2, x3 ∈ X gilt:

(R) (x, x) ∈ R (Re�exivität)

(S) (x1, x2) ∈ R =⇒ (x2, x1) ∈ R (Symmetrie)

(T) (x1, x2) ∈ R und (x2, x3) ∈ R =⇒ (x1, x3) ∈ R (Transitivität)

Statt (x1, x2) ∈ R schreiben wir auch x1 ∼ x2 und sagen in Worten: x1 ist äquivalent zu x2. Für x ∈ Xsei Ax = {x ∈ X : x ∼ x }. Wir nennen ein solches Ax eine Äquivalenzklasse. Ein beliebiges Elementeiner Äquivalenzklasse heiÿt auch ein Repräsentant dieser Äquivalenzklasse.

Aufgabe 2.5.7 Zeige: Ist auf X 6= ∅ eine Äquivalenzrelation gegeben, so bilden die ÄquivalenzklassenAx eine Zerlegung von X; d. h., aus Ax ∩Ay 6= ∅ folgt Ax = Ay, und ∪x∈XAx = X.

Aufgabe 2.5.8 Zeige: Auf der Menge Km×n aller Matrizen fester Gröÿe hat der oben eingeführte Begri�der Äquivalenz die drei Eigenschaften einer Äquivalenzrelation.

Satz 2.5.9 Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen; derZeilenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen.

Beweis: Es genügt, die Aussage für Spalten zu beweisen, da dann durch Übergang zur transponiertenMatrix auch die für Zeilen folgt. Sei A eine Matrix mit den Spalten a1, . . . , an ∈ Km, und sei U =L(a1, . . . , an) der Spaltenraum von A. Das Vertauschen von Vektoren in (a1, . . . , an) ändert nichts daran,dass diese Spaltenvektoren ein Erzeugendensystem für U sind, und gleiches gilt für Multiplikation einerSpalte mit einem von 0 verschiedenen Faktor. Wir wollen nun dasselbe zeigen für den Fall der Ersetzungder Spalte ak durch die Summe ak + aj , für j 6= k: Jeder Vektor u ∈ U kann dargestellt werden alsu =

∑nν=1 αν aν . Setzt man

βν =

{αν (ν 6= j)

αj − αk (ν = j)

so folgtβk (ak + aj) +

∑ν 6=k

βν aν = αk (ak + aj) + (αj − αk) aj +∑ν 6=j,k

αν aν = u .

Dies war zu zeigen. 2

Lemma 2.5.10 Seien A,B so, dass das Matrixprodukt BA de�niert ist. Dann ist der Spaltenrang vonBA nicht gröÿer als der von A.

25

Page 26: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Sei C = BA. Sind a1, . . . , an bzw. c1, . . . , cn die Spalten von A bzw. C, so gilt nach Aufgabe 2.2.2ck = B ak für 1 ≤ k ≤ n. Nach den Rechenregeln für Matrizen folgt aus 0 =

∑nk=1 λk ak die Gleichung

0 =∑nk=1 λk ck. Daraus schlieÿen wir: Wenn ein Teilsystem der Spalten von A linear abhängig ist, so ist

dasselbe Teilsystem der Spalten von C ebenfalls linear abhängig. Also kann der Spaltenrang von C nichtgröÿer sein als der von A. 2

Aufgabe 2.5.11 Gib ein Beispiel für Matrizen A,B, für die der Spaltenrang von BA echt kleiner alsder von A ist.

Satz 2.5.12 Der Spaltenrang einer Matrix ist invariant gegenüber elementaren Zeilenoperationen; derZeilenrang einer Matrix ist invariant gegenüber elementaren Spaltenoperationen.

Beweis: Zeilenoperationen entsprechen der Multiplikation von links mit Elementarmatrizen. Also kannder Spaltenrang wegen Lemma 2.5.10 bei Zeilenoperationen nicht zunehmen. Da Zeilenoperationen rever-sibel sind, folgt sogar, dass der Spaltenrang bei elementaren Zeilenoperationen gleich bleibt. Die Aussagefür den Zeilenrang folgt wieder durch die Betrachtung der transponierten Matrizen. 2

2.6 Normalform und Rang einer Matrix

Satz 2.6.1 (Normalform unter Äquivalenz) Jede Matrix A ∈ Km×n ist äquivalent zu einer Matrixder Form

B =

[I 0

0 0

],

wobei I eine Einheitsmatrix der Gröÿe s mit 0 ≤ s ≤ min{m,n} ist, während die Nullen für Nullmatrizenentsprechender Gröÿe stehen; dabei ist zu beachten, dass s = 0 so zu interpretieren ist, dass B dieNullmatrix ist, während für s = n bzw. s = m einige der Nullmatrizen in B als leer anzusehen sind.

Beweis: Die Umformung von A auf die Form B geschieht durch Anwenden des folgenden Algorithmus,in dem die nach jeder Umformung enstandene Matrix der Einfachheit halber weiterhin mit A bezeichnetsein soll:

(a) Falls A die Nullmatrix ist, ist B = A, also s = 0, und der Algorithmus ist beendet.

(b) Falls A nicht die Nullmatrix ist, so können wir durch evtl. Vertauschen von Zeilen und/oder Spaltenerreichen, dass anschlieÿend a11 6= 0 ist. Danach können wir die erste Zeile oder Spalte mit einemFaktor multiplizieren, so dass sogar a11 = 1 gilt.

(c) Im Fall a11 = 1 können wir Vielfache der ersten Zeile von allen folgenden subtrahieren, so dassdanach aj1 = 0 ist für alle j = 2, . . . ,m. Danach können wir Vielfache der ersten Spalte von allenfolgenden subtrahieren, so dass danach a1k = 0 ist für alle k = 2, . . . , n. Beachte, dass dabei dieElemente der ersten Spalte nicht mehr verändert werden.

(d) Falls m = 1 oder n = 1 ist, ist der Algorithus beendet. Sonst wenden wir dieselben Schrittesinngemäÿ auf die kleinere Matrix a22 . . . a2n

......

am2 . . . amn

an; diese Schritte verändern die erreichte Form der ersten Zeile und Spalte von A nicht.

26

Page 27: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beachte für das Folgende, dass dieser Algorithmus auch die Berechnung von Zeilen- und Spaltenrangeiner Matrix gestattet. 2

Korollar zu Satz 2.6.1 Der Zeilenrang und der Spaltenrang einer Matrix A stimmen immer überein.

Beweis: Zeilen- und Spaltenrang sind beide invariant unter Zeilen-, aber auch unter Spaltenoperationen,und durch diese kann A auf die Form B wie im Satz 2.6.1 gebracht werden. Nach Beispiel 2.4.2 stimmenZeilen- und Spaltenrang für B überein, und somit gilt dasselbe auch für A. 2

De�nition 2.6.2 (Rang einer Matrix) Der gemeinsame Wert von Zeilen- und Spaltenrang einer Ma-trix wird im Folgenden als Rang der Matrix bezeichnet, und wir schreiben auch rangA für den Rang einerMatrix A.

Proposition 2.6.3 (Rechenregeln für den Rang)

(a) ∀ A ∈ Km×n : rangA ≤ min{n,m}.

(b) ∀ A ∈ Km×n : rangA = rangAT .

(c) ∀ A ∈ Km×n, B ∈ Kn,r : rang (AB) ≤ min{rangA, rangB}.

Beweis: Zu (a): Klar nach De�nition von Rang bzw. Zeilen- und Spaltenrang. Zu (b): Der Spaltenrangvon A ist gleich dem Zeilenrang von AT und umgekehrt, und daraus folgt die Behauptung. Zu (c): InLemma 2.5.10 wurde gezeigt, dass der Spaltenrang einer Matrix bei Multiplikation von links mit einerbeliebigen anderen Matrix nicht zunehmen kann, und daher folgt rang (AB) ≤ rangB. Durch Betrachtender Transponierten und Anwenden von (b) folgt dann rang (AB) = rang (AB)T = rang (BT AT ) ≤rangAT = rangA, und daraus folgt die Behauptung. 2

2.7 Zeilenstufenform und Rangberechnung

De�nition 2.7.1 Sei A eine beliebige Matrix. Wir sagen: Die j-te Zeile von A hat k führende Nullen,wenn die ersten k Einträge in dieser Zeile gleich 0 sind und, im Falle dass die Länge der Zeile gröÿer alsk ist, der folgende Eintrag von Null verschieden ist. Dabei darf k = 0 sein, was dann bedeutet, dass daserste Element der j-ten Zeile nicht verschwindet. Die Matrix heiÿt in Zeilenstufenform, falls jede ihrerZeilen entweder nur Nullen enthält oder mehr führende Nullen als die Vorgängerzeile hat.

Bei einer Matrix in Zeilenstufenform kann es vorkommen, dass die letzten Zeilen nur noch Nullen ent-halten. Streicht man diese, so sind die übrigen Zeilen linear unabhängig. Mit anderen Worten: Der Rangeiner Matrix in Zeilenstufenform ist gleich der Anzahl der nicht-trivialen Zeilen der Matrix. Daher genügtes zur Berechnung des Ranges von A die Matrix durch Zeilenoperationen so lange umzuformen, bis eineZeilenstufenform erreicht ist. Dies kann folgendermaÿen geschehen:

1. Setze j = 1.

2. Finde das kleinste k für welches ein ` ≥ j existiert mit a`k 6= 0; falls kein solches k existiert, sobrich ab. Sonst vertausche die Zeilen j und `, sodass danach ajk 6= 0 ist. Dies bedeutet, dass dieZeile j genau, und die Zeilen mit höherer Nummer mindestens k − 1 führende Nullen enthalten.

3. Subtrahiere Vielfache der j-ten von allen folgenden Zeilen, um zu erreichen, dass diese Folgezeilenalle mindestens eine führende Null mehr besitzen als die Zeile Nr. j.

27

Page 28: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

4. Erhöhe j um 1 und fahre fort mit Schritt 2.

Aufgabe 2.7.2 Berechne die Ränge der Matrizen

A =

1 1−1 2

1 3

, B =

1 0 10 0 21 −1 01 0 1

.

Aufgabe 2.7.3 (Rangberechnung mit MAPLE) Führe die nachfolgenden MAPLE-Befehle aus:

> restart;

> with(LinearAlgebra);

> A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]);

> Rank(A);

Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Ränge der Matrizen aus der voran-gegangenen Aufgabe löst.

2.8 Invertierbare Matrizen

De�nition 2.8.1 Eine quadratische n-reihige Matrix A heiÿt invertierbar, falls es eine quadratische n-reihige Matrix B gibt, für welche BA = I ist. Die Menge aller invertierbaren n-reihigen Matrizen wirdmit GL(n,K) bezeichnet. Diese Bezeichnung ist die Abkürzung für die englische Bezeichnung �generallinear group�.

Satz 2.8.2 Für jede quadratische n-reihige Matrix A gilt:

(a) A ist invertierbar genau dann, wenn rangA = n ist, also wenn alle Spalten, oder alle Zeilen, vonA linear unabhängig sind.

(b) Sei B so, dass BA = I gilt. Dann gilt auch AB = I.

(c) Aus BA = I und C A = I folgt B = C.

Beweis: Zu (a): Falls I = BA gilt, folgt mit Satz 2.6.3 (c) und der De�nition des Rangs, dass n =rang I ≤ min{rangB, rangA} ≤ n, und somit ist n = rangA = rangB. Umgekehrt: Ist rangA = n,so sind die Zeilen von A linear unabhängig und deshalb eine Basis im Raum aller Zeilenvektoren derLänge n (denn dieser Raum ist nach Satz 2.1.2 ein n-dimensionaler Vektorraum über K). Also ist jederZeilenvektor eine Linearkombination der Zeilen von A, und deshalb gibt es Zeilenvektoren zj (der LängeN) mit eTj = zj A, j = 1, . . . , n. Fasst man diese Zeilenvektoren zu einer Matrix B zusammen, so folgtI = BA. Zu (b): Im Beweis von (a) wurde bereits gezeigt, dass aus I = BA folgt rangB = n. Daher istauch B nach (a) invertierbar, und somit gibt es ein C mit C B = I. Durch Multiplikation von rechts mitA folgt hieraus A = C BA = C. Zu (c): Aus I = BA = C A folgt durch Multiplikation von rechts mit Bunter Beachtung von AB = I, dass B = C (AB) = C ist. 2

Aufgabe 2.8.3 Aus Satz 2.8.2 und Satz 2.6.1 folgt: Eine Matrix A ist genau dann invertierbar, wennsie äquivalent zur Einheitsmatrix ist. Schlieÿe hieraus, dass eine invertierbare Matrix ein Produkt vonendlich vielen Elementarmatrizen ist.

28

Page 29: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

De�nition 2.8.4 Nach Satz 2.8.2 gibt es zu jedem A ∈ GL(n,K) eine eindeutige Matrix B mit BA = I,und wir nennen dieses B die inverse Matrix zu A oder kürzer Inverse von A und schreiben auch A−1 fürdiese Matrix.

Satz 2.8.5 (Rechenregeln für Inverse)

(a) ∀ A ∈ GL(n,K) : AA−1 = A−1A = I.

(b) A ∈ GL(n,K) =⇒ AT ∈ GL(n,K), und (AT )−1 = (A−1)T .

(c) A,B ∈ GL(n,K) =⇒ AB ∈ GL(n,K), und (A B)−1 = B−1A−1.

Beweis: Zu (a): Folgt aus Satz 2.8.2 (b). Zu (b): Folgt aus (A−1)T AT = (AA−1)T = IT = I, wobeiSatz 2.3.3 (h) benutzt wurde. Zu (c): Folgt aus (B−1A−1) (AB) = B−1 (A−1A)B = B−1B = I. 2

Aufgabe 2.8.6 Zeige: Wenn A invertierbar ist, dann ist auch A−1 invertierbar, und die inverse Matrixvon A−1 ist gleich A.

29

Page 30: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 3

Lineare Gleichungssysteme

3.1 Das Gauÿsche Eliminationsverfahren

De�nition 3.1.1 Im Folgenden seien stets eine Matrix

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

∈ Km×n

und ein Vektor b = (b1, b2, . . . , bm)T ∈ Km fest gewählt. Für einen weiteren Vektor x = (x1, x2, . . . , xn)T ∈Kn ist die Gleichung Ax = b äquivalent mit den m linearen Gleichungen in n Unbekannten x1, . . . , xn

a11 x1 + a12 x2 + . . .+ a1n xn = b1 ,

a21 x1 + a22 x2 + . . .+ a2n xn = b2 ,

......

...

am1 x1 + am2 x2 + . . .+ amn xn = bm .

Deshalb nennen wir Ax = b auch ein (inhomogenes) lineares Gleichungssystem. Die Matrix A heiÿt auchKoe�zientenmatrix des Gleichungssystems, und b heiÿt Inhomogenitätenvektor. Die Gleichung Ax = 0heiÿt die zugehörige homogene Gleichung oder homogenes Gleichungssystem. Wir schreiben auch L(A, b)für die Menge aller Vektoren x, welche die Gleichung Ax = b erfüllen, und L(A) für die Lösungsmengeder homogenen Gleichung Ax = 0. Jedes x ∈ L(A) \ {0} heiÿt eine nicht-triviale Lösung des homogenenGleichungssystems. Wir nennen das inhomogene System universell lösbar, wenn es für jedes b ∈ Km einx ∈ L(A, b) gibt. Wir sagen, dass das inhomogene System für ein b ∈ Km eindeutig lösbar ist, wenn esgenau ein x ∈ L(A, b) gibt. Die Matrix

(A, b) =

a11 a12 . . . a1n b1a21 a22 . . . a2n b2...

......

...am1 am2 . . . amn bm

heiÿt die erweiterte Matrix des Gleichungssystems Ax = b.

Bemerkung 3.1.2 (Gauÿsches Eliminationsverfahren) Es ist leicht einzusehen, dass die Lösungs-menge L(A, b) bei elementaren Zeilenoperationen für die erweiterte Matrix unverändert bleibt. Da z. B.das Vertauschen zweier Spalten von A einer Vertauschung der entsprechenden Unbekannten entspricht,

30

Page 31: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

wollen wir uns beim Berechnen der Lösungen von Ax = b auf Zeilenoperationen beschränken; beachteaber, dass diese immer auf die erweiterte Matrix anzuwenden sind. Wir gehen dabei folgendermaÿen vor:

1. Falls A = 0 ist, breche ab. Sonst weiter mit 2.

2. Suche die Spalte von A mit der niedrigsten Nummer, welche nicht nur Nullen enthält; ihre Nummersei gleich k, und j sei so, dass ajk 6= 0 ist. Vertausche in der erweiterten Matrix die Zeile Nr. jmit der ersten. Subtrahiere danach Vielfache der ersten von allen folgenden Zeilen, um in der k-tenSpalte alle Elemente mit Nummern (j, k), 2 ≤ j ≤ m, zu 0 zu machen. Ist dies geschehen, hat dieneue erweiterte Matrix die Form

0 . . . 0 a1k a1,k+1 . . . a1n b10 . . . 0 0...

...... A b

0 . . . 0 0

,

wobei a1k 6= 0 ist. Danach wenden wir dieselben Schritte 1. und 2. auf die kleinere Matrix (A, b)wieder an.

Das oben beschriebene Verfahren führt in endlich vielen Schritten zu einer Endmatrix (A, b) in Zeilen-stufenform, und wir können folgendes ablesen:

(a) Da wir nur Zeilenoperationen benutzt haben, ist rangA = rang A und rang (A, b) = rang (A, b).

(b) Eventuell enthalten einige der untersten Zeilen von (A, b) nur noch Nullen; diese sind für die Be-stimmung der Lösungsmenge ohne Bedeutung und können deshalb weggelassen werden. Die Anzahlder verbliebenen Gleichungen ist dann gleich rang (A, b).

(c) Wenn danach in der untersten Zeile von (A, b) nur rechts im Inhomogenitätenteil eine von 0 verschie-dene Zahl steht, ergibt sich ein Widerspruch und die Lösungsmenge ist deshalb leer. Dies geschiehto�enbar genau dann, wenn der Rang von A kleiner als der Rang der erweiterten Matrix (A, b) ist.

(d) Wenn rangA = rang (A, b)) ist, ist in der letzten Zeile von A mindestens ein Element von 0 verschie-den. Wir können daher in der untersten Gleichung alle der Unbekannten bis auf eine beliebig wählenund dann die Gleichung nach der verbleibenden Unbekannten au�ösen. Setzt man die erhaltenenUnbekannten in die darüberstehenden Gleichungen ein, kann man danach mit der vorausgehendenGleichung genauso verfahren.

(e) Da die Anzahl der so zu lösenden Gleichungen gleich rangA = rang (A, b)) ist, können wir insgesamtfür n− rangA Unbekannte beliebige freie Parameter einsetzen, während die übrigen bestimmt sind,aber natürlich von der Wahl dieser Parameter abhängen.

Insgesamt kann man auf diese Weise die allgemeine Lösung des Gleichungssystems ermitteln. Sie kannleer sein oder nur aus einem Vektor bestehen, kann aber auch einen oder mehrere freie Parameter ent-halten. Wir wollen dies noch in einigen Beispielen deutlicher sehen.

Aufgabe 3.1.3 Löse2x1 + x2 − x3 = 0 ,

x2 + x3 = 1 ,x1 − x2 − x3 = −2 .

Aufgabe 3.1.4 Löse2x1 + x2 − x3 = 0 ,

x2 + x3 = 1 ,x1 − x2 − 2x3 = −2 .

31

Page 32: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 3.1.5 Löse2x1 + x2 − x3 = 0 ,

x2 + x3 = 1 ,x1 − x2 − 2x3 = −3/2 .

Aufgabe 3.1.6 (Lösen von linearen GLS mit MAPLE) Führe folgendeMAPLE-Kommandos aus:

> restart;

> with(LinearAlgebra);

> A := Matrix(3,5, [[1,0,0,1,-1], [1,1,-1,2,0], [2,-1,-1,0,0]]);

> b := Vector(3, [0,1,0]);

> LinearSolve(A,b);

Interpretiere das Resultat, und variiere die Sequenz so, dass sie die linearen Gleichungssysteme aus denvorangegangen Aufgaben löst.

3.2 Struktur der Lösungsmenge

Wir wissen bereits, wie man ein lineares Gleichungssystem löst, wollen aber nun allgemeine Aussagenüber die Lösungsmenge machen.

Satz 3.2.1 (Struktur der Lösungsmenge) Für A und b wie in obiger De�nition gilt:

(a) xp ∈ L(A, b) , xh ∈ L(A) =⇒ xp + xh ∈ L(A, b).

(b) x1, x2 ∈ L(A, b) =⇒ x1 − x2 ∈ L(A).

(c) x1, x2 ∈ L(A), α, β ∈ K =⇒ αx1 + β x2 ∈ L(A).

In anderen Worten bedeutet das: Die Menge L(A) ist ein Unterraum von Kn, und falls L(A, b) 6= ∅ ist,gilt für jedes x0 ∈ L(A, b), dass L(A, b) = x0 + L(A) ist. Dies wiederum heiÿt, dass L(A, b) eine lineareMannigfaltigkeit ist und die gleiche Dimension wie der Unterraum L(A) hat.

Beweis: Zu (a): A (xp + xh) = Axp +Axh = b+ 0 = b. Zu (b): A (x1 − x2) = Ax1 −Ax2 = b− b = 0.Zu (c): A (αx1 + β x2) = αAx1 + β Ax2 = 0. 2

Satz 3.2.2 Es ist stets dimL(A) = n− rangA.

Beweis: In Kapitel 6 werden wir sehen, dass die Matrix A eine sogenannte lineare Abbildung vonvon Kn nach Km de�niert, und ihr Rang ist gleich der Dimension des Bildes dieser Abbildung; deshalbfolgt die Behauptung aus der allgemeinen Gleichung in Satz 6.2.2 (b). Man kann aber die Gültigkeit derBehauptung auch aus dem Gauÿschen Eliminationsverfahren zur Berechnung der Lösungen ablesen: Dieallgemeine Lösung des homogenen Systems enthält s = n − rangA freie Parameter. Wählt man einendavon gleich 1 und die übrigen gleich 0, so erhält man s linear unabhängige Vektoren x1, . . . , x2 ∈ L(A).Die allgemeine Lösung von Ax = 0 ist eine Linearkombination dieser Lösungen, also ist das System(x1, . . . , xs) sogar eine Basis von L(A). 2

32

Page 33: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 3.2.3 Ein inhomogenes lineares Gleichungssystem ist genau dann lösbar, wenn der Rang der Ko-e�zientenmatrix gleich dem der erweiterten Matrix ist.

Beweis: Dies folgt bereits aus dem Gauÿschen Eliminationsverfahren, kann aber auch folgendermaÿenbewiesen werden: Klar ist, dass rangA ≤ rang (A, b) ist. Falls ein x ∈ Kn existiert, für welches Ax = bist, dann ist b eine Linearkombination der Spalten von A, und deshalb kann der Rang von (A, b) nichtgröÿer als der von A sein. Umgekehrt, falls rangA = rang (A, b) ist, dann muss b eine Linearkombinationder Spalten von A sein, und deshalb gibt es ein x ∈ Kn mit Ax = b. 2

Satz 3.2.4 Es gelten folgende Aussagen:

(a) Genau dann hat das homogene Gleichungssystem eine nicht-triviale Lösung, wenn rangA < n ist.

(b) Genau dann ist das inhomogene Gleichungssystem universell, also für jedes b ∈ Km lösbar, wennrangA = m ist.

(c) Genau dann ist das inhomogene Gleichungssystem für jedes b ∈ Km eindeutig lösbar, wenn rangA =n = m ist, d. h., wenn A quadratisch und invertierbar ist. Ist dies der Fall, so ist die eindeutigeLösung von Ax = b gegeben als x = A−1 b.

Beweis: Folgt aus den vorangegangenen Resultaten. 2

3.3 Berechnen der inversen Matrix

Die Berechnung der inversen Matrix einer Matrix A ∈ Kn×n besteht in dem Au�nden einer Matrix Xderselben Gröÿe, für welche AX = I ist. Dies gilt nach Aufgabe 2.2.2 genau dann, wenn für k = 1, . . . , ndie k-te Spalte von X das lineare Gleichungssystem Ax = ek löst, wobei ek den k-ten Vektor der kanoni-schen Basis von Kn bezeichnet. Also können die Spalten von X mit dem Gauÿschen Eliminaionsverfahrenberechnet werden. Dies geschieht am e�ektivsten so, dass man die Matrix (A, I) ∈ Kn×2n durch elemen-tare Zeilentransformationen solange umformt, bis die Form (I,X) erreicht ist; dies lässt sich genau dannerreichen, wenn A tatsächlich invertierbar ist. Ist diese Form dann erzielt, so ist die Matrix X gerade dieInverse zu A. Um einzusehen, dass dies richtig ist, beachte dass die Lösungsmenge einer Matrixgleichungder Form AX = B mit Matrizen A, X, B passender Gröÿe bei elementaren Zeilenumformungen von(A,B) nicht geändert wird.

Aufgabe 3.3.1 Zeige: Eine zweireihige quadratische Matrix

A =

[a bc d

]mit ∆ = a d− b c 6= 0 ist invertierbar, und es gilt

A−1 =1

[d −b−c a

].

Finde eine einfache Weise, sich diese Formel einzuprägen. Wir werden im nächsten Kapitel sehen, dassdie Zahl a d− b c gerade die Determinante von A ist. Beachte aber, dass es für gröÿere Matrizen keine soelementare Formel für die inverse Matrix gibt.

Aufgabe 3.3.2 Berechne die inverse Matrix zu

A =

1 0 11 1 −10 1 1

.

33

Page 34: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 3.3.3 (Inverse Matrix mit MAPLE) Die folgende Sequenz von MAPLE-Kommandos be-rechnet inverse Matrizen:

> restart;

> with(LinearAlgebra);

> A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1, 1, 0, 2, 1], [-1, 2, 3, 1, 0] ]);

> MatrixInverse(A);

> B := Matrix(2, 2, [ [1, 1], [-1, -1] ]);

> MatrixInverse(B);

Interpretiere das Resultat, und variiere die Sequenz so, dass sie die Inverse der Matrix aus der vorange-gangenen Aufgabe berechnet.

Aufgabe 3.3.4 Zeige: Eine obere bzw. untere Dreiecksmatrix A ist genau dann invertierbar, wenn ih-re Diagonalelemente alle von 0 verschieden sind, und dann ist die inverse Matrix ebenfalls eine oberebzw. untere Dreiecksmatrix. Die Diagonalelemente von A−1 sind dabei gerade die Kehrwerte der Dia-gonalelemente von A, und die Auÿerdiagonalelemente können rekursiv, d. h., nacheinander, berechnetwerden.

Aufgabe 3.3.5 (Dreiecksmatrixinversion mit MAPLE) Die folgende Sequenz

> restart;

> with(LinearAlgebra);

> A := Matrix(5, 5, [ [a_11, a_12, a_13, a_14, a_15], [0, a_22, a_23, a_24, a_25], [0, 0, a_33,a_34, a_34], [0, 0, 0, a_44, a_45], [0, 0, 0, 0, a_55] ]);

> MatrixInverse(A);

veranlasst MAPLE, die Inverse einer Dreiecksmatrix mit fünf Zeilen und Spalten formelmäÿig anzugeben.Wo liegt hier eigentlich eine Schwäche von MAPLE versteckt?

34

Page 35: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 4

Determinanten

4.1 Gruppen und Permutationen

De�nition 4.1.1 Eine Menge G, zusammen mit einer Abbildung, auch Verknüpfung oder Operationgenannt,

◦ : G×G −→ G, (g1, g2) 7−→ g1◦g2,

heiÿt eine Gruppe, wenn folgende Axiome gelten:

(G1) ∀ g1, g2, g3 ∈ G : g1◦(g2◦g3) = (g1◦g2)◦g3 (Assoziativgesetz)

(G2) ∃ e ∈ G ∀ g ∈ G : e ◦ g = g (Existenz eines Einselements)

(G3) ∀ g ∈ G ∃ g ∈ G : g◦g = e (Existenz eines Inversen)

Da in den Axiomen das Einselement bzw. das Inverse auf der linken Seite steht, spricht man auch genauervon einer Linkseins und einem Linksinversen. Falls zusätzlich noch gilt

(G4) ∀ g1, g2 ∈ G : g1 ◦ g2 = g2 ◦ g1 (Kommutativgesetz)

dann sprechen wir von einer kommutativen oder abelschen Gruppe. Die Anzahl der Elemente einer Grup-pe G heiÿt auch die Ordnung der Gruppe.

Eine bijektive Abbildung σ : {1, . . . , n} −→ {1, . . . , n} heiÿt Permutation der Zahlen 1, . . . , n. Die Mengealler Permutationen von 1, . . . , n heiÿt die symmetrische Gruppe Sn. Für σ1, σ2 ∈ Sn heiÿt die Hinter-einanderausführung σ1◦σ2 auch das Produkt von σ1, σ2; beachte genau die Reihenfolge, da die Hinterein-anderausführung von Abbildungen im Allgemeinen nicht kommutativ ist.

Bemerkung 4.1.2 Man kann zeigen, dass in jeder Gruppe eine Linkseins immer eine Rechtseins ist,d. h., aus (G2) folgt g◦e = g für alle g ∈ G. Genauso ist ein Linksinverses stets auch Rechtsinverses.Auÿerdem gibt es nur ein Einselement und zu jedem g ∈ G nur ein Inverses. Der Beweis soll hierausgelassen werden, wird aber in der Vorlesung Algebra behandelt. Für das Inverse zu g schreibt man auchg−1. Man fasst also die Verknüpfung in einer Gruppe üblicherweise als eine Art von Multiplikation aufund spricht deshalb von einer multiplikativen, oder einer multiplikativ geschriebenen Gruppe. Manchmalist es aber sinnvoller, die Verknüpfung �◦� als Addition �+� zu schreiben, was insbesondere dann häu�g,aber leider nicht immer, geschieht, wenn die Gruppe abelsch ist.

35

Page 36: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 4.1.3 Zeige: In jeder Gruppe G gilt die Regel (g1◦g2)−1 = g−12 ◦g−11 für alle g1, g2 ∈ G.

Aufgabe 4.1.4 Sei G eine Gruppe. Zeige:

(a) Für jedes g ∈ G gilt (g−1)−1 = g.

(b) Für g1, g2 ∈ G gilt g−11 = g−12 ⇐⇒ g1 = g2.

Aufgabe 4.1.5 Sei I eine beliebige nicht-leere Menge. Zeige, dass die Menge aller Bijektionen von I aufsich bezgl. der Hintereinanderausführung eine Gruppe bilden. Zeige für den Fall, dass I mindestens dreiElemente hat, dass diese Gruppe nicht bijektiv ist. Bestimme für den Fall, dass I eine endliche Mange ist,die Anzahl der verschiedenen Bijektionen von I in sich, also die Ordnung der Gruppe aller Bijektionen.

Beispiel 4.1.6 Jeder Vektorraum ist bezgl. der Addition eine abelsche Gruppe. Die Menge GL(n,K) dern-reihigen invertierbaren Matrizen ist eine Gruppe bezüglich der Matrixmultiplikation, und für n ≥ 2 istdiese Gruppe nicht kommutativ. Die Menge Sn ist ebenfalls eine Gruppe bezüglich der Hintereinander-ausführung, und für n ≥ 3 ist sie nicht kommutativ; vergleiche hierzu Aufgabe 4.1.5.

Beispiel 4.1.7 Eine Permutation σ ist durch die Festlegung aller ihrer Bilder σ(1), . . . , σ(n) eindeutigfestgelegt. Wir schreiben deshalb etwa

σ =

(1 2 . . . n

σ(1) σ(2) . . . σ(n)

)=(σ(1), σ(2), . . . , σ(n)

).

Ist z. B. n = 4, und wählt man

σ1 =

(1 2 3 42 3 4 1

), σ2 =

(1 2 3 41 2 4 3

),

so ist das Produkt von σ1 und σ2 gleich

σ1◦σ2 =

(1 2 3 42 3 1 4

).

Satz 4.1.8 In jeder Gruppe G gilt:

(a) Die Zuordnung g 7−→ g−1 ist eine bijektive Abbildung von G in sich selber.

(b) Ist ein g0 ∈ G fest gewählt, so ist auch die Abbildung g 7−→ g0◦g bijetiv von G in G.

Beweis: Zu (a): Unter Benutzung von Aufgabe 4.1.4 schlieÿen wir wie folgt: Es gilt (g−1)−1 = g, worausdie Surjektivität folgt, und wegen g−11 = g−12 ⇐⇒ g1 = g2 folgt die Injektivität. Zu (b): Es ist g = g0◦ggenau dann, wenn g = g−10 ◦g ist, und daher gilt die Behauptung. 2

Aufgabe 4.1.9 Zeige durch Induktion über n: Wenn für eine Permutation σ ∈ Sn immer j ≤ σ(j) füralle j = 1, . . . , n gilt, dann folgt σ(j) = j.

Aufgabe 4.1.10 (Permutationen und MAPLE) MAPLE kann mit Permutationen arbeiten. Aller-dings wird hier die Darstellung durch elementfremde Zykeln benutzt: Das Symbol [a1, a2, . . . , as] bedeutethier eine Abbildung, welche a1 auf a2, a2 auf a3 u. s. w., und as wieder auf a1 abildet. Wenn alle akverschiedene Zahlen aus {1, . . . , n} sind, dann nennt man [a1, a2, . . . , as] einen Zykel. Wenn man verein-bart, dass alle a ∈ {1, . . . , n}, die in der Liste [a1, a2, . . . , as] nicht auftreten, auf sich selber abgebildetwerden, dann legt jeder solche Zykel eine Permutation aus Sn fest. Man überlegt sich jetzt leicht, dass

36

Page 37: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

jede Permutation durch endlich viele paarweise disjunkte Zykeln de�niert werden kann. Z. B. bedeutet inMAPLE das Symbol [ [1, 2, 3], [4, 5] ] die Permutation, welche die 1 auf die 2, die 2 auf die 3, die 3 aufdie 1, die 4 auf die 5, und die 5 auf die 4 abbildet. Dies ist also ein Element von S5, kann aber auch alsElement von Sn mit n ≥ 6 aufgefasst werden, da ja die Regel gilt, dass alle Zahlen k, die in den Zykelnnicht vorkommen, also hier alle k ≥ 6, auf sich selber abgebildet werden. Die Befehle

> restart;

> with(group);

> mulperms([ [1,2,3], [4,5] ], [ [2,3], [1,5] ]);

berechnen das Produkt der beiden angegebenen Permutationen.

4.2 Vorzeichen von Permutationen

De�nition 4.2.1 Sei σ ∈ Sn. Ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, heiÿt eine Inversion oder einFehlstand von σ, wenn σ(j) > σ(k) ist. Die Anzahl solcher Fehlstände sei m(σ). Wir setzen das Vor-zeichen oder Signum sgn (σ) gleich 1, bzw. gleich −1, wenn die Anzahl aller Inversionen von σ gerade,bzw. ungerade, ist. Anders ausgedrückt ist also sgn (σ) = (−1)m(σ) Eine Permutation τ ∈ Sn heiÿt eineTransposition, falls ein Zahlenpaar (j, k), 1 ≤ j < k ≤ n, existiert, welches durch τ vertauscht wird,während alle anderen Zahlen von τ festgelassen werden; d. h. genauer

τ(j) = k , τ(k) = j , τ(`) = ` ∀ ` 6= j, k , 1 ≤ ` ≤ n .

Die identische Abbildung id : {1, . . . , n} −→ {1, . . . , n} heiÿt auch identische Permutation.

Beispiel 4.2.2 Die identische Permutation id besitzt keinen Fehlstand, also ist sgn (id) = 1. Für σ =(1, 2, 4, 3) gibt es genau einen Fehlstand, nämlich das Paar (3, 4). Deshalb ist sgn (σ) = −1.

Aufgabe 4.2.3 (Vorzeichen und MAPLE) Das Vorzeichen einer Permutation kann mit Hilfe vonMAPLE indirekt berechnet werden, da für elementfremde Zykeln die sogenannte Parität gleich dem Vor-zeichen ist und mit dem Kommando > parity berechnet werden kann. Überprüfe dies mit der Sequenz

> restart;

> with(group);

> parity([ [2,3], [1,5] ]);

> parity([ [1,2,3], [4,5] ]);

Satz 4.2.4 (Regeln für das Vorzeichen) Für alle n ≥ 2 und alle σ, τ ∈ Sn gilt:

(a) sgn (σ) =∏

1≤j<k≤n

σ(j)− σ(k)

j − k.

(b) ∀ σ1, σ2 ∈ Sn : sgn (σ1◦σ2) = sgn (σ1) sgn (σ2).

(c) ∀ σ ∈ Sn : sgn (σ−1) = sgn (σ).

37

Page 38: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Zu (a): Nach De�nition von m(σ) gilt∏1≤j<k≤n

(σ(j)− σ(k)) =∏

1≤j<k≤n

σ(j)>σ(k)

(σ(j)− σ(k))∏

1≤j<k≤n

σ(j)<σ(k)

(σ(j)− σ(k))

= (−1)m(σ)∏j>k

σ(j)<σ(k)

(σ(j)− σ(k))∏j<k

σ(j)<σ(k)

(σ(j)− σ(k))

= (−1)m(σ)∏

1≤σ(j)<σ(k)≤n

(σ(j)− σ(k))

= (−1)m(σ)∏

1≤j<k≤n

(j − k) ,

woraus die Behauptung folgt. Zu (b): Unter Verwendung von (a) zeigt man

sgn (σ◦τ) =∏j<k

σ(τ(j))− σ(τ(k))

τ(j)− τ(k)

τ(j)− τ(k)

j − k

= sgn (τ)∏j<k

σ(τ(j))− σ(τ(k))

τ(j)− τ(k)

= sgn (τ)∏j<k

τ(j)<τ(k)

σ(τ(j))− σ(τ(k))

τ(j)− τ(k)

∏j<k

τ(j)>τ(k)

σ(τ(j))− σ(τ(k))

τ(j)− τ(k)

= sgn (τ)∏j<k

τ(j)<τ(k)

σ(τ(j))− σ(τ(k))

τ(j)− τ(k)

∏j>k

τ(j)<τ(k)

σ(τ(j))− σ(τ(k)

τ(j)− τ(k)

= sgn (τ)∏

τ(j)<τ(k)

σ(τ(j))− σ(τ(k)

τ(j)− τ(k)= sgn (σ) sgn (τ) .

Zu (c): Mit (b) folgt 1 = sgn (id) = sgn (σ) sgn (σ−1), und daraus folgt die Behauptung. 2

Aufgabe 4.2.5 Zeige: Alle Transpositionen τ ∈ Sn haben Vorzeichen −1, und es gilt τ−1 = τ .

Aufgabe 4.2.6 Berechne das Vorzeichen der Permutationen σ1 = (2, 1, 3, 4) und σ2 = (2, 3, 4, 1).

Lösung: σ1 hat nur den Fehlstand (1, 2), also ist sgnσ1 = −1. Für σ2 sind (1, 4), (2, 4) und (3, 4)Fehlstände, und deshalb ist sgnσ2 = −1. 2

Satz 4.2.7 Zu jeder Permutation σ ∈ Sn existieren endlich viele Transpositionen τ1, . . . , τm ∈ Sn mit

σ = τ1◦ . . . ◦τm .

Beweis: Wir benutzen Induktion über n: Für n = 1 ist nichts zu zeigen. Sei jetzt n ≥ 2, und seik = σ(n). Falls k < n ist, gibt es eine Transposition τ , welche n und k vertauscht. Falls k = n ist, seiτ = id gesetzt. Die Permutation σ = τ◦σ erfüllt dann σ(n) = n und kann deshalb auch als Permutationin Sn−1 angesehen werden. Nach Induktonshypothese gibt es dann τ1, . . . , τj ∈ Sn−1 mit σ = τ1◦ . . . ◦τj .Wenn wir die τk zu Permutationen in Sn machen, indem wir τk(n) = n setzen, folgt die Behauptung. 2

38

Page 39: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

4.3 De�nition der Determinante

De�nition 4.3.1 Für n ∈ N und A ∈ Kn×n heiÿt die Zahl

detA =∑σ∈Sn

sgn (σ) a1σ(1) a2σ(2) · . . . · anσ(n)

die Determinante von A.

Beispiel 4.3.2 Für n = 1 ist A = [a] und detA = a. Für n = 2 gibt es zwei Permutationen in S2,nämlich

σ1 = id = (1, 2) , σ2 = (2, 1) .

Das Vorzeichen von σ2 ist −1, und deshalb folgt

det

[a11 a12a21 a22

]= a11 a22 − a12 a21 .

Im Fall n = 3 hat S3 sechs Elemente, nämlich

σ1 = id = (1, 2, 3) σ2 = (2, 3, 1) , σ3 = (3, 1, 2) ,

σ4 = (1, 3, 2) σ5 = (2, 1, 3) , σ6 = (3, 2, 1) ,

wobei die ersten bzw. letzten drei Permutationen das Vorzeichen 1 bzw. −1 haben. Deshalb ist

det

a11 a12 a13a21 a22 a23a31 a32 a33

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32− a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Diese Formel heiÿt auch Sarrussche Regel. Für n = 4 enthält die in der De�nition stehende Formelfür die Determinante bereits 24 Terme und ist für die Berechnung ungeeignet! Wir werden aber einene�ektiven Algorithmus zur Berechnung der Determinante kennen lernen, und auch für n = 3 werden wirDeterminanten ausschlieÿlich mit diesem Algorithmus berechnen.

Aufgabe 4.3.3 Berechne die Determinante der Matrizen

A =

[1 1−1 2

], B =

1 0 10 −1 10 0 2

.

Aufgabe 4.3.4 Nach De�nition ist die Determinante eine endliche Summe von Termen, die bis auf einVorzeichen von der Form a1σ(1) a2σ(2) · . . . · anσ(n) sind. Zeige, dass dieses Produkt auch in der Form

aσ−1(1) 1 aσ−1(2) 2 · . . . · aσ−1(n)n

geschrieben werden kann. Leite daraus ab, dass in jedem solchen Produkt genau ein Element aus jederZeile, aber auch aus jeder Spalte, von A steht.

Aufgabe 4.3.5 Beweise die Formel

det

a11 a12 a130 a22 a230 0 a33

= a11 a22 a33

und überlege, ob eine analoge Formel auch für gröÿere Matrizen gilt.

39

Page 40: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Lösung: Da a21 = a31 = a32 = 0 sind, folgt die Behauptung aus der Sarrusschen Regel. Für beliebigesn sei A so, dass ajk = 0 ist sobald j > k ist. Das bedeutet, dass in der De�nition der Determinante nursolche Terme stehen bleiben, für die immer j ≤ σ(j) ist. Dies ist aber nach Aufgabe 4.1.9 nur für dieidentische Permutation der Fall, und deshalb ist

det

a11 a12 . . . a1n0 a22 . . . a2n...

.... . .

...0 0 . . . ann

= a11 a22 · . . . · ann .

2

Aufgabe 4.3.6 Überprüfe mit Hilfe der De�nition folgende Regel für Determinanten: Falls eine Zeileoder eine Spalte einer quadratischen Matrix A nur Nullen enthält, ist detA = 0.

Aufgabe 4.3.7 Zeige allein mit der De�nition der Determinante, dass

det

a11 a12 . . . a1n0 a22 . . . a2n...

.... . .

...0 an2 . . . ann

= a11 det

a22 . . . a2n...

. . ....

an2 . . . ann

.

4.4 Rechenregeln für Determinanten

Für die folgenden Rechenregeln seien a1, . . . , an ∈ Kn die Spalten einer Matrix A, und wir schreibenauch det[a1, . . . , an] an Stelle von detA. Dadurch wird �det� eine Abbildung von Kn × . . . × Kn (mit nFaktoren) nach K. Eine solche Abbildung heiÿt auch eine n-stellige Form auf Kn.

Satz 4.4.1 (Rechenregeln für Determinanten) Für a, b, a1, . . . , an ∈ Kn und λ, µ ∈ K gilt:

(a) Für Transpositionen τ ∈ Sn gilt det[aτ(1), . . . , aτ(n)] = −det[a1, . . . , an]. In Worten ausgedrücktheiÿt das: Beim Vertauschen zweier Spalten wechselt die Determinante das Vorzeichen.

(b) det[λ a+ µ b, a2, . . . , an] = λ det[a, a2, . . . , an] + µ det[b, a2, . . . , an]. Diese Eigenschaft besagt inWorten, dass die Determinante linear in der ersten Spalte ist.

Beweis: Zu (a): Nach De�nition ist

det[aτ(1), . . . , aτ(n)] =∑σ∈Sn

sgn (σ) a1σ(τ(1)) · . . . · anσ(τ(n))

= −∑σ∈Sn

sgn (σ◦τ) a1σ(τ(1)) · . . . · anσ(τ(n)) .

Da nach Satz 4.1.8 (b) mit σ auch σ◦τ einmal die Gruppe Sn durchläuft, folgt die Behauptung. Zu (b):Folgt direkt aus der De�nition der Determinante. 2

De�nition 4.4.2 Aussage (b) des vorstehenden Satzes besagt, dass die Determinante linear in der erstenSpalte ist, und wegen (a) gilt Gleiches für jede andere Spalte. Man sagt kurz dass die Determinante eineMultilinearform ist. Wegen Satz 4.4.1 (a) nennt man die Determinante auch alternierend.

40

Page 41: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 4.4.3 Für jedes A ∈ Kn×n gilt:

(a) Falls A eine obere oder untere Dreiecksmatrix ist, dann ist ihre Determinante gleich dem Produktihrer Diagonalelemente.

(b) detA = detAT , det I = 1.

Beweis: Zu (a): Wurde für obere Dreiecksmatrizen in Aufgabe 4.3.5 bewiesen und folgt für untere aus(b). Zu (b): Nach De�nition der Determinante ist

detAT =∑σ

sgn (σ)∏j

aσ(j)j =∑σ

∏j

sgn (σ)ajσ−1(j)

=∑σ−1

sgn (σ−1)∏j

ajσ−1(j) ,

und da nach Satz 4.1.8 (a) mit σ auch σ−1 die Gruppe Sn durchläuft, folgt die Behauptung. 2

Wegen ihrer Wichtigkeit formulieren wir noch einmal folgende Regeln für Determinanten, die sich sofortaus Satz 4.4.1 ergeben:

Korollar zu Satz 4.4.1 Für jedes A ∈ Kn×n gilt:

(a) Wenn B aus A durch Vertauschen zweier Spalten entsteht, so ist detB = −detA.

(b) Entsteht B aus A durch Multiplikation einer Spalte mit einem Faktor λ ∈ C, so ist detB = λ detA.

(c) Entsteht B aus A, indem man ein Vielfaches einer Spalte zu einer anderen adddiert, so ist detB =detA.

Wegen Satz 4.4.3 (b) gelten die Regeln (a) � (c) auch für die Zeilen an Stelle der Spalten von A.

Aufgabe 4.4.4 Zeige: Wenn eine quadratische Matrix zwei gleiche Zeilen oder zwei gleiche Spalten ent-hält, dann ist ihre Determinante gleich 0.

Bemerkung 4.4.5 (Berechnung einer Determinante) Mit Hilfe der obigen Rechenregeln kann manauch gröÿere Determinanten relativ leicht berechnen. Dabei benutzt man folgenden Algorithmus, welcherwie beim Lösen von linearen Gleichungssystemen abläuft und wieder als Gauÿsches Eliminationsverfahrenbezeichnet wird: Falls die erste Spalte von A nur Nullen enthält, ist detA = 0. Sonst suche in der erstenSpalte der Matrix A ein Element aj1 6= 0 und vertausche die j-te Zeile von A mit der ersten, auÿer fallsj = 1 ist. Danach ziehe Vielfache der ersten Zeile von allen anderen ab, so dass alle anderen Elementeder ersten Spalte durch Nullen ersetzt werden. Durch diese Schritte wird aus A eine Matrix B der Form

B =

b11 b12 b13 . . . b1n0 b22 b23 . . . b2n...

......

...0 bn2 bn3 . . . bnn

,

und für diesen Fall gilt detA = detB falls wir keine Zeilen vertauschen mussten bzw. detA = −detBsonst. Wegen Aufgabe 4.3.7 gilt

detB = b11 det

b22 . . . b2n...

. . ....

bn2 . . . bnn

.

Das bedeutet, dass wir die Berechnung der Determinante von A auf die Berechnung einer Determinanteeiner kleineren Matrix zurückgeführt haben! Diese Determinante kann wieder nach dem gleichen Schemaberechnet werden.

41

Page 42: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 4.4.6 Berechne die Determinante der Matrix

A =

0 0 1 01 1 2 02 −1 0 1−1 1 −1 0

.

Bemerkung 4.4.7 In dem oben eingeführten Verfahren zur Berechnung einer Determinante kann manauch die entsprechenden Operationen für Spalten verwenden, wenn dies vorteilhaft erscheint. Auÿerdemfolgt aus der De�nition, dass die Determinante eine ganze Zahl ist, falls die Elemente der Matrix ganz-zahlig sind. Dies kann zur Kontrolle der Rechnung genutzt werden.

Aufgabe 4.4.8 (Determinanten mit MAPLE) Führe die folgenden MAPLE-Kommandos aus:

> restart;

> with(LinearAlgebra);

> A := Matrix(5, 5, [ [1, 0, 0, 1, -1], [1, 1, -1, 2, 0], [2, -1, -1, 0, 0], [-1 ,1, 0, 2, 1], [-1, 2, 3, 1, 0] ]);

> Determinant(A);

> B := Matrix(2,2, [[a,b], [c,d]]);

> Determinant(B);

> C := Matrix(2, 3, [[1,1,1], [1, -1, 0]]);

> Determinant(C);

Verwende ähnliche Sequenzen zur Berechnung der Determinante der Matrix aus der vorangegangenenAufgabe.

4.5 Weitere Eigenschaften von Determinanten

Die wichtigste Anwendung der Determinante besteht in folgender Charakterisierung der Invertierbarkeitvon Matrizen:

Proposition 4.5.1 Eine Matrix A ∈ Kn×n ist genau dann invertierbar, wenn detA 6= 0 ist.

Beweis: Elementare Zeilen- und Spaltentransformationen verändern den Rang von A nicht, währenddie Determinante sich höchstens um von 0 verschiedene Faktoren ändert. Mit diesen Transformationenkann man A auf obere Dreiecksgestalt bringen, und eine Dreiecksmatrix A ist nach Aufgabe 3.3.4 genaudann invertierbar, wenn alle Diagonalelemente von 0 verschieden sind. Daraus folgt die Behauptung. 2

Satz 4.5.2 (Determinantenmultiplikationssatz) Für zwei quadratische n-reihige Matrizen A und Bgilt immer

det(AB) = detA detB .

42

Page 43: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Falls B nicht invertierbar, also rangB < n, ist, folgt rang (AB) < n, und deshalb folgt mit dervorstehenden Proposition dass det(AB) = detB = 0 ist. Also gilt die Behauptung in diesem Fall. FallsB invertierbar ist, folgt aus Aufgabe 2.8.3, dass B ein Produkt von endlich vielen Elementarmatrizen ist.Daher genügt es, einen Beweis für den Fall zu geben, dass B selber eine Elementarmatrix ist; der allge-meine Fall folgt dann durch Induktion. Für eine Elementarmatrix B überprüft man aber die Behauptungmit den Rechenregeln für Determinanten. 2

Aufgabe 4.5.3 Zeige für jede invertierbare Matrix A die Regel detA−1 = (detA)−1.

Lemma 4.5.4 (Dreieckig geblockte Matrizen) Seien A11 vom Typ n1 × n1, A22 vom Typ n2 × n2und A12 vom Typ n1 × n2. Dann gilt

det

[A11 A12

0 A22

]= detA11 detA22

Beweis: Durch elementare Zeilentransformationen, angewandt auf [A11, A12] und A22, kann die linkeMatrix so umgeformt werden, dass A11 und A22 obere Dreiecksgestalt haben, ohne dass die Blockdrei-ecksform der Gesamtmatrix verändert wird. Daraus folgt die Behauptung. 2

Aufgabe 4.5.5 Formuliere selber Verallgemeinerungen von obigem Lemma auf den Fall von oberenBlockdreiecksmatrizen mit mehr als zwei Diagonalblöcken, und beweise diese Aussagen mit Induktion.Was kann man für untere Blockdreiecksmatrizen sagen?

Behauptung 4.5.6 (Vandermondesche Determinante)Für alle λ1, . . . , λn ∈ K gilt die Gleichung:

det

1 1 . . . 1λ1 λ2 . . . λnλ21 λ22 . . . λ2n...

......

λn−11 λn−12 . . . λn−1n

=∏

1≤j<k≤n

(λk − λj

).

Insbesondere heiÿt das, dass die linksstehende Matrix, auch Vandermondesche Matrix genannt, genaudann invertierbar ist, wenn alle λj verschieden sind. Vergleiche diese Art von Matrix auch mit Aufga-be 2.2.4.

Beweis: Falls zwei der λj gleich sind, hat die linksstehende Matrix zwei gleiche Spalten, und deshalb istihre Determinante gleich 0. Also gilt die Gleichung für diesen Fall, und wir können jetzt annehmen dassalle λj verschieden sind, also höchstens ein λj = 0 ist. Auÿerdem erkennt man, dass die Gleichung beiVertauschen von Spalten der Matrix, also Umnumerierung der λj , richtig bleibt, und deshalb können wirsogar annehmen, dass λj 6= 0 für j = 2, . . . , n gilt. Ersetzt man jetzt λ1 durch eine Variable t, so erkenntman aus der De�nition der Determinante, dass die Vandermondesche Determinante ein Polynom p(t)vom Grade n − 1 ist, welches nach der Vorüberlegung die Werte λ2, . . . , λn als Nullstellen hat. Deshalbfolgt durch Abdividieren dieser Nullstellen

p(t) = c (λ2 − t) · . . . · (λn − t)

mit c ∈ K \ {0}. Für t = 0 ergibt sich durch Anwenden von Lemma 4.5.4

c λ2 · . . . · λn = det

λ2 . . . λnλ22 . . . λ2n...

...λn−12 . . . λn−1n

.

43

Page 44: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Durch Teilen der (j−1)-ten Spalte der rechtsstehenden Matrix durch den Faktor λj (6= 0) für j = 2, . . . , nfolgt, dass c gleich dem Wert der Vandermondeschen Deteminante der n − 1 Skalare λ2, . . . , λn ist, unddurch Induktion über n folgt deshalb die Behauptung. 2

Aufgabe 4.5.7 (Vandermonde-Matrizen und MAPLE)Führe folgende MAPLE-Befehle aus:

> restart;

> with(LinearAlgebra);

> A := VandermondeMatrix([1,2,3,4]);

> Determinant(A);

> B := VandermondeMatrix([a,b,c,d]);

> det := Determinant(B);

> factor(det);

Vergleiche mit der obigen Behauptung. Wo liegt hier eine kleine Schwäche von MAPLE?

4.6 Entwicklungssätze

De�nition 4.6.1 Sei n ≥ 2, und sei A eine n-reihige quadratische Matrix. Die Determinante der Matrix,die aus A durch Streichen der j-ten Zeile und der k-ten Spalte entsteht, wird mit djk bezeichnet und heiÿtein Minor von A. Die Zahl Ajk = (−1)j+k djk heiÿt dann das algebraische Komplement zu ajk.

Aufgabe 4.6.2 Zeige durch geeignetes Vertauschen von Zeilen und Spalten: Das algebraische Komple-ment Ajk ist die Determinante derjenigen Matrix, welche man durch Ersetzen der k-ten Spalte von Adurch den j-ten kanonischen Basisvektor enthält. Wie heiÿt die entsprechende Aussage für Zeilen?

Satz 4.6.3 Für jedes A = [ajk] ∈ Kn×n gilt

(a)n∑`=1

A`k a`j = δjk detA für 1 ≤ j, k ≤ n.

(b)n∑`=1

aj` Ak` = δjk detA für 1 ≤ j, k ≤ n.

Beweis: Benutzt man die Linearität der Determinante in jeder ihrer Spalten sowie Aufgabe 4.6.2, so siehtman dass

∑n`=1A`k a`j die Determinante der Matrix ist, die man aus A durch Ersetzen der k-ten durch

die j-te Spalte erhält. Ist j 6= k, so enthält diese Matrix zwei gleiche Spalten und ihre Determinanteverschwindet; ist j = k, so ist diese Matrix gleich A. Also gilt (a). Aussage (b) wird genauso durchBetrachten der Zeilen, oder aber durch Transposition bewiesen. 2

Die folgenden beiden Ergebnisse sind direkte Konsequenzen bzw. Umformulierungen des letzten Satzes:

44

Page 45: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Korollar zu Satz 4.6.3 Falls detA 6= 0, also A invertierbar ist, gilt

A−1 =1

detA

A11 A21 . . . An1A12 A22 . . . An2...

......

A1n A2n . . . Ann

.

Mit anderen Worten: Die Matrix aus den algebraischen Komplementen von A ist gleich dem Transpo-nierten der inversen Matrix multipliziert mit detA.

Korollar zu Satz 4.6.3 (Entwicklungssatz nach einer Zeile bzw. Spalte) Sei A eine quadratischen-reihige Matrix mit n ≥ 2, und sei ein k ∈ {1, . . . , n} ausgewählt. Dann gelten die Gleichungen

detA =

n∑j=1

(−1)j+k ajk djk =

n∑j=1

(−1)j+k akj dkj .

Bemerkung 4.6.4 Wir haben nur Minoren der Gröÿe (n− 1)× (n− 1) betrachtet. Wenn man mehrereZeilen und Spalten einer Matrix streicht und dann die Determinante der Restmatrix bildet, so erhältman die übrigen Minoren niedrigerer Gröÿe. Auch für solche gibt es einen Entwicklungssatz für dieDeterminante, den man z. B. bei Gawronski [2] nachlesen kann.

Aufgabe 4.6.5 Berechne mit Hilfe des Entwicklungssatzes die Determinante von

A =

−1 1 0 0 1

0 0 −1 0 00 0 3 0 41 1 0 1 01 1 1 0 −1

.

Aufgabe 4.6.6 (Cramersche Regel) Sei A eine quadratische n-reihige Matrix mit den Spalten ak,und sei detA 6= 0. Dann ist das lineare Gleichungssystem Ax = b für jedes b ∈ Kn eindeutig lösbar.Zeige: Die Koordinaten xk dieses Vektors x sind gegeben durch

xk =1

detAdet[a1, . . . , ak−1, b, ak+1, . . . , an] ∀ k = 1, . . . , n .

45

Page 46: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 5

Euklidische und unitäre Räume

5.1 De�nition des Skalarprodukts

De�nition 5.1.1 Sei V ein Vektorraum über K. Eine Abbildung

〈 · , · 〉 : V × V −→ K , (v1, v2) 7−→ 〈v1, v2〉 ∈ K

heiÿt ein Skalarprodukt oder inneres Produkt auf V , wenn folgende Regeln gelten:

(S1) ∀ v ∈ V : 〈v, v〉 ≥ 0 ; 〈v, v〉 = 0 ⇐⇒ v = 0 .

(S2) ∀ v1, v2 ∈ V : 〈v1, v2〉 = 〈v2, v1〉 .

(S3) ∀ v, v1, v2 ∈ V : 〈v, v1 + v2〉 = 〈v, v1〉 + 〈v, v2〉 .

(S4) ∀ v1, v2 ∈ V, λ ∈ K : 〈v1, λ v2〉 = λ 〈v1, v2〉 .

Falls ein solches Skalarprodukt auf V gegeben ist, nennt man V im Falle von K = R auch euklidi-schen Raum, im anderen Fall einen unitären Raum. In beiden Fällen spricht man auch von einem Prä-Hilbertraum oder einem Raum mit Skalarprodukt.

Bemerkung 5.1.2 Aus den Axiomen folgt sofort die weitere Regel

∀ v1, v2 ∈ V, λ ∈ K : 〈λ v1, v2〉 = λ 〈v1, v2〉 .

Im Fall K = R ist ein Skalarprodukt immer eine reelle Zahl, und dann bedeutet (S2) einfach 〈v1, v2〉 =〈v2, v1〉 für alle v1, v2 ∈ V .

Beispiel 5.1.3 Auf dem Vektorraum V = {0} ist die Nullabbildung ein inneres Produkt. Falls V igendeinRaum mit Skalarprodukt ist, so ist jeder Unterraum U von V wieder ein Raum mit Skalarprodukt, wennman einfach die Restriktion des Skalarproduktes auf U×U betrachtet. Für Vektoren x = (x1, . . . , xn)T , y =(y1, . . . , yn)T ∈ Rn ist

〈x, y〉 =

n∑k=1

xk yk = xTy

ein inneres Produkt, das sogenannte kanonische Skalarprodukt in Rn. In Cn ist

〈x, y〉 =

n∑k=1

xk yk = xTy

46

Page 47: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

das entsprechende kanonische innere Produkt. Wenn nichts anderes gesagt ist, betrachten wir in Kn imFolgenden immer dieses kanonische Skalarprodukt. Für zwei Funktionen f, g ∈ C[a, b] ist ein kanonischesinneres Produkt durch

〈f, g〉 =

∫ b

a

f(x) g(x) dx

gegeben, wobei der Querstrich wegfallen kann, falls die Werte der Funktionen reell sind. Häu�g gebrauchtwerden aber auch gewichtete innere Produkte von Funktionen. Dabei ist eine feste Gewichtsfunktion kgegeben, die bis auf endlich viele Punkte positiv und stetig auf [a, b] ist, und man setzt

〈f, g〉 =

∫ b

a

f(x) g(x) k(x) dx .

Auf der Menge der über [a, b] integrierbaren Funktionen erhält man durch die obigen Festsetzungen keineinneren Produkte, da 〈f, f〉 = 0 sein kann ohne dass f(x) = 0 ist für alle x ∈ [a, b].

Aufgabe 5.1.4 Sei V ein Vektorraum mit innerem Produkt. Zeige 〈0, v〉 = 〈v, 0〉 = 0 für alle v ∈ V .

Aufgabe 5.1.5 Für A ∈ Kn×n sei 〈x, y〉A = xTAy gesetzt, für alle x, y ∈ Kn. Für A = I ist also 〈x, y〉Adas kanonische Skalarprodukt in Kn. Überprüfe, welche der Regeln für ein inneres Produkt für jedes Agelten, und gib ein Beispiel für A, für welches nicht alle Regeln erfüllt sind.

Aufgabe 5.1.6 Sei J eine nicht-leere Menge, und sei KJ die Menge aller Abbildungen f von J in K mitf(j) 6= 0 höchstens für endlich viele j ∈ J . Zeige, dass KJ ein Vektorraum über K ist, und dass durch

〈f, g〉 =∑j∈J

f(j) g(j)

ein inneres Produkt auf KJ de�niert wird.

Satz 5.1.7 Sei V ein Raum über K mit einer Basis (vj , j ∈ J), und sei für vk =∑j∈J α

(k)j vj

〈v1, v2〉J =∑j∈J

α(1)j α

(2)j .

Dann ist 〈 · , · 〉J ein inneres Produkt auf W .

Beweis: Kann einfach mit der De�nition des inneren Produktes nachgeprüft werden! 2

Aufgabe 5.1.8 Zeige, dass man in jedem endlich-dimensionalen Vektorraum ein inneres Produkt de�-nieren kann.

5.2 Die Norm eines Vektors

Im Folgenden sei V immer ein Raum mit Skalarprodukt.

De�nition 5.2.1 Für jedes v ∈ V heiÿt

‖v‖ =√〈v, v〉

die Norm oder Länge von v. Für v1, v2 ∈ V heiÿt ‖v1 − v2‖ auch Abstand zwischen v1 und v2.

47

Page 48: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 5.2.2 Zeige für beliebige v1, v2 ∈ V :

(a) Falls K = R ist, gilt〈v1, v2〉 = ‖(v1 + v2)/2‖2 − ‖(v1 − v2)/2‖2 .

(b) Falls K = C ist, gilt

〈v1, v2〉 = ‖(v1 + v2)/2‖2 − ‖(v1 − v2)/2‖2

+ i ‖(v1 + i v2)/2‖2 − i ‖(v1 − i v2)/2‖2 .

Satz 5.2.3 (Cauchy-Schwarzsche Ungleichung) Für v1, v2 ∈ V gilt immer∣∣〈v1, v2〉∣∣ ≤ ‖v1‖ ‖v2‖ ,und das Gleichheitszeichen gilt genau dann, wenn v1 und v2 linear abhängig sind.

Beweis: Für v2 = 0 ist die Behauptung korrekt, da nach Aufgabe 5.1.4 〈v, 0〉 = 0 ist für alle v ∈ V .Sei jetzt v2 6= 0. Falls v1, v2 linear abhängig sind, muss v1 = α v2 für ein α ∈ K gelten, und dannfolgt |〈v1, v2〉| = |α 〈v2, v2〉| = |α| ‖v2‖2, ‖v1‖ = |α| ‖v2‖, und deshalb gilt die Ungleichung mit demGleichheitszeichen. Falls die Vektoren linear unabhängig sind, ist v1−λ v2 6= 0 für alle λ ∈ K. Dann folgtmit den Regeln eines Skalarproduktes 0 < 〈v1−λ v2, v1−λ v2〉 = 〈v1, v1〉−λ 〈v1, v2〉−λ 〈v2, v1〉+λλ 〈v2, v2〉.Wählt man speziell λ = 〈v2, v1〉/‖v2‖2, so folgt hieraus

0 < ‖v1‖2 − 2|〈v1, v2〉|2

‖v2‖2+|〈v1, v2〉|2

‖v2‖4‖v2‖2 = ‖v1‖2 −

|〈v1, v2〉|2

‖v2‖2,

woraus die behauptete Ungleichung mit dem �< �-Zeichen folgt. 2

Korollar zu Satz 5.2.3 (Eigenschaften der Norm) Für die Abbildung v 7−→ ‖v‖ gilt immer

(N1) ∀ v ∈ V : ‖v‖ ≥ 0 , ‖v‖ = 0 ⇐⇒ v = 0 (De�nitheit)

(N2) ∀ v ∈ V , λ ∈ K : ‖λ v‖ = |λ| ‖v‖ (Homogenität)

(N3) ∀ v1, v2 ∈ V : ‖v1 + v2‖ ≤ ‖v1‖ + ‖v2‖ (Dreiecksungleichung)

Beweis: Aus obigem Satz und den Rechenregeln für ein Skalarprodukt folgt ‖v1 + v2‖2 = 〈v1 + v2, v1 +v2〉 = 〈v1, v1〉+ 〈v1, v2〉+ 〈v2, v1〉+ 〈v2, v2〉 ≤ ‖v1‖2 + 2 ‖v1‖ ‖v2‖+‖v2‖2 = (‖v1‖+‖v2‖)2, und das ist dieDreiecksungleichung. Die anderen beiden Behauptungen folgen unmittelbar aus den Eigenschaften einesSkalarproduktes. 2

Aufgabe 5.2.4 Benutze die Cauchy-Schwarzsche Ungleichung bzw. die Dreiecksungleichung, um folgen-des zu beweisen: Für alle a1, . . . , an, b1, . . . , bn ∈ C gilt immer∣∣∣ n∑

j=1

aj bj

∣∣∣ ≤ n∑j=1

|aj bj | ≤( n∑

j=1

|aj |2)1/2 ( n∑

j=1

|bj |2)1/2

,

( n∑j=1

|aj + bj |2)1/2

≤( n∑

j=1

|aj |2)1/2

+( n∑

j=1

|bj |2)1/2

.

48

Page 49: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 5.2.5 Mit `2 bezeichnet man die Menge aller komplexen Zahlenfolgen a = (a1, a2, a3, . . .) mitder Eigenschaft, dass die Reihe

∑∞j=1 |aj |2 konvergiert. Benutze die Ungleichungen aus der vorangegan-

genen Aufgabe, um zu zeigen:

(a) `2 ist ein Vektorraum über C.

(b) De�niert man für Folgen a = (a1, a2, a3, . . .), b = (b1, b2, b3, , . . . , ) ∈ `2

〈a, b〉 =

∞∑j=1

aj bj ,

so ist die Reihe immer absolut konvergent, und 〈 · , · 〉 ist ein Skalarprodukt auf `2.

Der Raum `2 ist unendlich-dimensional und kann als natürliche Verallgemeinerung der Räume Cn ange-sehen werden. Die Folgen ek, welche an der k-ten Stelle eine 1 und an den übrigen lauter Nullen stehenhaben, entsprechen den Vektoren der kanonischen Basis von Cn. Finde heraus, warum diese Folgen keineBasis von `2 bilden.

De�nition 5.2.6 Sei V ein Vektorraum über K. Eine beliebige Abbildung ‖ · ‖ : V −→ R heiÿt immerdann eine Norm auf V , wenn die drei Axiome (N1) � (N3) erfüllt sind. Wenn auf V eine solche Normgegeben ist, nennt man V auch normierten Raum. Ein Raum mit Skalarprodukt ist also immer auch einnormierter Raum, aber nicht unbedingt umgekehrt, denn auf V kann eine Norm gegeben sein, welchenicht von einem Skalarprodukt herrührt.

5.3 Orthogonalität und Winkel

De�nition 5.3.1 Zwei Vektoren v1, v2 in einem Raum über K mit Skalarprodukt V heiÿen orthogonal,falls 〈v1, v2〉 = 0 ist. Zwei nicht-leere Teilmengen A,B ⊂ V heiÿen zueinander orthogonal, falls jederVektor aus A zu jedem aus B orthogonal ist. Ist A ⊂ V nicht-leer, so heiÿt die Menge A⊥ aller Vektorenaus V , welche zu allen Vektoren aus A orthogonal sind, das orthogonale Komplement von A. In anderenWorten: A⊥ ist die gröÿte Teilmenge von V , so dass A und A⊥ zueinander orthogonal sind. Falls K = R,also das Skalarprodukt von Vektoren immer reell ist, gibt es zu v1, v2 ∈ V \ {0} genau einen Winkelϕ ∈ [0, π] mit

cosϕ =〈v1, v2〉‖v1‖ ‖v2‖

,

und wir nennen dieses ϕ den Winkel zwischen v1 und v2. O�enbar sind die Vektoren genau dann orthogo-nal, wenn der Winkel zwischen ihnen gleich π/2 ist. Falls V = R2 oder = R3 ist, stimmt diese De�nitioneines Winkels mit der Anschauung überein, was aber hier keine Rolle spielt. Beachte jedenfalls, dass fürK = C zwar kein Winkel zwischen zwei Vektoren de�niert ist, dass aber der Begri� der Orthogonalitättrotzdem sinnvoll ist.

Satz 5.3.2 Sei V ein Raum über K mit Skalarprodukt, und sei A ⊂ V nicht leer. Dann gilt:

(a) A⊥ ist ein Unterraum von V .

(b) (A⊥)⊥ ⊃ A.

(c) L(A) ∩A⊥ = {0}.

Beweis: Zu (a): Es ist immer 0 ∈ A⊥, also ist A⊥ 6= ∅. Weiter folgt aus den Rechenregeln für dasSkalarprodukt, dass die Unterraumaxiome für A⊥ erfüllt sind. Teil (b) ist klar nach De�nition von A⊥.Zu (c): Sei u ∈ L(A), dann gibt es u1, . . . , um ∈ A und α1, . . . , αm ∈ K mit u =

∑mj=1 αj uj . Also folgt

für v ∈ A⊥, dass 〈v, u〉 =∑mj=1 αj 〈v, uj〉 = 0 ist, weil v zu allen uj orthogonal ist. Wenn u auch zu A⊥

gehört, können wir v = u wählen und erhalten 〈u, u〉 = 0, also u = 0. 2

49

Page 50: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 5.3.3 (Orthogonalität und MAPLE) Finde diejenigen MAPLE-Kommandos im Paket Li-nearAlgebra, welche etwas mit Winkel, Norm und/oder Orthogonalität in Kn zu tun haben.

5.4 Orthogonalsysteme

De�nition 5.4.1 Ein System (vj , j ∈ J) von Vektoren in einem Raum V über K mit Skalarprodukt heiÿtein Orthogonalsystem, falls keiner der Vektoren der Nullvektor ist, und wenn

∀ j, k ∈ J : 〈vj , vk〉 = 0 falls j 6= k .

Falls zusätzlich gilt ‖vj‖ = 1 für alle j ∈ J , dann sprechen wir von einem Orthonormalsystem. Beachte,dass das leere System immer ein Orthonormalsystem ist. Falls (vj , j ∈ J) zusätzlich noch eine Basis vonV sind, sprechen wir von einer Orthogonalbasis bzw. einer Orthonormalbasis von V .

Beispiel 5.4.2 In Kn ist die kanonische Basis eine Orthonormalbasis. Der Vektorraum V = {0} besitztebenfalls eine Orthonormalbasis, nämlich das leere System. In `2 sind die Folgen ek zwar ein Orthonor-malsystem, aber keine Basis; vergleiche hierzu Aufgabe 5.2.5. Allgemein sind in KJ wie in Aufgabe 5.1.6die Funktionen fk mit fk(j) = δkj für j, k ∈ J eine Orthonormalbasis.

Aufgabe 5.4.3 Sei V ein Raum über K mit einer Basis (vj , j ∈ J), und sei in V ein inneres Produktwie in Satz 5.1.7 eingeführt. Zeige, dass dann (vj , j ∈ J) eine Orthonormalbasis ist.

Lemma 5.4.4 Ein Orthogonalsystem (vj , j ∈ J) ist immer linear unabhängig. Falls (vj , j ∈ J) sogar einOrthonormalsystem ist, und falls v =

∑j∈J αj vj ist, wobei nur endlich viele αj von 0 verschieden sind,

so folgt‖v‖2 =

∑j∈J|αj |2 . (5.4.1)

Beweis: Seien j1, . . . , jn ∈ J . Aus 0 =∑nk=1 λk vjk folgt 0 = 〈vjν ,

∑nk=1 λk vjk〉 =

∑nk=1 λk 〈vjν , vjk〉 =

λν ‖vjν‖2 für jedes ν = 1, . . . , n, und da vjν 6= 0 ist, folgt hieraus λν = 0. Das ist die lineare Unabhängig-keit. Mit den Regeln für das Skalarprodukt folgt weiter

‖v‖2 =∑j∈J

∑k∈J

αj αk 〈vj , vk〉 ,

und wegen 〈vj , vk〉 = δjk folgt daraus (5.4.1). 2

Satz 5.4.5 (Gram-Schmidtsches Orthogonalisierungsverfahren)Sei V ein Raum über K mit Skalarprodukt, sei (w1, . . . , wn) ein linear unabhängiges System in V , undsei das System (v1, . . . , vn) durch folgende Rekursionsgleichungen de�niert:

vk = wk −k−1∑j=1

〈vj , wk〉 vj , vk =1

‖vk‖vk , 1 ≤ k ≤ n ,

wobei für k = 1 die leere Summe wie üblich als 0 zu interpretieren ist. Dann ist (v1, . . . , vn) ein Ortho-normalsystem, und

L(v1, . . . , vk) = L(w1, . . . , wk) ∀ k = 1, . . . , n .

50

Page 51: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Wir zeigen per Induktion, dass das System (v1, , . . . , vk) immer ein Orthonormalsystem ist, unddass L(v1, . . . , vk) = L(w1, . . . , wk) gilt für alle k = 1, . . . , n. Dies ist sicher richtig für k = 1, und wennes für irgendein k ≥ 1 stimmt, dann folgt für alle ν = 1, . . . , k:

〈vν , vk+1〉 = 〈vν , wk+1〉 −k∑j=1

〈vj , wk+1〉 〈vν , vj〉 = 0 ,

denn 〈vν , vj〉 = δνj . Also ist (v1, . . . , vk+1) ein Orthonormalsystem und somit linear unabhängig. Au-ÿerdem gilt vk+1 ∈ L(w1, . . . , wk+1), und daher folgt L(v1, . . . , vk+1) ⊂ L(w1, . . . , wk+1). Da aber dieDimensionen der linearen Hüllen beide gleich k + 1 sind, folgt sogar die Gleichheit. 2

Aufgabe 5.4.6 Orthogonalisiere die Vektoren

w1 =

111

, w2 =

101

, w3 =

110

.

Das heiÿt genauer: Berechne die drei Vektoren v1, v2, v3 aus dem obigen Satz.

Aufgabe 5.4.7 (Orthogonalisieren mit MAPLE) Verwende den MAPLE-Befehl > GramSchmidt,um Vektoren in Kn zu orthogonalisieren.

Aufgabe 5.4.8 Sei U ein Unterraum von Cn, und sei (u1, . . . , um) eine Basis von U , welche nur ausreellen Vektoren uj besteht; eine solche Basis existiert nach Aufgabe 1.7.2, falls mit jedem u ∈ U auchu ∈ U ist. Schlieÿe mit dem Gram-Schmidtschen Orthogonalisierungsverfahren, dass es dann sogar eineOrthonormalbasis von U gibt, welche nur aus reellen Vektoren uj besteht.

Bemerkung 5.4.9 Das Gram-Schmidtsche Orthogonalisierungsverfahren kann nicht nur auf endlich vie-le, sondern auch auf eine Folge, also abzählbar unendlich viele, Vektoren (wj , j ∈ N) angewandt werden.Man erhält dann wieder eine Folge (vj , j ∈ N) mit der Eigenschaft L(v1, . . . , vk) = L(w1, . . . , wk) für allek ∈ N. Wenn man das Orthogonalisierungsverfahren anwendet, muss man auch nicht unbedingt wissen,ob die zu orthogonalisierenden Vektoren linear unabhängig sind: Genau dann, wenn im k-ten Schritt derVektor vk der Nullvektor ist, war wk von den vorhergehenden Vektoren linear abhängig, und dann kannman das System um diesen Vektor wk verkürzen.

Korollar zu Satz 5.4.5 Ein endlich-dimensionaler Raum mit Skalarprodukt V besitzt immer eineOrthonormalbasis.

Beweis: Falls V = {0} ist, ist das leere System Orthonormalbasis. Sonst sei (w1, . . . , wn) eine Ba-sis von V . Mit Satz 5.4.5 erhält man dann ein Orthonormalsystem (v1, . . . , vn) mit L(v1, . . . , vn) =L(w1, . . . , wn) = V , und das war zu zeigen. 2

Aufgabe 5.4.10 (Orthogonalpolynome) Betrachte irgendein Skalarprodukt auf dem Raum C[t] allerPolynome mit komplexen Koe�zienten. Zeige: Es gibt ein Orthogonalsystem (pj , j ∈ N0) von Polynomen,wobei pj den Grad j hat, und diese Polynome sind bis auf einen konstanten Faktor eindeutig bestimmt.Überprüfe für das Skalarprodukt

〈p, q〉 =

∫ 1

−1p(t) q(t) dt ,

dass diese zugehörigen Orthogonalpolynome die Darstellung

pj(t) =1

2j j!

dj

dtj(t2 − 1)j ∀ j ∈ N0

51

Page 52: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

haben. Diese Orthogonalpolynome heiÿen auch Legendresche Polynome. Es gibt viele andere wichtigeBeispiele von Orthogonalpolynomen für andere innere Produkte auf C[t], die in der Physik und/oderTechnik eine wichtige Rolle spielen.

5.5 Beste Approximation, orthogonale Projektion und Fourier-koe�zienten

De�nition 5.5.1 Sei V ein Raum über K mit Skalarprodukt, und sei U ein Unterraum von V . Falls eszu v ∈ V einen Vektor u0 ∈ U gibt, für welchen

‖v − u0‖ ≤ ‖v − u‖ ∀ u ∈ U ,

dann heiÿt u0 beste Approximation für V in dem Unterraum U . Falls es zu v ∈ V einen Vektor u0 ∈ Ugibt, für welchen v− u0 ∈ U⊥ ist, dann nennen wir u0 orthogonale Projektion von v auf den UnterraumU . Wir werden beweisen, dass für endlich-dimensionales U sowohl eine orthogonale Projektion als aucheine beste Approximation existieren und sogar übereinstimmen.

Satz 5.5.2 (Beste Approximation)Sei V ein Raum mit Skalarprodukt, und seien v1, . . . , vn ein Orthogonalsystem in V . Dann gilt für jedesv ∈ V :

(a) Für α1, . . . , αn ∈ K ist ‖v −∑nk=1 αk vk‖ genau dann minimal, wenn

αk =〈vk, v〉〈vk, vk〉

=〈vk, v〉‖vk‖2

∀ k = 1, . . . , n . (5.5.1)

(b) Es gilt die Besselsche Ungleichung

n∑k=1

|〈vk, v〉|2

‖vk‖2≤ ‖v‖2 . (5.5.2)

(c) Genau dann gilt die Parsevalsche Gleichung

n∑k=1

|〈vk, v〉|2

‖vk‖2= ‖v‖2 , (5.5.3)

wenn v ∈ L(v1, . . . , vn) ist, und dann ist

v =

n∑k=1

〈vk, v〉‖vk‖2

vk .

Beweis: Es folgt mit den Regeln eines Skalarproduktes:

0 ≤ ‖v −n∑k=1

αk vk‖2 = ‖v‖2 −n∑k=1

αk 〈v, vk〉 −n∑k=1

αk 〈vk, v〉

+

n∑j=1

n∑k=1

αj αk 〈vj , vk〉

= ‖v‖2 −n∑k=1

|〈vk, v〉|2/‖vk‖2 +

n∑k=1

∣∣∣αk ‖vk‖ − 〈vk, v〉/‖vk‖ ∣∣∣2 .52

Page 53: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Daraus liest man (a) ab. Setzt man speziell αk = 〈vk, v〉/‖vk‖2 für k = 1, . . . , n, so folgt (b). Fallsv ∈ L(v1, . . . , vn) ist, gibt es α1, . . . , αn derart, dass 0 = ‖v −

∑nk=1 αk vk‖2 ist, und dann folgt aus (a)

und (b), dass αk = 〈vk, v〉/‖vk‖2 für k = 1, . . . , n gilt. Also muss die Parsevalsche Gleichung gelten. Fallsumgekehrt die Parsevalsche Gleichung gilt, folgt wegen∥∥∥v − n∑

k=1

〈vk, v〉‖vk‖2

vk

∥∥∥2 = ‖v‖2 −n∑k=1

|〈vk, v〉|2/‖vk‖2 = 0

dass v ∈ L(v1, . . . , vn) ist. 2

Aufgabe 5.5.3 (Orthogonale Projektion mit MAPLE) Finde selber heraus, was die folgenden Be-fehle mit der Berechnung der besten Approximation zu tun haben:

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 2, [[1,1],[1,1],[-1, 0]]);

> a := Vector([1, 2, 3]);

> x := LeastSquares(A,a);

De�nition 5.5.4 Sei (vj , j ∈ J) ein beliebiges Orthogonalsystem in einem Raum mit Skalarprodukt V .Für ein v ∈ V nennt man die Zahlen

〈vj , v〉‖vj‖2

∀ j ∈ J

die Fourierkoe�zienten von v bzgl. des Orthogonalsystems (vj , j ∈ J).

Korollar zu Satz 5.5.2 (Orthogonale Projektion) Sei V ein Raum mit Skalarprodukt, und sei Uein endlich-dimensionaler Unterraum von V . Dann gilt:

(a) V = U ⊕ U⊥.

(b) Für jedes v ∈ V ist die beste Approximation von v in U gleich der orthogonalen Projektion von vauf U .

(c) Ist u1, . . . , un eine Orthogonalbasis von U , so ist

u =

n∑k=1

〈uk, v〉‖uk‖2

uk (5.5.4)

die orthogonale Projektion von v auf U .

Beweis: Sei v ∈ V und u wie in (5.5.4). Dann folgt 〈uj , u〉 = 〈uj , v〉, also 〈v − u, uj〉 = 0 für allej = 1, . . . , n. Daher ist v− u ∈ U⊥, und da dies für jedes v ∈ V gilt, folgt V = U +U⊥. Dass die Summedirekt ist, folgt bereits aus Satz 5.3.2. Also gilt (a), aber auch (c). Behauptung (b) folgt direkt aus demSatz über die beste Approximation. 2

Aufgabe 5.5.5 Überprüfe, dass die Vektoren v1 = (1, 0, 1)T , v2 = (0, 1, 0)T ein Orthogonalsystem in R3

mit dem kanonischen Skalarprodukt bilden. Berechne die orthogonale Projektion von v = (1, 1, 0)T aufden von v1, v2 aufgespannten Unterraum.

53

Page 54: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 6

Lineare Abbildungen

Wenn nichts anderes gesagt wird, seien im Folgenden V undW zwei beliebige Vektorräume über demselbenKörper K.

6.1 De�nition und elementare Eigenschaften

De�nition 6.1.1 Eine Abbildung T : V −→ W , v 7−→ T (v) = T v heiÿt lineare Abbildung von V nachW , oder einfach linear, falls folgendes gilt:

(L1) ∀ v1, v2 ∈ V : T (v1 + v2) = T v1 + T v2. (Additivität)

(L2) ∀ λ ∈ K , v ∈ V : T (λ v) = λT v. (Homogenität)

Beide Aussagen zusammen sind o�enbar äquivalent zu der einen Aussage

(L) ∀ λ1, λ2 ∈ K , v1, v2 ∈ V : T (λ1 v1 + λ2 v2) = λ1 T v1 + λ2 T v.

Die Menge aller linearen Abbildungen von V nach W wird mit L(V,W ) bezeichnet. Falls W = V ist, seiL(V, V ) = L(V ) geschrieben. Abbildungen in L(V ) heiÿen auch Endomorphismen in V .

Beispiel 6.1.2 Folgende Abbildungen sind linear:

(a) Für A ∈ Km×n und x ∈ Kn ist Ax ∈ Km, und aus Satz 2.3.3 (a), (b) folgt, dass die Abbildungx 7−→ Ax linear ist. Also legt jede Matrix A in kanonischer Weise eine lineare Abbildung fest, diewir der Einfachheit halber meistens ebenfalls mit A bezeichnen.

(b) Für beliebige Vektorräume V,W über K ist die Nullabbildung v 7−→ 0 immer linear. Für W = Vist auch die identische Abbildung oder die Identität v 7−→ v linear.

(c) Sei V endlich-dimensional, und sei (v1, . . . , vn) eine Basis von V . Dann gibt es nach Propositi-on 1.5.6 zu jedem v ∈ V eindeutig bestimmte Zahlen αk ∈ K mit v =

∑nk=1 αk vk. Die Abbildung

v 7−→ (α1, . . . , αn) von V nach Kn ist linear und injektiv. Da für α1, . . . , αn ∈ K der Vektorv =

∑nj=1 αj vj zu V gehört, ist die Abbildung sogar surjektiv. Wir nennen sie auch die Koordina-

tenabbildung zur Basis (v1, . . . , vn).

(d) Für V = W = K[t] ist die Abbildung p 7−→ p ′, die jedem Polynom seine Ableitung zuordnet, linear,also ein Endomorphismus. Für beliebige a < b ist die Abbildung p 7−→

∫ bap(t) dt linear von K[t]

nach K.

54

Page 55: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 6.1.3 Für jedes T ∈ L(V,W ) gilt:

(a) Für jede Wahl von λj ∈ K und vj ∈ V , j = 1, . . . , n, gilt

T( n∑j=1

λj vj

)=

n∑j=1

λj T (vj) .

(b) Stets gilt T (0) = 0, wobei links bzw. rechts der Nullvektor von V bzw. W steht.

(c) Falls ein System (vj , j ∈ J) linear abhängig in V ist, dann ist das System (T (vj), j ∈ J) linearabhängig in W .

Beweis: Zu (a): Folgt durch Induktion über n aus der De�nition der linearen Abbildung. Zu (b): 0 = 0+0,also ist T (0) = T (0)+T (0), und daraus folgt T (0) = 0. Zu (c): Nach De�nition der linearen Abhängigkeitgibt es j1, . . . , jn ∈ J und λ1, . . . , λn ∈ K, wobei nicht alle λk verschwinden, so dass 0 =

∑nk=1 λk vjk ist.

Wegen (a) und (b) folgt hieraus 0 =∑nk=1 λk T

(vjk), woraus sich die Behauptung ergibt. 2

Aufgabe 6.1.4 Funktionen f : D −→ R, mit D ⊂ R, kann man sich über ihren Graphen in R2 ver-anschaulichen. Finde heraus, wie man an diesem Graphen erkennt, ob eine solche Funktion eine lineareAbbildung in obigem Sinne ist.

6.2 Kern und Bild

De�nition 6.2.1 Für T ∈ L(V,W ) heiÿen KernT = {v ∈ V : T v = 0} der Kern von T , und BildT ={w ∈ W : ∃ v ∈ Vmit T v = w} das Bild von T . Für A ⊂ V sei T (A) = {T v : v ∈ A} gesetzt.Insbesondere ist also T (V ) = BildT .

Satz 6.2.2 Für jedes T ∈ L(V,W ) gilt:

(a) KernT ist ein Unterraum von V , BildT ist ein Unterraum von W .

(b) dim KernT + dim BildT = dimV .

(c) Genau dann ist T injektiv, wenn KernT = {0}.

(d) Falls W endlich-dimensional ist, dann ist T genau dann surjektiv, wenn dim BildT = dimW ist.

Beweis: Zu (a): Für v1, v2 ∈ KernT und λ1, λ2 ∈ K gilt T (λ1 v1 + λ2 v2) = λ1 T v1 + λ2 T v2 = 0, daT v1 = T v2 = 0 ist. Also folgt λ1 v1+λ2 v2 ∈ KernT . Für w1, w2 ∈ BildT gibt es v1, v2 ∈ V mit T vj = wj ,und für λ1, λ2 wie oben folgt λ1 w1 +λ2 w2 = T (λ1 v1 +λ2 v2) ∈ BildT . Zu (b): Falls dimKernT =∞ ist,muss auch V unendlich-dimensional sein, und es ist nichts zu zeigen. Falls dimBildT =∞ ist, gibt es einabzählbar-unendliches System (wj , j ∈ N) in BildT , welches linear unabhängig ist, und zu jedem j ∈ Nexistiert ein vj ∈ V mit T vj = wj . Nach Satz 6.1.3 (c) muss (vj , j ∈ N) in V linear unabhängig sein, unddeshalb ist auch dimV =∞, so dass nichts mehr zu zeigen ist. Seien jetzt KernT und BildT beide endlich-dimensional, und sei (v1, . . . , vn) bzw. (w1, . . . , wm) Basis von KernT bzw. BildT . Zu jedem wj existiertein Urbild in V , welches wir mit vn+j bezeichnen. Der Beweis von (b) ist erbracht, wenn wir nachweisen,dass (v1, . . . , vn+m) eine Basis von V ist. Dazu seien λj ∈ K so, dass 0 =

∑n+mj=1 λj vj gilt. Dann folgt

wegen T vj = 0 für j = 1, . . . , n, dass 0 =∑mj=1 λn+j wj ist. Wegen der linearen Unabhängigkeit von

(w1, . . . , wm) folgt hieraus λk = 0 für k = n+ 1, . . . , n+m. Also ergibt sich 0 =∑nj=1 λj vj , woraus aber

wegen der linearen Unabhängigkeit von (v1, . . . , vn) folgt, dass auch λk = 0 für k = 1, . . . , n gilt. Das zeigtinsgesamt die lineare Unabhängigkeit von (v1, . . . , vn+m). Sei jetzt v ∈ V , und sei w = T v. Dann gibt es

55

Page 56: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

α1, . . . , αm ∈ K mit w =∑mj=1 αj wj . Für v = v −

∑mj=1 αj vn+j folgt dann T v = w −

∑mj=1 αj wj = 0,

und somit ist v ∈ KernT . Daher gibt es β1, . . . , βn ∈ K mit v =∑nj=1 βj vj , und somit ist gezeigt,

dass (v1, . . . , vn+m) ein Erzeugendensystem für V ist. Die Beweise der Teile (c) und (d) stellen wir alsÜbungsaufgabe. 2

Aufgabe 6.2.3 Beweise die Teile (c), (d) der vorausgegangenen Satzes.

Aufgabe 6.2.4 Bestimme Kern und Bild der Abbildungen aus Beispiel 6.1.2.

De�nition 6.2.5 Die Dimension des Bildes von T ∈ L(V,W ) heiÿt auch der Rang von T . Für w ∈ Wschreiben wir T−1(w) für die Menge aller v ∈ V mit T v = w. Also besteht T−1(w) aus allen Lösungender Gleichung T v = w, und T−1(0) ist gerade der Kern von T . Beachte aber, dass diese Bezeichung nichtetwa impliziert, dass T injektiv oder sogar bijektiv ist!

Aufgabe 6.2.6 Eine Matrix A ∈ Km×n legt nach Beispiel 6.1.2 durch x 7−→ Ax eine lineare AbbildungTA von Kn in Km fest. Zeige dass der Rang dieser linearen Abbildung TA dasselbe ist wie der Rang derMatrix A.

Satz 6.2.7 Sei T ∈ L(V,W ), und sei w ∈W fest gewählt. Dann gilt:

(a) Genau dann ist T−1(w) 6= ∅, wenn w ∈ BildT ist.

(b) Für w ∈ BildT ist T−1(w) eine lineare Mannigfaltigkeit; genauer: Ist v0 ∈ T−1(w) beliebig ausge-wählt, so ist

T−1(w) = v0 + KernT .

Insbesondere ist die Dimension von T−1(w) immer gleich der Dimension von KernT .

Beweis: Aussage (a) ist klar nach De�nition von T−1(w). Für (b) sei v ∈ KernT ; dann ist T (v0 + v) =T v0 + T v = w + 0 = w, und deshalb ist v + v0 ∈ T−1(w). Umgekehrt sei v ∈ T−1(w), dann istT (v − v0) = T v − T v0 = w − w = 0, also v − v0 ∈ KernT . 2

Aufgabe 6.2.8 Vergleiche die Ergebnisse dieses Abschnittes mit denen aus Abschnitt 3.2 über die Struk-tur der Lösungsmenge eines linearen Gleichungssystems.

6.3 Lineare Abbildungen und Basen

Besonders in unendlich-dimensionalen Vektorräumen ist es nicht sofort klar, ob und wieviele lineareAbbildungen es gibt. Wir wollen die Frage für den Fall beantworten, dass wir eine Basis des UrbildraumsV kennen und zeigen, dass eine lineare Abbildung durch Angabe ihrer Bilder der Basisvektoren eindeutigfestgelegt ist, dass man aber andererseits diese Bilder beliebig vorgeben kann.

Satz 6.3.1 (Existenz von linearen Abbildungen) Sei (vj , j ∈ J) eine Basis von V , und sei (wj , j ∈J) ein System von Vektoren aus W , welches also �von der gleichen Gröÿe� wie die Basis, aber sonstbeliebig ist. Dann gibt es genau ein T ∈ L(V,W ) mit

T vj = wj ∀ j ∈ J . (6.3.1)

56

Page 57: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Ist v ∈ V gegeben, so gibt es eindeutig bestimmte αj ∈ K mit v =∑j∈J αj vj , wobei nur

endlich viele αj nicht gleich 0 sind. Wenn T ∈ L(V,W ) und (6.3.1) erfüllt ist, dann muss gelten T v =∑j∈J αj T vj =

∑j∈J αj wj . Umgekehrt de�nieren wir jetzt eine Abbildung T von V nach W durch

T v =∑j∈J αj wj . Für v =

∑j∈J αj vj ∈ V und α, β ∈ K gilt dann α v + β v =

∑j∈J

(ααj + β αj

)vj ,

und deshalb folgt T (α v+β v)

=∑j∈J

(ααj +β αj

)wj = αT v+β T v. Also ist die Abbildung T linear.

2

Aufgabe 6.3.2 Zeige: Ist dimV = n <∞ und dimW = m <∞, so folgt dimL(V,W ) = nm.

De�nition 6.3.3 Eine bijektive lineare Abbildung T : V −→ W heiÿt ein Isomorphismus. Falls einsolcher Isomorphismus existiert, so heiÿen die Vektorräume V und W auch isomorph. Falls W = V ist,sagen wir statt Isomorphismus auch Automorphismus.

Korollar zu Satz 6.3.1 Unter den Voraussetzungen von Satz 6.3.1 ist die lineare Abbildung T genaudann ein Isomorphismus. wenn (wj , j ∈ J) eine Basis von W ist.

Beweis: Sei (wj , j ∈ J) eine Basis. Dann gibt es zu w ∈ W eindeutig bestimmte αj ∈ K mit w =∑j∈J αj wj , wobei nur endlich viele αj nicht gleich 0 sind. Also gibt es genau ein v ∈ V , und zwar

v =∑j∈J αj vj , für welches w = T v gilt. Deshalb ist T ein Isomorphismus. Umgekehrt, wenn T ein

Isomorphismus ist, gibt es zu jedem w ∈ W genau ein Urbild v ∈ V mit T v = w. Zu diesem v gibt eseindeutig bestimmte αj ∈ K mit v =

∑j∈J αj vj , wobei nur endlich viele αj nicht gleich 0 sind, und es

folgt w =∑j∈J αj wj . Daher ist (wj , j ∈ J) ein Erzeugendensystem. Setzt man 0 =

∑j∈J αj wj und

beachtet dass T v = 0 genau für v = 0 gilt, so folgt analog die lineare Unabhängigkeit des Systems(wj , j ∈ J). 2

Beispiel 6.3.4 Sei V ein n-dimensionaler Vektorraum über K, und sei das System (v1, . . . , vn) eineBasis von V . Die Koordinatenabbildung

v =

n∑j=1

αj vj 7−→ (α1, . . . , αn)T

ist nach Aufgabe 6.1.2 ein Isomorphismus von V auf Kn. Also ist jeder n-dimensionale Vektorraum zuKn isomorph, und die Koordinatenabbildung heiÿt auch kanonischer Isomorphismus. Beachte aber, dassman erst von dem kanonischen Isomorphismus sprechen kann, nachdem man eine Basis für V gewählthat.

Proposition 6.3.5 Eine Hintereinanderausführung zweier linearer Abbildungen ist ebenfalls linear. DieUmkehrabbildung eines Isomorphismus ist wieder ein Isomorphismus.

Beweis: Seien U, V,W Vektorräume über K, und seien T1 ∈ L(U, V ), T2 ∈ L(V,W ), sowie T = T2◦T1.Für u1, u2 ∈ U , λ1, λ2 ∈ K gilt dann

T (λ1 v1 + λ2 v2) = T2(T1(λ1 v1 + λ2 v2)

)= T2

(λ1 T (v1) + λ2 T (v2)

)= λ1 T2

(T1(v1)

)+ λ2 T2

(T1(v2)

)= λ1 T (v1) + λ2 T (v2) .

Also ist T ∈ L(U,W ). Sei jetzt T ∈ L(V,W ) ein Isomorphismus, also bijektiv. Für v1, v2 ∈ V , λ1, λ2 ∈ Kgilt dann

T (λ1 v1 + λ2 v2) = λ1 T (v1) + λ2 T (v2) .

57

Page 58: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Mit w1 = T (v1), w2 = T (v2), also v1 = T−1(w1), v2 = T−1(w2), folgt aus dieser Gleichung durchAnwendung von T−1 auf beide Seiten

T−1(λ1 w1 + λ2 w2) = λ1 v1 + λ2 v2 = λ1 T−1(w1) + λ2 T

−1(w2) .

Also ist T−1 linear. 2

Aufgabe 6.3.6 Überprüfe, dass der Begri� der Isomorphie eine Äquivalenzrelation auf der Menge allerVektorräume ist.

Satz 6.3.7 Sei V ein Raum über K mit Skalarprodukt, und sei W ein zu V isomorpher Vektorraum überK. Für einen Isomorphismus T ∈ L(V,W ) de�nieren wir

〈w1, w2〉T = 〈T−1 w1, T−1 w2〉 ∀ w1, w2 ∈W .

Dann ist 〈 · , · 〉T ein inneres Produkt auf W .

Beweis: Für w1, w2 ∈W und λ ∈ K gilt wegen der Linearität von T−1, dass T−1(w1 +w2) = T−1 w1 +T−1 w2 und T−1(λw2) = λT−1 w2 ist, und daraus folgen leicht die vier Axiome des inneren Produktesfür 〈 · , · 〉T . 2

6.4 Isomorphie und Dimension

Satz 6.4.1 Für beliebige Vektorräume V und W über dem gleichen Körper K gilt:

(a) Falls es ein injektives T ∈ L(V,W ) gibt, folgt dimW ≥ dimV .

(b) Falls V und W isomorph sind, folgt dimV = dimW .

(c) Falls dimV = dimW <∞ ist, sind V und W isomorph.

Beweis: Zu (a): Sei ein T ∈ L(V,W ) injektiv, und sei (vj , j ∈ J) ein linear unabhängiges System in V .Dann folgt für beliebige j1, . . . , jn ∈ J und λ1, . . . , λn ∈ K, dass 0 =

∑nk=1 λk T vjk = T

(∑nk=1 λk vjk

)genau dann gilt, wenn 0 =

∑nk=1 λk vjk ist, denn der Kern von T besteht nur aus dem Nullvektor. Daraus

folgt, dass alle λk = 0 sein müssen. Also ist das System der Bilder (T vj , j ∈ J) linear unabhängig inW . Wenn V unendlich-dimensional ist, gibt es ein abzählbar-unendliches System in V , und dann auchin W , und somit ist auch W unendlich-dimensional. Im anderen Fall gibt es in V eine Basis (v1, . . . , vn),mit n = dimV , und dann ist (T v1, . . . , T vn) jedenfalls linear unabhängig in W . Also ist dimW ≥ n.Zu (b): Sei T ∈ L(V,W ) ein Isomorphismus. Dann folgt aus (a), dass dimW ≥ dimV ist. Da T−1 ∈L(W,V ) ebenfalls injektiv ist, folgt auch die umgekehrte Ungleichung. Zu (c): Wähle Basen von V undW ; diese enthalten nach Voraussetzung gleich viel Vektoren. Aus dem Korollar zu Satz 6.3.1 folgt danndie Behauptung. 2

Wegen der Wichtigkeit formulieren wir noch folgende direkte Konsequenz dieses Satzes:

Korollar zu Satz 6.4.1 Zwei endlich-dimensionale Vektorräume über K sind genau dann isomorph,wenn sie dieselbe Dimension haben.

Aufgabe 6.4.2 Sei dimV = dimW <∞. Zeige: Wenn ein T ∈ L(V,W ) surjektiv bzw. injektiv ist, dannist es bereits ein Isomorphismus.

58

Page 59: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

6.5 Der Dualraum, die duale Abbildung

De�nition 6.5.1 Für jeden Vektorraum V über K heiÿt L(V,K), also die Menge aller linearen Abbil-dungen von V in den Körper K, der zu V (algebraisch) duale Raum, oder kurz der Dualraum zu V , undwir schreiben V ∗ für diesen Raum. Jedes f ∈ V ∗ heiÿt auch lineares Funktional oder Linearform auf V .Für ein T ∈ L(V,W ) und f ∈ W ∗ ist f◦T ∈ V ∗. Die Abbildung f 7−→ f◦T bildet also W ∗ nach V ∗ abund wird mit T ∗ bezeichnet und die zu T duale Abbildung genannt.

Aufgabe 6.5.2 Sei V endlich-dimensional. Zeige: Für jedes v ∈ V \{0} gibt es ein f ∈ V ∗ mit f(v) 6= 0.

Lemma 6.5.3 Für jedes T ∈ L(V,W ) ist die duale Abbildung T ∗ linear, also T ∗ ∈ L(W ∗, V ∗).

Beweis: Für f1, f2 ∈W ∗ und α1, α2 ∈ V gilt nach De�nition von T ∗

T ∗ (α1 f1 + α2 f2) = (α1 f1 + α2 f2)◦T = α1 T∗ f1 + α2 T

∗ f2 ,

und das war zu zeigen. 2

Satz 6.5.4 Wenn V endlich-dimensional ist, gilt dimV = dimV ∗, und insbesondere sind V und V ∗

isomorph.

Beweis: Wenn dimV = 0 ist, wenn also V nur aus dem Nullvektor besteht, dann ist die einzigelineare Abbildung von V in K die Nullabbildung. Also gilt in diesem Fall die Behauptung. Sei jetzt1 ≤ dimV = n < ∞, und sei (v1, . . . , vn) eine Basis von V . Aus Satz 6.3.1 folgt die Existenz vonf1, , . . . , fn ∈ V ∗ mit der Eigenschaft fk(vj) = δjk für 1 ≤ j, k ≤ n. Für ein beliebiges f ∈ V ∗ seien dannf(vj) = αj für j = 1, . . . , n. Für g = f −

∑nj=1 αj fj folgt dann f(vk) = 0 für k = 1, . . . , n, und deshalb

ist g die Nullabbildung. Also ist (f1, . . . , fn) Erzeugendensystem von V ∗. Für die lineare Unabhängigkeitsei 0 =

∑nj=1 αj fj , d. h. genauer, 0 =

∑nj=1 αj fj(v) für alle v ∈ V . Einsetzen von vk zeigt dann 0 = λk,

und daher ist (f1, . . . , fn) Basis von V ∗. 2

Satz 6.5.5 Wenn V und W beide endlich-dimensional sind, dann ist die Abbildung T 7−→ T ∗ ein Iso-morphismus von L(V,W ) auf L(W ∗, V ∗).

Beweis: Für T1, T2 ∈ L(V,W ) und α1, α2 ∈ K sei T = α1 T1 + α2 T2. Dann gilt für jedes f ∈W ∗:

f◦T = α1 f◦T1 + α2 f◦T2 = α1 T∗1 (f) + α2 T

∗2 (f) ,

und deshalb ist T ∗ = α1 T∗1 +α2 T

∗2 . Also ist T 7−→ T ∗ eine lineare Abbildung von L(V,W ) in L(W ∗, V ∗).

Wenn T ∗ = 0, d. h., gleich der Nullabbildung ist, dann folgt per De�nition f(T (v)) = 0 für alle f ∈ W ∗und alle v ∈ V . Dies impliziert aber nach Aufgabe 6.5.2 dass T (v) = 0 ist für alle v ∈ V , und daher istT die Nullabbildung in L(V,W ). Also ist die Abbildung T 7−→ T ∗ injektiv. Aus Aufgabe 6.3.2 folgt aberdass L(V,W ) und L(W ∗, V ∗) die gleiche Dimension haben, und deshalb ist T 7−→ T ∗ auch surjektiv. 2

6.6 Die adjungierte Abbildung

Im Folgenden betrachten wir endlich-dimensionale Vektorräume mit inneren Produkten und führen diesogenannte adjungierte Abbildung ein. Diese hängt eng mit der dualen Abbildung zusammen.

59

Page 60: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

De�nition 6.6.1 Sei V und W Vektorräume über K. Eine Abbildung T : V −→ W heiÿt semilinear,wenn

• ∀ v1, v2 ∈ V : T (v1 + v2) = T v1 + T v2.

• ∀ λ ∈ K , v ∈ V : T (λ v) = λT v.

Im Fall K = R ist also Semilinearität das gleiche wie Linearität, aber nicht wenn K = C ist.

Lemma 6.6.2 Sei V ein endlich-dimensionaler Raum über K mit Skalarprodukt. Dann gibt es zu jedemf ∈ V ∗ genau ein wf ∈ V so, dass

f(v) = 〈wf , v〉 ∀ v ∈ V .

Die Abbildung f 7−→ wf ist bijektiv und semilinear.

Beweis: Sei (v1, . . . , vn) eine Orthonormalbasis von V . Dann hat jedes v ∈ V die Darstellung v =∑nk=1〈vk, v〉 vk. Für f ∈ V ∗ setzen wir αk = f(vk) für k = 1, . . . , n. Dann folgt f(v) =

∑nk=1 αk 〈vk, v〉 =

〈wf , v〉mit wf =∑nk=1 αk vk. Also gibt es ein wf wie behauptet. Dieses wf ist durch f eindeutig festgelegt,

denn aus 〈w1 − w2, v〉 = 0 für alle v ∈ V folgt w1 = w2. Die Semilinearität von f 7−→ wf =∑nk=1 αk vk

kann leicht nachgeprüft werden. 2

Bemerkung 6.6.3 Wir betrachten jetzt zwei endlich-dimensionale Räume V und W über K mit Ska-larprodukten, sowie ein T ∈ L(V,W ). Die duale Abbildung T ∗ bildet dann W ∗ nach V ∗ ab. Zu f ∈ W ∗gehört dann nach Lemma 6.6.2 genau ein wf ∈ W , und zu g = T ∗f ∈ V ∗ gibt es aus demselben Grundein wg ∈ V . Wir können also eine Abbildung T ad : W −→ V de�nieren durch

T ad(wf ) = wg , g = T ∗f , ∀ f ∈W ∗ .

Die Abbildungen f 7−→ wf und g 7−→ wg sind beide semilinear, aber die Abbildung wf 7−→ T ad(wf ) = wgist linear, wie man leicht überprüft. Mit Hilfe der De�nition von T ∗ folgt für die Abbildung T ad dieBeziehung

〈T ad w, v〉 = 〈w, T v〉 ∀ v ∈ V , w ∈W . (6.6.1)

Wir bemerken noch, dass die Zuordnung T 7−→ T ad eine bijektive semilineare Abbildung von L(V,W ) aufL(W,V ) ist.

De�nition 6.6.4 Seien V und W Räume über K mit Skalarprodukten, und sei T ∈ L(V,W ). EineAbbildung T ad ∈ L(W,V ) heiÿt zu T adjungiert, falls (6.6.1) gilt. Es folgt leicht, dass es zu T höchstenseine adjungierte Abbildung geben kann, und aus der obigen Bemerkung folgt die Existenz von T ad fallsV und W beide endlich-dimensional sind. Ein Endomorphismus T ∈ L(V ) heiÿt selbstadjungiert, fallsT ad = T ist, falls also immer gilt

〈T v1, v2〉 = 〈v1, T v2〉 ∀ v1, v2 ∈ V .

Wir nennen einen Endomorphismus T ∈ L(V ) auch normal, falls die adjungierte Abbildung T ad existiertund mit T kommutiert, d. h., falls gilt

T ad◦T = T ◦T ad .

O�enbar ist jeder selbstadjungierte Endomorphismus auch normal.

Aufgabe 6.6.5 (Rechenregeln für adjungierte Abbildungen)Seien V und W Räume über K mit Skalarprodukten. Zeige folgende Regeln:

60

Page 61: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

(a) Wenn zu T ∈ L(V,W ) eine adjungierte Abbildung T ad ∈ L(W,V ) existiert, dann ist die zu T ad

adjungierte Abbildung wieder gleich T .

(b) Seien λ1, λ2 ∈ K und T1, T2 ∈ L(V,W ). Wenn zu T1 bzw. T2 adjungierte Abbildungen T ad1 , T ad2 ∈L(W,V ) existieren, dann existiert auch die adjungierte Abbildung für λ1 T1 + λ2 T2, und(

λ1 T1 + λ2 T2)ad

= λ1 Tad1 + λ2 T

ad2 .

(c) Die identische Abbildung id sowie die Nullabbildung auf V sind selbstadjungiert.

Für die Hintereinanderausführung von Abbildungen vergleiche die folgende Proposition.

Proposition 6.6.6 Seien U, V,W Räume über K mit Skalarprodukten, und seien T1 ∈ L(U, V ) undT2 ∈ L(V,W ) mit den adjungierten Abbildungen T ad1 ∈ L(V,U) und T ad2 ∈ L(W,V ). Dann ist T ad1 ◦T

ad2

die adjungierte Abbildung zu T2◦T1.

Beweis: Für u ∈ U , v ∈ V , w ∈W gilt nach De�nition der adjungierten Abbildungen

〈T ad1 v, u〉 = 〈v, T1 u〉 , 〈T ad2 w, v〉 = 〈w, T2 v〉 .

Setzt man links v = T ad2 w, so folgt 〈T ad1 T ad2 w, u〉 = 〈T ad2 w, T1 u〉, und wenn man dann in der zweitenGleichung v = T1 u einsetzt, so folgt 〈T ad2 w, T1 u〉 = 〈w, T2 T1 u〉, und das war zu zeigen. 2

Aufgabe 6.6.7 Sei V ein Raum über K mit Skalarprodukt, und sei T ∈ L(V ) selbstadjungiert. Zeige:〈v, T v〉 ist immer eine reelle Zahl, auch wenn K = C ist.

Aufgabe 6.6.8 Zeige: Für V = Kn mit dem kanonischen Skalarprodukt, und A ∈ Kn×n ist die Abbildungx 7−→ Ax genau dann selbstadjungiert, wenn A

T

= A ist.

6.7 Längentreue Abbildungen

De�nition 6.7.1 Seien V,W Räume über K mit Skalarprodukten. Ein T ∈ L(V,W ) heiÿt längentreu,falls

∀ v ∈ V : ‖T v‖ = ‖v‖ ,

und längen- und winkeltreu, falls

∀ v1, v2 ∈ V : 〈T v1, T v2〉 = 〈v1, v2〉 .

Beachte, dass in beiden Bedingungen rechts die Norm bzw. das Skalarprodukt in V , links die Norm bzw.das Skalarprodukt in W steht. O�enbar ist jede längen- und winkeltreue Abbildung auch längentreu. Dassauch die Umkehrung dieser Aussage gilt, folgt aus dem nächsten Satz. Für K = R bzw. K = C nennt maneine längen- und winkeltreue Abbildung auch orthogonal bzw. unitär.

Satz 6.7.2 Seien V,W Räume über K mit Skalarprodukten. Dann ist jedes längentreue T ∈ L(V,W )auch injektiv und längen- und winkeltreu.

Beweis: Die Injektivität folgt leicht, weil aus 0 = T v folgt dass 0 = ‖T v‖ ist, und bei Längentreue giltdies genau dann, wenn ‖v‖ = 0 ist. Die Winkeltreue folgt aus Aufgabe 5.2.2. 2

61

Page 62: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 6.7.3 Seien V,W Räume über K mit Skalarprodukten, und sei (vj , j ∈ J) eine Orthonormalbasisvon V . Genau dann ist ein T ∈ L(V,W ) längentreu, wenn das System (T vj , j ∈ J) wieder ein Ortho-normalsystem ist.

Beweis: Sei T längentreu. Dann folgt für j, k ∈ J , dass 〈T vj , T vk〉 = 〈vj , vk〉 = δjk ist, und deshalb ist(T vj , j ∈ J) ein Orthonormalsystem. Umgekehrt, sei (T vj , j ∈ J) ein Orthonormalsystem. Für v ∈ Vgibt es j1, . . . , jn ∈ J und α1, . . . , αn ∈ K mit v =

∑nk=1 αk vjk , und aus (5.4.1) folgt ‖v‖2 =

∑nk=1 |αk|2.

Für w = T v =∑nk=1 αk T vjk folgt genauso ‖T v‖2 =

∑nk=1 |αk|2, und deshalb ist T längentreu. 2

Satz 6.7.4 Seien V,W Räume über K mit Skalarprodukten. Dann besitzt jedes längentreue und surjektiveT ∈ L(V,W ) eine adjungierte Abbildung, und T ad = T−1. Im Fall W = V ist T auch normal.

Beweis: Eine längentreue und surjektive Abbildung ist bijektiv, und somit existiert T−1 ∈ L(W,V ).Mit T v1 = w1, also v1 = T−1 w1, folgt aus der De�nition der Winkeltreue (was ja dasselbe wie dieLängentreue ist), dass

〈w1, T v2〉 = 〈T−1 w1, v2〉 ∀ w1 ∈W , v2 ∈ V .Bis auf die Bezeichnungen ist dies gleich (6.6.1), wenn man T ad durch T−1 ersetzt, und das war zu zeigen,denn die Normalität für W = V folgt, da T ◦T−1 = T−1◦T ist. 2

Aufgabe 6.7.5 Zeige: Für eine Matrix A ∈ Km×n ist die Abbildung x 7−→ Ax genau dann längen-treu von Kn in Km, wenn die Spalten von A ein Orthonormalsystem in Km bezüglich des kanonischenSkalarprodukts bilden. Warum folgt daraus m ≥ n?

Aufgabe 6.7.6 Seien jetzt V = W = R2 mit dem kanonischen Skalarprodukt, und sei A ∈ R2×2. Zeige:Die lineare Abbildung x 7−→ Ax von R2 in sich ist genau dann längentreu, wenn es ein φ ∈ R gibt, fürwelches

A =

[cosφ − sinφ

sinφ cosφ

]oder A =

[cosφ sinφ

sinφ − cosφ

].

Wodurch unterscheiden sich diese beiden Fälle? Interpretiere beide Fälle geometrisch.

6.8 De�nite Endomorphismen

De�nition 6.8.1 Sei V ein Raum über K mit Skalarprodukt. Für einen selbstadjungierten Endomor-phismus T ∈ L(V ) ist 〈v, T v〉 für alle v ∈ V nach Aufgabe 6.6.7 eine reelle Zahl. Wir nennen T

(a) positiv de�nit, falls 〈v, T v〉 > 0 gilt für alle v ∈ V \ {0},

(b) negativ de�nit, falls 〈v, T v〉 < 0 gilt für alle v ∈ V \ {0},

(c) positiv semide�nit, falls 〈v, T v〉 ≥ 0 gilt für alle v ∈ V ,

(d) negativ semide�nit, falls 〈v, T v〉 ≤ 0 gilt für alle v ∈ V ,

(e) inde�nit, falls 〈v1, T v1〉 > 0 gilt für mindestens ein v1 ∈ V , während 〈v2, T v2〉 < 0 für ein anderesv2 ∈ V gilt.

Beachte, dass für jeden sebstadjungierten Endomorphismus immer einer dieser Fälle eintritt. Die Men-ge L(V ) ist also die Vereinigung von fünf Teilmengen, die jeweils alle Endomorphismen mit derselbenDe�nitheitseigenschaft umfassen. Dabei sind die positiv bzw. negativ de�niten Endomorphismen in derMenge der positiv bzw. negativ semide�niten enthalten.

62

Page 63: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 6.8.2 Zeige dass die identische Abbildung auf V positiv de�nit ist.

Aufgabe 6.8.3 Für a, c ∈ R, b ∈ C sei

A =

[a b

b c

].

Zeige, dass die Abbildung x 7−→ Ax von C2 in sich selbstadjungiert ist, und stelle fest, für welche a, b, cdiese Abbildung positiv oder negativ de�nit oder semide�nit bzw. inde�nit ist.

Satz 6.8.4 Sei V ein Raum über K mit Skalarprodukt, und seien T ∈ L(V ) selbstadjungiert und U ∈L(V ) längentreu und surjektiv. Dann ist auch U−1 T U selbstadjungiert, und T und U−1 T U haben die-selbe De�nitheitseigenschaft.

Beweis: Nach Satz 6.7.4 ist Uad = U−1, und daher folgt aus Proposition 6.6.6 die Selbstadjungiertheitvon U−1 T U . Weiter folgt für v1, v2 ∈ V und vj = U vj , dass

〈v1, U−1 T U v2〉 = 〈Uad T U v2, v1〉 = 〈T U v2, U v1〉 = 〈v1, T v2〉 .

Für v2 = v1 = v, also v2 = v1 = v, folgt hieraus 〈v, U−1 T U v〉 = 〈v, T v〉. Da U bijektiv ist, folgt dieBehauptung. 2

6.9 Eigenwerte und Eigenvektoren

De�nition 6.9.1 Sei V Vektorraum über K. Ein λ ∈ K heiÿt ein Eigenwert eines EndomorphismusT ∈ L(V ), falls ein v ∈ V \ {0} existiert, für welches

T v = λ v (6.9.1)

ist. Jeder solche Vektor v heiÿt dann ein Eigenvektor von T zum Eigenwert λ. Die Menge aller v ∈ V ,einschlieÿlich des Nullvektors, welche die Gleichung (6.9.1) erfüllen, heiÿt der Eigenraum von T zumEigenwert λ. Beachte, dass die De�nition des Eigenraums formal auch sinnvoll ist, wenn λ kein Eigenwertvon T ist � dann allerdings besteht der Eigenraum nur aus dem Nullvektor. Ein Endomorphismus T heiÿtdiagonalisierbar, falls es eine Basis von V gibt, welche aus Eigenvektoren von T besteht.

Bemerkung 6.9.2 Genau dann ist λ Eigenwert eines Endomorphismus T , wenn die Abbildung T −λ idnicht injektiv ist; dabei soll id die identische Abbildung auf V sein, also id v = v für alle v ∈ V erfüllen.Der Eigenraum von T zum Eigenwert λ ist also genau der Kern der Abildung T − λ id. In aufbauendenVorlesungen, z. B. über Funktionalanalysis, nennt man λ einen Spektralwert von T , wenn T −λ id nichtbijektiv ist. Also ist ein Eigenwert immer auch Spektralwert, aber im Allgemeinen gilt die Umkehrungnicht. Wegen Aufgabe 6.4.2 gilt aber:

Wenn V endlich-dimensional ist, dann ist jeder Spektralwert auch ein Eigenwert.

Aufgabe 6.9.3 Sei V Vektorraum über K, und sei T ∈ L(V ) bijektiv, also ein Isomorphismus. Zeige:Genau dann ist λ ∈ K ein Eigenwert von T , wenn λ−1 ein Eigenwert von T−1 ist. Insbesondere ist λ = 0niemals Eigenwert einer injektiven Abbildung.

Proposition 6.9.4 Sei T ein Endomorphismus eines Vektorraumes V über K, und sei (vj , j ∈ J) einSystem von Eigenvektoren von T zu paarweise verschiedenen Eigenwerten λj; genauer gelte

∀ j ∈ J : T vj = λj vj , ∀ j, k ∈ J :(j 6= k =⇒ λj 6= λk

).

Dann ist das System (vj , j ∈ J) linear unabhängig.

63

Page 64: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Für den Beweis genügt es wegen Aufgabe 1.4.5, ein endliches System (v1, . . . , vn) zu betrachten,und wir geben den Beweis durch Induktion über n. Für n = 1 ist die Behauptung klar, da ein Eigenvektornie der Nullvektor ist. Sei jetzt also n ≥ 2, und seien α1, . . . , αn ∈ K so, dass

∑nk=1 αk vk = 0 ist. Dann

folgt 0 = T (0) =∑nk=1 αk T (vk) =

∑nk=1 αk λk vk. Durch Kombination dieser Gleichungen folgt

0 =( n∑k=1

αk λk vk

)− λn

( n∑k=1

αk vk

)=

n−1∑k=1

αk(λk − λn

)vk .

Wegen der Induktionshypothese ist das System (v1, . . . , vn−1) linear unabhängig, und daher folgt 0 =αk(λk − λn

)für 1 ≤ k ≤ n− 1. Nach Voraussetzung ist λk 6= λn für k ≤ n− 1, und somit folgt 0 = αk

für k ≤ n− 1. Dann ist aber αn vn = 0, woraus wegen vn 6= 0 folgt, dass auch αn = 0 ist. 2

Satz 6.9.5 Sei T ein Endomorphismus eines Raumes V mit Skalarprodukt.

(a) Wenn T längentreu ist, so ist |λ| = 1 für alle Eigenwerte λ von T .

(b) Wenn T selbstadjungiert ist, dann sind alle Eigenwerte von T reell, und Eigenvektoren zu verschie-denen Eigenwerten sind orthogonal zueinander.

(c) Wenn T positiv bzw. negativ de�nit ist, dann sind alle Eigenwerte von T positiv bzw. negativ, wenn Tpositiv bzw. negativ semide�nit ist, dann sind alle Eigenwerte von T nichtnegativ bzw. nichtpositiv.

(d) Wenn T einen positiven und einen negativen Eigenwert hat, dann ist T inde�nit.

(e) Wenn T normal und v ein Eigenvektor von T zum Eigenwert λ ist, dann ist v auch Eigenvektorvon T ad zum Eigenwert λ. Auÿerdem stehen Eigenvektoren zu verschiedenen Eigenwerten sindorthogonal zueinander.

Beweis: Aus T v = λ v folgt ‖T v‖ = |λ| ‖v‖, und daraus folgt (a). Zu (b): Aus (6.6.1) folgt für einselbstadjungiertes T die Gleichung 〈T v1, v2〉 = 〈v1, T v2〉 für alle v1, v2 ∈ V . Wenn T v = λ v ist, folgtλ 〈v, v〉 = 〈v, λv〉 = 〈v, T v〉 = 〈T v, v〉 = λ 〈v, v〉, und da 〈v, v〉 = ‖v‖2 6= 0 ist, folgt hieraus λ = λ, alsoλ ∈ R. Sei jetzt T vj = λj vj für j = 1 und j = 2. Dann folgt (da ja λj ∈ R sein muss)

(λ1 − λ2) 〈v1, v2〉 = 〈λ1 v1, v2〉 − 〈v1, λ2 v2〉 = 〈T v1, v2〉 − 〈v1, T v2〉 .

Da T selbstadjungiert ist, verschwindet die rechte Seite dieser Gleichung, und falls λ1 6= λ2 ist, folgt〈v1, v2〉 = 0. Zu (c),(d): Folgt aus der jeweiligen De�nition und der Gleichung λ ‖v‖2 = λ 〈v, v〉 = 〈v, T v〉für jeden Eigenvektor v zum Eigenwert λ. Zu (e): Wenn T normal ist, dann zeigt man mit Aufgabe 6.6.5,dass auch T − λ id normal ist, denn (T − λ id)ad = T ad − λ id, und die identische Abbildung kommutiertmit jedem Endomorphismus. Deshalb reicht es, wenn wir den Fall λ = 0, also T v = 0, betrachten. Indiesem Fall gilt aber

〈T ad v, T ad v〉 = 〈v, T ◦T ad v〉 = 〈v, T ad◦T v〉 = 〈T v, T v〉 .

Daraus ergibt sich aber, dass T v = 0 ist genau wenn T ad v = 0 ausfällt. Sei jetzt wieder T vj = λj vj ,also auch T ad vj = λj vj für j = 1 und j = 2. Dann folgt (da jetzt die Eigenwerte nicht immer reell sind)

(λ1 − λ2) 〈v1, v2〉 = 〈λ1 v1, v2〉 − 〈v1, λ2 v2〉 = 〈T ad v1, v2〉 − 〈v1, T v2〉 .

Aus der De�nition der adjungierten Abbildung folgt aber dann dass die rechte Seite verschwindet. 2

64

Page 65: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 7

Lineare Abbildungen und Matrizen

In diesem Kapitel seien V und W immer endlich-dimensionale Vektorräume über K, und keiner vonbeiden habe die Dimension 0, also beide enthalten mehr als nur den Nullvektor.

7.1 Die Darstellungsmatrix

De�nition 7.1.1 Seien (v1, . . . , vn) bzw. (w1, . . . , wm) fest gewählte Basen von V bzw. W . Für jedelineare Abbildung T ∈ L(V,W ) gibt es eindeutig bestimmte Zahlen ajk ∈ K mit

T vk =

m∑j=1

ajk wj ∀ k = 1, . . . , n . (7.1.1)

Die hierdurch de�nierte Matrix A = [ajk] ∈ Km×n heiÿt die Darstellungsmatrix für T bezüglich dergewählten Basen (v1, . . . , vn) und (w1, . . . , wm).

Beispiel 7.1.2 Im Fall V = W , also für einen Endomorphismus T ∈ L(V ), ist es sinnvoll, wengleichauch nicht zwangsläu�g, wenn wir nur eine Basis (v1, . . . , vn) wählen, wenn also wj = vj ist für al-le j = 1, . . . , n. In dieser Situation ist die Darstellungsmatrix für die identische Abbildung gerade dieEinheitsmatrix. Für V = Kn und W = Km de�niert jede Matrix A ∈ Km×n eine lineare Abbildungx 7−→ Ax zwischen diesen Räumen. Wählt man in beiden Räumen die kanonischen Basen, so ist dieDarstellungsmatrix dieser Abbildung gleich A.

Aufgabe 7.1.3 Zeige: Ein Endomorphismus T ∈ L(V ) ist genau dann diagonalisierbar, wenn es eineBasis von V gibt, bezüglich der die Darstellungsmatrix von T diagonal ist.

Aufgabe 7.1.4 Sei V = W = Kn[t] der Raum der Polynome vom Grad ≤ n mit Koe�zienten in K,und sei T p = p ′, die Ableitung von p, für p ∈ Kn[t]. Finde die Darstellungsmatrix von T bezüglich derkanonischen Basis der Monome.

Satz 7.1.5 Seien (v1, . . . , vn) bzw. (w1, . . . , wm) fest gewählte Basen von V bzw. W . Für jede lineareAbbildung T ∈ L(V,W ) sei A = AT = [ajk] die Darstellungsmatrix bezüglich dieser Basen. Dann istdie Zuordnung T 7−→ AT ein Isomorphismus von L(V,W ) auf Km×n, und für v =

∑nk=1 αk vk sowie

w =∑mj=1 βj wj gilt T v = w genau dann, wenn

βj =

n∑k=1

ajk αk ∀ j = 1, . . . ,m .

65

Page 66: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Nach Satz 6.3.1 gibt es zu jedem A ∈ Km×n ein T ∈ L(V,W ) mit (7.1.1), und deshalb istdie Zuordnung T 7−→ AT surjektiv. Sind T1, T2 ∈ L(V,W ) mit Darstellungsmatrizen A1 und A2, undsind α1, α2 ∈ K, so gilt (α1 T1 + α2 T2) vk = α1 T1 v1 + α2 T2 vk für alle k = 1, . . . , n, und daher istα1A1 + α2A2 die Darstellungsmatrix zu α1 T1 + α2 T2. Also ist die Zuordnung T 7−→ AT linear. WegendimL(V,W ) = dimKm×n = nm folgt mit Aufgabe 6.4.2, dass die Abbildung T 7−→ AT auch injektivsein muss. Der Rest des Beweises ist Inhalt der nächsten Übungsaufgabe. 2

Aufgabe 7.1.6 Zeige unter den Voraussetzungen und mit den Bezeichnungen des obigen Satzes: Istv =

∑nk=1 αk vk und T v =

∑mj=1 βj wj, so folgt βj =

∑nk=1 ajk αk, für j = 1, . . . ,m.

Bemerkung 7.1.7 (Kommutatives Diagramm) Den Inhalt des obigen Satzes kann man sich am bes-ten folgendermaÿen einprägen: Nach Wahl der beiden Basen von V und W betrachten wir die beidenkanonischen Isomorphismen φn : V −→ Kn und φm : W −→ Km, die jedem Vektor v =

∑nk=1 αk vk und

w =∑mj=1 βj wj ihre Koordinatenvektoren φn(v) = (α1, . . . , αn)T und φm(w) = (β1, . . . , βm)T zuweisen.

Die Darstellungsmatrix A bildet Kn nach Km ab, und es gilt

Aφn(v) = φm(T v) ∀ v ∈ V .

Dies wird auch durch folgendes kommutatives Diagramm veranschaulicht:

VT−→ W

φn

y y φm

Rn A−→ Rm

Beachte aber unbedingt, dass die Matrix A und auch die kanonischen Isomorphismen erst nach Wahl derbeiden Basen in V und W festliegen; wie diese Gröÿen sich bei Basiswechsel verändern, wird noch zuuntersuchen sein.

Satz 7.1.8 Seien U, V,W drei endlich-dimensionale Vektorräume über K mit Basen (u1, . . . , ur) bzw.(v1, . . . , vn) bzw. (w1, . . . , wm). Seien weiter T1 ∈ L(U, V ), T2 ∈ L(V,W ) und T = T2◦T1. Wenn dannA1 = [a(1)

jk ] und A2 = [a(2)

jk ] die Darstellungsmatrizen zu T1 bzw. T2 sind, so ist die Darstellungmatrix zuT gleich dem Produkt A2A1, jeweils bezüglich der entsprechenden Basen.

Beweis: Nach De�nition der darstellenden Matrizen gilt

T1 uk =

n∑j=1

a(1)

jk vj (k = 1, . . . , r) , T2 vk =

m∑j=1

a(2)

jk wj (k = 1, . . . , n) .

Hieraus folgt sofort

T uk =

n∑ν=1

a(1)

νk T2 vν =

m∑j=1

( n∑ν=1

a(1)

jν a(2)

νk

)wj (1 ≤ k ≤ r) .

Dies ist die Behauptung. 2

Korollar zu Satz 7.1.8 Seien V und W Vektorräume über K mit derselben, endlichen, Dimensionn ∈ N, und seien (v1, . . . , vn) bzw. (w1, . . . , wn) fest gewählte Basen von V bzw.W . Eine lineare AbbildungT ∈ L(V,W ) ist genau dann ein Isomorphismus, wenn ihre Darstellungsmatrix A invertierbar ist, und dieDarstellungsmatrix zu T−1 ∈ L(W,V ) bzgl. der Basen (w1, . . . , wn) und (v1, . . . , vn) ist gleich A−1.

Beweis: Sei T ein Isomorphismus, und sei die Darstellungsmatrix von T−1 mit B bezeichnet. Wegenvk = T−1(T vk) für alle k = 1, . . . , n folgt dann, dass die Darstellungmatrix zu T−1◦T die Einheitsmatrixsein muss, und deshalb folgt mit Satz 7.1.8 die Gleichung BA = I. Also ist A invertierbar und B = A−1.Umgekehrt, wenn A invertierbar ist, und wenn T ∈ L(W,V ) die Darstellungsmatrix A−1 hat, so folgtT (T vk) = vk für alle k = 1, . . . , n. Daraus folgt aber, dass T bijektiv und T = T−1 sein muss. 2

66

Page 67: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

7.2 Basiswechsel

Lemma 7.2.1 Sei V ein n-dimensionaler Vektorraum über K, und sei das System (v1, . . . , vn) eineBasis von V . Für ein B = [bjk] ∈ Kn×n seien vk =

∑nj=1 bjk vj für k = 1, . . . , n gesetzt. Genau dann ist

(v1, . . . , vn) ebenfalls Basis von V , wenn B invertierbar ist.

Beweis: Es ist 0 =∑nk=1 λk vk =

∑nj=1

(∑nk=1 bjk λk

)vj genau dann wenn

∑nk=1 bjk λk = 0 ist für alle

j = 1, . . . , n. Dies bedeutet, dass die Linearkombination der Spalten von B mit den Koe�zienten λk denNullvektor ergibt. Die Invertierbarkeit von B ist gleichbedeutend mit der linearen Unabhängigkeit derSpalten von B, und dies ist somit dasselbe wie die lineare Unabhängigkeit von (v1, . . . , vn). 2

Satz 7.2.2 (Basiswechsel) Seien V und W zwei endlich-dimensionale Vektorräume über K, und seien(v1, . . . , vn) und (v1, . . . , vn) zwei Basen von V , sowie (w1, . . . , wm) und (w1, . . . , wm) zwei Basen vonW . Seien B = [bjk] ∈ Kn×n bzw. C = [cjk] ∈ Km×m so, dass

vk =

n∑j=1

bjk vj (1 ≤ k ≤ n) , wk =

m∑j=1

cjk wj (1 ≤ k ≤ m) . (7.2.1)

Schlieÿlich sei T ∈ L(V,W ), und A bzw. A seien die Darstellungsmatrizen zu T , einmal bezüglich(v1, . . . , vn) und (w1, . . . , wm), sowie zum anderen bezüglich (v1, . . . , vn) und (w1, . . . , wm). Dann gilt

A = C−1AB .

Beweis: Nach De�nition der Darstellungsmatrizen gilt T vk =∑mj=1 ajk wj , T vk =

∑mj=1 ajk wj , jeweils

für k = 1, . . . , n. Einsetzen von (7.2.1) ergibt die Gleichung

m∑j=1

( n∑ν=1

ajν bνk

)wj =

m∑j=1

( m∑µ=1

cjµ aµk

)wj ∀ k = 1, . . . , n .

Bringt man beide Summen auf eine Seite, so folgt unter Benutzung der linearen Unabhängigkeit von(w1, . . . , wm), dass 0 =

∑nν=1 ajν bνk −

∑mµ=1 cjµ aµk ist für alle j = 1, . . . ,m und k = 1, . . . , n. Dies ist

die Behauptung. 2

De�nition 7.2.3 Nach dem Satz vom Basiswechsel sind die beiden Darstellungsmatrizen derselben li-nearen Abbildung zu verschiedenen Paaren von Basen von V und W zueinander äquivalent. Umgekehrtfolgt mit Lemma 7.2.1, dass mit einer Darstellungsmatrix von T auch jede zu dieser äquivalente Matrixeine Darstellungsmatrix zu anderen Basen ist. Wir sagen deshalb: Die Darstellungsmatrix einer linearenAbbildungen zwischen endlich-dimensionalen Vektorräumen ist bis auf Äquivalenz eindeutig bestimmt.

7.3 Ähnliche Matrizen

Wie schon früher gesagt, kann man bei Endomorphismen T ∈ L(V ) sinnvollerweise nur eine Basis, nämlichdie in V , wählen, um die Darstellungsmatrix von T zu vereinfachen. Dies führt zu folgendem Begri� derÄhnlichkeit von Matrizen:

De�nition 7.3.1 Matrizen A, A ∈ Kn×n heiÿen ähnlich zueinander, wenn es eine invertierbare MatrixB ∈ Kn×n gibt, für die

A = B−1AB .

67

Page 68: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 7.3.2 (Ähnliche Matrizen mit MAPLE) MAPLE kann prüfen, ob Matrizen ähnlich sind.Überprüfe dies an Hand der Kommandos

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);

> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);

> IsSimilar(A,B);

Was hier genau geschieht, und wie man auch �zu Fuÿ� die Ähnlichkeit von Matrizen zeigen oder widerlegenkann, wird erst später klarer werden.

Aufgabe 7.3.3 Zeige, dass der Begri� der Ähnlichkeit eine Äquivalenzrelation auf Kn×n darstellt. Zeigeweiter, dass ähnliche Matrizen immer dieselbe Determinante haben.

Als einfache Folgerung aus dem Satz vom Basiswechsel im letzten Abschnitt erhalten wir das analogeResultat für Endomorphismen:

Satz 7.3.4 (Basiswechsel bei Endomorphismen)Sei V ein endlich-dimensionaler Vektorraum über K, und seien (v1, . . . , vn) und (v1, . . . , vn) zwei Basenvon V . Sei B = [bjk] ∈ Kn×n so, dass

vk =

n∑j=1

bjk vj (1 ≤ k ≤ n) . (7.3.1)

Schlieÿlich sei T ∈ L(V ), und A bzw. A seien die Darstellungsmatrizen zu T , einmal bezüglich (v1, . . . , vn),sowie zum anderen bezüglich (v1, . . . , vn). Dann gilt

A = B−1AB .

De�nition 7.3.5 (Determinante eines Endomorphismus) Ein Endomorphismus T ∈ L(V ), füreinen endlich-dimensionalen Raum V , hat zwar unterschiedliche Darstellungsmatrizen, aber alle Dar-stellungsmatrizen von T sind zueinander ähnlich und haben insbesondere dieselbe Determinante. Deshalbkönnen wir die Determinante von T als die Determinante einer der Darstellungsmatrizen von T de�nie-ren.

Aufgabe 7.3.6 Finde die Determinante des Endomorphismus p 7−→ p′ von Kn[t], n ∈ N0, in sich.

7.4 Hermitesche, normale und unitäre Matrizen

Satz 7.4.1 Gegeben seien endlich-dimensionale Räume V und W über K mit Skalarprodukten. Sei A ∈Km×n die Darstellungsmatrix für ein T ∈ L(V,W ) bzgl. zweier Orthonormalbasen (v1, . . . , vn) und(w1, . . . , wm) von V bzw. W . Dann hat die adjungierte Abbildung T ad die Darstellungsmatrix A

T

bzgl.der Basen (w1, . . . , wm) und (v1, . . . , vn).

68

Page 69: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Sei die Darstellungsmatrix von T ad mit B = [bjk] bezeichnet. Dann gilt nach De�nition derDarstellungsmatrizen für alle k = 1, . . . , n und ν = 1, . . . ,m

T vk =

m∑j=1

ajk wj , T ad wν =

n∑µ=1

bµν vµ .

Mit den Regeln für Skalarprodukte folgt dann 〈T ad wν , vk〉 =∑nµ=1 bµν 〈vµ, vk〉 = bkν , 〈wν , T vk〉 =∑m

j=1 ajk 〈wν , wj〉 = aνk, und aus (6.6.1) folgt die Behauptung. 2

De�nition 7.4.2 Eine Matrix A ∈ Kn×n heiÿt hermitesch, falls AT

= A ist. Im Fall K = R nennt maneine solche Matrix auch symmetrisch. Wir nennen A normale Matrix, wenn A

T

A = AAT

ist.

Aufgabe 7.4.3 Zeige, dass eine Diagonalmatrix immer normal ist. Zeige weiter, dass die Diagonalele-mente einer hermiteschen Matrix immer reelle Zahlen sind.

Korollar zu Satz 7.4.1 Sei V ein endlich-dimensionaler Raum mit Skalarprodukt. Genau dann istein Endomorphismus T ∈ L(V ) selbstadjungiert, wenn seine Darstellungsmatrix bezüglich irgendeinerOrthonormalbasis von V hermitesch ist. Weiter ist T genau dann normal, wenn seine Darstellungsmatrixbezüglich irgendeiner Orthonormalbasis von V normal ist.

De�nition 7.4.4 Eine Matrix A ∈ Kn×n heiÿt unitär, falls AT

A = I ist. Insbesondere ist eine unitäreMatrix invertierbar, und A−1 = A

T

. Im Fall K = R nennt man eine solche Matrix auch orthogonal.

Aufgabe 7.4.5 (MAPLE und unitäre Matrizen) Untersuche, ob MAPLE eine Matrix auf Ortho-gonalität und Unitarität prüfen kann.

Aufgabe 7.4.6 Sei A eine quadratische n-reihige Matrix, und sei in Kn das kanonische innere Produktbetrachtet. Zeige: Genau dann ist A unitär, wenn die Spalten von A ein Orthonormalsystem in Kn bilden.In welchem Sinn gilt dasselbe auch für die Zeilen? Zeige weiter: Ist A unitär, und ist y = Ax für einx ∈ Kn, so folgt ‖y‖2 = ‖x‖2, d. h., die Abbildung x 7−→ Ax ist längentreu.

Satz 7.4.7 Gegeben seien endlich-dimensionale Räume V und W über K mit Skalarprodukten, und sein = dimV = dimW ≥ 1. Sei A ∈ Kn×n die Darstellungsmatrix für ein T ∈ L(V,W ) bzgl. zweierOrthonormalbasen (v1, . . . , vn) und (w1, . . . , wn) von V bzw. W . Genau dann ist T längentreu, wenn Aunitär ist.

Beweis: Wenn T längentreu ist, folgt 〈T vj , T vk〉 = 〈vj , vk〉 = δjk für 1 ≤ j, k ≤ n. Wegen T vj =∑nν=1 aνj wν für j = 1, . . . , n folgt daraus

δjk =

n∑ν=1

n∑µ=1

aνj aµk ,

was die eine Richtung der Behauptung ist. Umgekehrt, sei A invertierbar und AT

= A−1. Dann folgtfür v =

∑nk=1 αkvj , also T v =

∑nj=1 βj wj mit βj =

∑nk=1 ajk αk: Wegen Aufgabe 5.4.1 ist ‖T v‖2 =∑n

j=1 |βj |2 und ‖v‖2 =∑nk=1 |αk|2, und aus Aufgabe 7.4.6 folgt ‖T v‖ = ‖v‖, also die Längentreue. 2

Aufgabe 7.4.8 Beweise folgendes Analogon zu Lemma 7.2.1:

69

Page 70: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Lemma 7.4.9 Sei V ein n-dimensionaler Vektorraum über K mit innerem Produkt, und sei das System(v1, . . . , vn) eine Orthonormalbasis von V . Für ein U = [ujk] ∈ Kn×n seien vk =

∑nj=1 ujk vj für k =

1, . . . , n gesetzt. Genau dann ist (v1, . . . , vn) ebenfalls Orthonormalbasis von V , wenn U unitär ist.

Aufgabe 7.4.10 Zeige: Wenn V ein endlich-dimensionaler Raum über K mit innerem Produkt ist, danngilt für jeden längentreuen Automorphismus von V immer |detT | = 1 gilt. Schlieÿe hieraus für den FallK = R, dass es zwei Arten von längentreuen Automorphismen gibt, und vergleiche dies mit Abschnitt 9.2.

7.5 Charakteristisches Polynom

De�nition 7.5.1 Für A ∈ Kn×n heiÿt

pA(t) = det(A− t I) (7.5.1)

das charakteristische Polynom der Matrix A. Aus der De�nition der Determinante folgt sofort, dass pAein Polynom n-ten Grades in der Veränderlichen t ist, und genauer gilt

pA(t) = (−1)n tn + (−1)n−1 tn−1 trA ± . . . + detA ,

wobei trA = a11 + . . .+ ann die sogenannte Spur von A bezeichnet.

Aufgabe 7.5.2 Zeige, dass ähnliche Matrizen immer das gleiche charakteristische Polynom haben.

Aufgabe 7.5.3 (MAPLE und charakteristische Polynome) Das charakteristische Polynom kannbei kleineren Matrizen leicht berechnet werden. Überprüfe dies an den Beispielen

A =

1 0 10 1 12 −1 1

, B =

1 1 20 1 10 1 1

.

Benutze hierzu auch die folgenden MAPLE-Kommandos:

> restart;

> with(LinearAlgebra);

> A := Matrix(3, 3, [ [1, 0, 1], [0, 1, 1], [2, -1, 1] ]);

> B := Matrix(3, 3, [ [1, 1, 2], [0, 1, 1], [0, 1, 1] ]);

> PA := CharacteristicPolynomial(A,t);

> factor(PA);

> PB := CharacteristicPolynomial(B,t);

> factor(PB);

Beachte aber, dass das von MAPLE berechnete charakteristische Polynom gleich det(t I − A) ist. Obman dieses oder das von uns benutzte Polynom vorzieht, ist Ansichtssache. Was bedeutet wohl das letzteKommando?

70

Page 71: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 7.5.4 Seien n ∈ N und a0, . . . , an−1 ∈ K. Finde das charakteristische Polynom der Matrix

A =

0 1 0 . . . 0 00 0 1 . . . 0 0...

......

......

0 0 0 . . . 1 00 0 0 . . . 0 1a0 a1 a2 . . . an−2 an−1

(7.5.2)

durch Entwicklung nach der letzten Zeile. Schlieÿe dann, dass es zu jedem p ∈ K[t] vom Grad n undmit höchstem Koe�zienten gleich (−1)n eine Matrix A ∈ Kn×n gibt, deren charakteristisches Polynomgerade gleich p ist.

Bemerkung 7.5.5 (Fundamentalsatz der Algebra) Ein Resultat, welches wir hier benutzen abernicht beweisen wollen, ist das folgende:

• Jedes nicht konstante Polynom p ∈ K[t] hat in dem Körper C der komplexen Zahlen mindestenseine Nullstelle.

Hat man eine Nullstelle λ eines Polynoms p gefunden, so kann man p in der Form

p(t) = (t− λ) q(t)

schreiben, wobei q wieder ein Polynom ist. Dieses ist entweder konstant oder hat selbst wieder eine Null-stelle. Iteriert man diese Schlussweise, so folgt die Darstellung

p(t) = a (t− λ1) · . . . · (t− λn) ,

wobei n der Grad des Polynoms p und a 6= 0 sein höchster Koe�zient ist. Die Werte λ1, . . . , λn sind,nicht notwendigerweise verschiedene, komplexe Zahlen. Wenn unter den Zahlen λ1, . . . , λn eine Zahl λgenau s-mal auftritt, dann heiÿt s die Vielfachheit der Nullstelle λ. Es gilt dann o�enbar

p(t) = (t− λ)s q(t)

mit einem Polynom q, für welches q(λ) 6= 0 ist. Die Vielfachheit s einer Nullstelle λ erkennt man auchdaran, dass gilt:

0 = p(λ) = p′(λ) = . . . = p(s−1)(λ) , p(s)(λ) 6= 0 .

Es ist wichtig zu beachten, dass die Nullstellen eines Polynoms alle oder teilweise nicht-reell sein können,selbst wenn K = R ist, d. h., wenn die Koe�zienten des Polynoms reell sind. Es gilt aber folgendeAussage:

• Wenn p ∈ R[t] ist, also reelle Koe�zienten hat, dann ist für jede Nullstelle λ auch die konjugiertkomplexe Zahl λ eine Nullstelle von p, und beide haben dieselbe Vielfachheit.

Somit treten die nicht-reellen Nullstellen eines p ∈ R[t] immer in Paaren von zueinander konjugiert-komplexen Zahlen auf.

Aufgabe 7.5.6 Zeige: Ein Polynom p ∈ R[t] mit ungeradem Grad hat mindestens eine reelle Nullstelle.

De�nition 7.5.7 Sei V ein endlich-dimensionaler Vektorraum über K. Wenn ein Endomorphismus T ∈L(V ) gegeben ist, hängt zwar seine Darstellungsmatrix, nicht aber deren charakteristisches Polynom, vonder Wahl einer Basis von V ab, und wir sprechen deshalb auch vom charakteristischen Polynom desEndomorphismus T und schreiben auch pT für dieses Polynom. Zur Berechnung dieses charakteristischenPolynoms müssen wir aber eine konkrete Basis von V �nden, dann die entsprechende Darstellungsmatrixbestimmen, und für diese pA berechnen.

71

Page 72: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 7.5.8 Berechne das charakteristische Polynom des Endomorphismus p 7−→ p′ von Kn[t], n ∈N0, in sich.

Satz 7.5.9 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) mit charakte-ristischem Polynom pT .

(a) Genau dann ist ein λ ∈ K Eigenwert von T , wenn pT (λ) = 0 ist.

(b) Ist (v1, . . . , vn) eine Basis von V , und ist A die Darstellungsmatrix von T zu dieser Basis, so istein v =

∑nk=1 αk vk ∈ V genau dann ein Eigenvektor von T zu einem Eigenwert λ ∈ K, wenn der

Vektor (α1, . . . , αn)T eine nicht-triviale Lösung des homogenen linearen Gleichungssystems(A − λ I

)x = 0 (7.5.3)

ist. Anders ausgedrückt liegt ein solches v genau dann im Eigenraum von T zum Eigenwert λ, wenn(α1, . . . , αn)T eine beliebige Lösung von (7.5.3) ist.

(c) Wenn das charakteristische Polynom n verschiedene Nullstellen in K hat, ist T diagonalisierbar.

(d) Wenn V ein Raum mit Skalarprodukt und T selbstadjungiert ist, dann sind alle Nullstellen descharakteristischen Polynoms von T reell.

Beweis: Genau wenn det(A − λ I) = 0 ist, besitzt (7.5.3) eine nicht-triviale Lösung, und daher folgt(a) aus (b). Zu (b): Nach Satz 7.1.5 gilt T v = w =

∑nk=1 βk vk genau dann, wenn a = (α1, . . . , αn)T

und b = (β1, . . . , βn)T die Gleichung b = Aa erfüllen. Also gilt T v = v genau dann, wenn Aa = agilt, d. h., wenn a die Gleichung (7.5.3) erfüllt. Aussage (c) folgt, da Eigenvektoren zu verschiedenenEigenwerten immer linear unabhängig sind. Zu (d): Sei A die Darstellungsmatrix von T bezüglich einerOrthogonalbasis von V . Dann ist x 7−→ Ax ein selbstadjungierter Endomorphismus in Cn, und jedeNullstelle des charakteristischen Polynoms ist ein Eigenwert dieses Endomorphismus. Mit Satz 6.9.5 folgtdie Behauptung. 2

Bemerkung 7.5.10 Beachte dass ein Eigenwert eines T ∈ L(V ) immer zum Skalarenkörper K gehö-ren muss. Das bedeutet, dass im Fall K = R ein Endomorphismus keinen Eigenwert zu haben braucht.Andererseits folgt aus dem Fundamentalsatz der Algebra, dass für K = C jeder Endomorphismus mindes-tens einen Eigenwert besitzt. In den Übungen und Klausuren zur Vorlesung wird meistens eine Matrixgegeben sein, deren Elemente reelle Zahlen sind. Wenn dann die Aufgabe lautet, deren Eigenwerte und Ei-genvektoren zu berechnen, sollen immer alle, d. h., auch die komplexen Nullstellen des charakteristischenPolynoms bestimmt und eine maximale Zahl von linear unabhängigen Lösungen von (7.5.3) gefundenwerden. Siehe dazu auch die folgenden Aufgaben.

Aufgabe 7.5.11 Finde alle Eigenwerte und Eigenvektoren der Matrizen

A =

1 0 10 1 12 −1 1

, B =

1 1 20 1 10 1 1

, C =

[1 01 1

].

Entscheide, ob die Matrizen als Endomorphismen in Kn diagonalisierbar sind.

Aufgabe 7.5.12 Sei A eine n-reihige quadratische Matrix, und sei pA(x) ihr charakteristisches Polynom.Seien λ1, , . . . , λn die Eigenwerte von A, also die Nullstellen von pA(x), wobei mehrfache Nullstellen auchmehrfach aufgeschrieben seien, so dass die Zahlen λ1, , . . . , λn nicht unbedingt alle verschieden sind. Zeige:

n∏k=1

λk = detA

n∑k=1

λk = trA .

72

Page 73: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

De�nition 7.5.13 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) mitcharakteristischem Polynom pT . Nach Satz 7.5.9 ist jede in K gelegene Nullstelle von pT ein Eigenwertvon T . Die Vielfachheit dieser Nullstelle heiÿt die algebraische Vielfachheit des Eigenwertes λ, und dieDimension des Eigenraumes zum Eigenwert λ, also die maximale Anzahl von linear unabhängigen Ei-genvektoren, heiÿt die geometrische Vielfachheit des Eigenwertes. Nach De�nition eines Eigenwertes istdie geometrische Vielfachheit immer ≥ 1. Zu jedem s ∈ N und jedem σ ∈ {1, . . . , s} �ndet man leichtEndomorphismen, die einen Eigenwert λ mit algebraischer Vielfachheit s und geometrischer Vielfachheitσ haben. Siehe dazu die nächste Aufgabe.

Aufgabe 7.5.14 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei (v1, . . . , vn) Basisvon V . Sei weiter 0 ≤ ν ≤ n− 1. Dann gibt es genau einen Endomorphismus T ∈ L(V ) mit

T vk =

{vk+1 (1 ≤ k ≤ ν) ,

0 (ν < k ≤ n) .

Berechne dessen Eigenwerte und ihre algebraischen und geometrischen Vielfachheiten.

Aufgabe 7.5.15 Berechne das charakteristische Polynom sowie alle Eigenwerte mit ihren jeweiligengeometrischen und algebraischen Vielfachhheiten für die Matrix

N =

0 1 0 . . . 0 00 0 1 . . . 0 0...

......

......

0 0 0 . . . 1 00 0 0 . . . 0 10 0 0 . . . 0 0

(7.5.4)

Vergleiche mit der vorangegangenen Aufgabe.

Satz 7.5.16 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ). Für jedenEigenwert λ von T ist die geometrische Vielfachheit höchstens gleich der algebraischen Vielfachheit.

Beweis: Sei (v1, . . . , vs) Basis des Eigenraums von T zum Eigenwert λ. Nach dem Basisergänzungssatzkönnen wir dieses System zu einer Basis (v1, . . . , vn) von V erweitern. Bezüglich dieser Basis hat dieDarstellungsmatrix A von T die Form

A = [λ e1, . . . , λ es, as+1, . . . , an]

wobei ek der k-te Einheitsvektor der kanonischen Basis von Kn und die aj ∈ Kn sind. Daraus folgt fürdas charakteristische Polynom pT :

pT (t) = det(A− t I) = (λ− t)s q(t) ,

mit

q(t) = det

as+1,s+1 − t as+1,s+2 . . . as+1,n−1 as+1,n

as+2,s+1 as+2,s+2 − t . . . as+2,n−1 as+2,n

......

......

an−1,s+1 an−1,s+2 . . . an−1,n−1 − t an−1,n

an,s+1 an,s+2 . . . an,n−1 ann − t

.

Daraus folgt, dass die algebraische Vielfachhheit des Eigenwertes mindestens s ist, und dies ist nachDe�nition die geometrische Vielfachhheit. 2

73

Page 74: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 7.5.17 Zeige: Ein Endomorphismus T ∈ L(V ) eines endlich-dimensionalen Vektorraumes Vüber K ist genau dann diagonalisierbar, wenn alle Nullstellen des charakteristischen Polynoms von T inK liegen und daher auch Eigenwerte von T sind, und wenn zusätzlich die geometrische Vielfachheit jedesEigenwertes gleich seiner algebraischen Vielfachheit ist.

Aufgabe 7.5.18 (Eigenwerte und Eigenvektoren mit MAPLE)Finde selber heraus, inwieweit MAPLE die Eigenwerte und Eigenvektoren einer Matrix berechnen kann.

74

Page 75: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 8

Normalformen und De�nitheit von

Matrizen

In diesem Kapitel sei V ein endlich-dimensionaler Vektorraum über K, und V enthalte nicht nur denNullvektor. Wir wollen untersuchen, wie die �einfachste Form� der Darstellungsmatrix eines gegebenenEndomorphismus von V aussieht. Da eine Darstellungsmatrix immer bis auf Ähnlichkeit bestimmt ist, istdies äquivalent zur Frage nach einer �einfachsten Form� einer quadratischen Matrix A unter Ähnlichkeit,oder genauer, nach einem möglichst einfachen Repräsentanten innerhalb jeder Ähnlichkeitsklasse vonMatrizen. Beachte, dass in vielen der folgenden Resultate vorausgesetzt wird, dass die Nullstellen descharakteristischen Polynoms eines Endomorphismus oder einer Matrix zu dem Skalarenkörper K gehören;diese Voraussetzung ist natürlich für den Fall K = C immer erfüllt.

8.1 Trigonalisierung

Satz 8.1.1 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ) so, dass alleNullstellen des charakteristischen Polynoms von T in K liegen. Dann gibt es eine Basis (v1, . . . , vn) vonV , bezüglich der die Darstellungsmatrix von T obere Dreiecksgestalt hat. Auf der Diagonalen dieser Dar-stellungsmatrix stehen dann die Eigenwerte von T entsprechend ihrer algebraischen Vielfachheit, und mankann sogar die Reihenfolge dieser Eigenwerte beliebig vorschreiben. Falls V ein Raum mit Skalarproduktist, kann zusätzlich (v1, . . . , vn) sogar als Orthonormalbasis gewählt werden.

Beweis: Für n = dimV = 1 ist nichts zu zeigen. Sei jetzt n ≥ 2, und sei der Satz für n − 1 schonbewiesen. Wir wählen einen beliebigen Eigenwert λ und dazu einen Eigenvektor v ∈ V von T . Nach demBasisergänzungssatz können wir (v1 = v) zu einer Basis (v1, . . . , vn) von V ergänzen, und im Fall dassV ein Skalarprodukt besitzt, kann dies sogar eine Orthonormalbasis sein. Die Darstellungsmatrix von Tbezüglich dieser Basis hat dann die Form

A =

λ a12 . . . a1n0 a22 . . . a2n...

......

0 an2 . . . ann

= A1 + A2 ,

75

Page 76: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

mit

A1 =

λ a12 . . . a1n0 0 . . . 0...

......

0 0 . . . 0

, A2 =

0 0 . . . 00 a22 . . . a2n...

......

0 an2 . . . ann

.

Wir de�nieren jetzt Endomorphismen T1 bzw. T2 gerade so, dass ihre Darstellungsmatrizen bezüglich dergewählten Basis gleich A1 bzw. A2 sind. Dann gilt T = T1+T2, und T2 bildet den RaumW = L(v2, . . . , vn)in sich ab. Das charakteristische Polynom von T hat die Form p(t) = (λ− t) q(t) mit q(t) = det(B − t I),wobei

B =

a22 . . . a2n...

...an2 . . . ann

.

Man erkennt aber, dass B gerade die Darstellungsmatrix von T2, als Abbildung von W in sich, bezüglichder Basis (v2, . . . , vn) ist. Daher gehören alle Nullstellen des charakteristischen Polynoms von T2 zu K, undwir können nach Induktionshypothese schlieÿen, dass es eine Basis, ja sogar eine Orthonormalbasis im Falleines Raums mit Skalarprodukt, (w2, . . . , wn) von W gibt, bezüglich der die Darstellungsmatrix von T2obere Dreiecksform hat, mit dem entsprechenden Zusatz für die Reihenfolge der Diagonalelemente. Dannist (v1, w2, . . . , wn) eine Basis von V und sogar Orthonormalbasis bei Vorliegen eines Skalarproduktes, daja v1 zu jedem Vektor ausW orthogonal ist. Die Form der Darstellungsmatrizen von T1 und T2 (wobei T2jetzt wieder als Abbildung von V in sich aufgefasst wird) hat sich bei diesem Basiswechsel nicht verändert,aber die für T2 hat weitere Nullen in allen Positionen unterhalb der Diagonalen. Zusmmengenommen zeigtdas, dass die Darstellungsmatrix von T bezüglich der neuen Basis obere Dreiecksform hat. 2

De�nition 8.1.2 Wir nennen zwei Matrizen A,B ∈ Kn×n unitär ähnlich, wenn es eine unitäre bzw.orthogonale Matrix U ∈ Kn×n gibt, für welche B = U

T

AU ist. Beachte, dass wegen U−1 = UT

dieMatrizen B und A dann auch ähnlich zueinander sind. Wegen Lemma 7.4.9 sind die Darstellungsmatrizeneines Endomorphismus bezüglicher zweier Orthonormalbasen immer unitär ähnlich.

Korollar zu Satz 8.1.1 (Schursches Lemma) Jede Matrix A ∈ Kn×n, für welche alle Nullstellen descharakteristischen Polynoms in K liegen, ist unitär ähnlich zu einer oberen Dreiecksmatrix.

Beweis: Die Matrix A ist die Darstellungsmatrix des Endomorphismus x 7−→ Ax bezüglich der ka-nonischen Basis in Kn. Diese ist eine Orthonormalbasis bezüglich des kanonischen Skalarproduktes inKn, und nach Satz 8.1.1 gibt es eine andere Orthonormalbasis in Kn, so dass die neue Darstellungsma-trix B ober Dreiecksgestalt hat. Nach Lemma 7.4.9 wird der Übergang von der kanonischen zur neuenOrthonormalbasis gerade von einer unitären Matrix bewirkt, und daraus folgt die Behauptung. 2

8.2 Der Satz von Cayley-Hamilton

De�nition 8.2.1 Sei V ein beliebiger Vektorraum über K, und sei T ∈ L(V ). Für eine natürliche Zahlk ∈ N de�nieren wir T k als die k-malige Hintereinanderausführung der Abbildung T . Setzt man nochT 0 gleich der identischen Abbildung, so können wir dann für jedes Polynom p(t) =

∑mk=0 pk t

k mitKoe�zienten pk ∈ K die Abbildung

p(T ) =

m∑k=0

pk Tk

bilden und stellen fest, dass p(T ) ∈ L(V ) ist. Wir erhalten somit für jedes feste T ∈ L(V ) eine Abbildungp 7−→ p(T ) von K[t] in L(V ), und es ist nicht schwer zu sehen, dass diese Abbildung linear ist. Sie istzusätzlich auch multiplikativ im Sinne der nächsten Aufgabe.

76

Page 77: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 8.2.2 Überprüfe folgende Rechenregel: Für Polynome p1, p1 ∈ K[t] und T ∈ L(V ) gilt immer

• p = p1 p2 =⇒ p(T ) = p1(T )◦p2(T ).

Bemerkung 8.2.3 Für eine Matrix A ∈ Kn×n de�niert man sinnvollerweise Ak als das k-fache Produktvon A mit sich selber und setzt A0 = I. Damit ist dann auch für jedes p ∈ K[t] eine Matrix p(A) ∈Kn×n de�niert. Wählt man in der Situation der obigen De�nition eine Basis von V , und ist dann A dieDarstellungmatrix von T , so folgt aus Satz 7.1.8, dass p(A) die Darstellungsmatrix von p(T ) ist.

Satz 8.2.4 (Cayley-Hamilton) Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈L(V ). Wenn p das charakteristische Polynom von T ist, dann folgt p(T ) = 0, wobei 0 die Nullabbildungin L(V ) bezeichnet.

Beweis: Wir unterscheiden zwei Fälle:

(a) Sei K = C. Dann können wir nach Satz 8.1.1 eine Basis (v1, . . . , vn) von V wählen, bezüglich der dieDarstellungsmatrix A = [ajk] von T obere Dreiecksform hat. In diesem Fall ist (7.1.1) äquivalent zu derBeziehung

(T − akk id) vk =

k−1∑j=1

ajk vj ∀ k = 1, . . . , n , (8.2.1)

wobei id wieder die identische Abbildung in V bedeutet. Für das charakteristische Polynom ergibt sichin diesem Fall die Darstellung

p(t) =

n∏k=1

(akk − t) .

Wir wollen nun durch Induktion beweisen, dass für jedes k = 1, . . . , n gilt(akk id− T

)◦ . . . ◦

(a11 id− T

)vj = 0 ∀ 1 ≤ j ≤ k . (8.2.2)

Für k = 1 folgt dies aus (8.2.1). Sei jetzt der Beweis für ein k ∈ {1, . . . , n− 1} schon geführt. Dann folgtjedenfalls durch Anwenden von

(ak+1,k+1 id− T

)auf beide Seiten von(8.2.2)(

ak+1,k+1 id− T)◦(akk id− T

)◦ . . . ◦

(a11 id− T

)vj = 0 ∀ 1 ≤ j ≤ k .

Also ist noch der Fall j = k+ 1 zu behandeln. In diesem Fall können wir benutzen, dass die Abbildungen(aνν id− T

)miteinander kommutieren, und deshalb folgt mit Hilfe von (8.2.1) und der Induktionshypo-

these (ak+1,k+1 id− T

)◦(akk id− T

)◦ . . . ◦

(a11 id− T

)vk+1 =(

akk id− T)◦ . . . ◦

(a11 id− T

)◦(ak+1,k+1 id− T

)vk+1 =

−(akk id− T

)◦ . . . ◦

(a11 id− T

) k∑j=1

aj,k+1 vj = 0 .

Also ist (8.2.2) auch für k+ 1, und deshalb für alle k = 1, . . . , n richtig. Wendet man dies an für den Fallk = n, so folgt p(T ) vj = 0 für alle j = 1, . . . , n. Da jedes v ∈ V eine Linearkombination der Basisvektorenvj ist, folgt daraus wiederum p(T ) v = 0 für alle v ∈ V , und das war zu zeigen.

(b) Sei jetzt K = R. Sei A die Darstellungsmatrix von T zu irgendeiner Basis von V . Dann ist x 7−→ Axein Endomorphismus von Cn mit dem gleichen charakteristischen Polynom p wie T . Aus (a) folgt deshalbp(A) = 0, und da p(A) die Darstellungsmatrix von p(T ) ist, folgt hieraus wiederum p(T ) = 0. 2

77

Page 78: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

De�nition 8.2.5 (Minimalpolynom) Nach dem Satz von Cayley-Hamilton gibt es zu jedem Endomor-phismus T eines n-dimensionalen Vektorraums V , mit n ∈ N, ein nicht-triviales Polynom p, für welchesp(T ) = 0 ist. In der Menge aller dieser Polynome gibt es immer eines mit minimalem Grad und höchs-tem Koe�zienten 1; wie wir gleich zeigen, ist dieses Polynom durch T eindeutig festgelegt, und es heiÿtMinimalpolynom zu T .

Lemma 8.2.6 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K, und sei T ∈ L(V ). Dann gibtes ein Polynom p ∈ K[t] \ {0}, welches folgende beiden Eigenschaften hat:

(a) p(T ) = 0.

(b) Ist p1 ∈ K[t] so, dass p1(T ) = 0 ist, so gibt es ein q ∈ K[t] mit p1 = q p.

Das Polynom p ist durch diese beiden Eigenschaften bis auf einen konstanten Faktor eindeutig festgelegtund hat unter allen p1 ∈ K[t] \ {0} mit der Eigenschaft p1(T ) = 0 den kleinsten Grad.

Beweis: Aus dem Satz von Cayley-Hamilton folgt die Existenz von Polynomen p ∈ K[t] \ {0} mitp(T ) = 0, und unter allen diesen wählen wir ein p mit minimalem Grad. Ist p1 irgendein Polynom inK[t], so gibt es immer q, r ∈ K[t], für welche p1 = q p+ r gilt, wobei r entweder das Nullpolynom ist odereinen echt kleineren Grad als p besitzt. Wenn dann auch p1(T ) = 0 ist, folgt r(T ) = 0, woraus folgt dassr tatsächlich das Nullpolynom ist, denn sonst ergäbe sich ein Widerspruch zur Wahl von p. Also sind (a)und (b) erfüllt. Die Eindeutigkeit von p folgt aber ebenfalls, denn wenn p1 und p denselben Grad haben,muss in (b) q konstant sein. 2

Aufgabe 8.2.7 (Minimalpolynom und MAPLE) Finde heraus, wie man mit MAPLE Minimalpo-lynome berechnen kann.

Aufgabe 8.2.8 (Nullstellen des Minimalpolynoms) Zeige, dass das Minimalpolynom eines Endo-morphismus genau die gleichen Nullstellen wie sein charakteristisches Polynom hat, allerdings im Allge-meinen mit geringerer Vielfachheit. Gib Beispiele von n× n- Matrizen an, für die das Minimalpolynomersten Grades ist.

Aufgabe 8.2.9 (Nilpotente Abbildungen) Man nennt einen Endomorphismus T ∈ L(V ) nilpotent,falls ein n ∈ N existiert, für welches Tn = 0 ist. Das kleinste n ∈ N0 mit Tn = 0 heiÿt auch derNilpotenzgrad von T . Bestimme für endlich-dimensionales V das charakteristische Polynom sowie dieForm des Minimalpolynoms eines nilpotenten Endomorphismus.

8.3 Hauptachsentransformation

Satz 8.3.1 (Satz von der Hauptachsentransformation) Sei n ∈ N, sei V ein n-dimensionaler Vek-torraum über K mit Skalarprodukt, und sei T ∈ L(V ) selbstadjungiert. Dann gibt es eine Orthonormalbasisin V , bezüglich der die Darstellungsmatrix von T diagonal ist. Anders ausgedrückt heiÿt das: Es gibt eineOrthonormalbasis von V , die aus Eigenvektoren von T besteht.

Beweis: Nach Satz 7.5.9 (d) sind alle Nullstellen des charakteristischen Polynoms von T reell, also sicherin K. Daher kann Satz 8.1.1 angewandt werden und sichert, dass eine Orthonormalbasis von V existiert,bezüglich der die Darstellungsmatrix von T obere Dreiecksform hat. Nach dem Korollar zu Satz 7.4.1ist aber diese Darstellungsmatrix hermitesch. Die einzigen hermiteschen Dreiecksmatrizen sind aber dieDiagonalmatrizen. Das ist die Behauptung. 2

78

Page 79: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

De�nition 8.3.2 Wir nennen eine Matrix A ∈ Kn×n unitär diagonalisierbar, wenn es eine unitäre bzw.orthogonale Matrix U ∈ Kn×n gibt, für welche B = U

T

AU diagonal ist.

Korollar zu Satz 8.3.1 Jede hermitesche Matrix A ist unitär diagonalisierbar. Genauer: Ist n ∈ N,und ist A ∈ Kn×n hermitesch, so gibt es eine unitäre Matrix U ∈ Kn×n und eine Diagonalmatrix Λ, fürwelche

AU = U Λ

ist. Die Diagonalelemente von Λ sind gerade die Eigenwerte von A, und die Spalten von U sind dieEigenvektoren von A, in der zu den Diagonalelementen von Λ passenden Reihenfolge.

Beweis: Die Abbildung x 7−→ Ax ist ein selbstadjungierter Endomorphismus in Kn, und damit folgtdie Behauptung aus dem Satz von der Hauptachsentransformation. 2

Aufgabe 8.3.3 Berechne ein System von 3 orthonormalen Eigenvektoren zur Matrix

A =

1 0 10 1 11 1 1

.

8.4 Diagonalisierung normaler Endomorphismen

Satz 8.4.1 Sei n ∈ N, sei V ein n-dimensionaler Vektorraum über K mit Skalarprodukt, und sei T ∈L(V ). Dann sind folgende Aussagen äquivalent:

(a) T ist normal, und alle Nullstellen des charakteristischen Polynoms liegen in K.

(b) Es gibt eine Orthonormalbasis von V , die aus Eigenvektoren von T besteht.

Beweis: Wenn es eine Orthonormalbasis aus Eigenvektoren von T gibt, dann ist die zugehörige Darstel-lungsmatrix von T diagonal, und die Diagonalelemente sind gerade die Nullstellen des charakteristischenPolynoms, liegen also in K. Da jede Diagonalmatrix eine normale Matrix ist, folgt aus dem Korollar zuSatz 7.4.1 die Normalität von T . Also folgt (a) aus (b). Für die Umkehrung gehen wir induktiv vor: Fürn = 1 ist nichts zu zeigen. Sei jetzt n ≥ 2, und sei der Satz für n − 1 bewiesen. Sei v ein beliebigerEigenvektor von T zu einem Eigenwert λ, und sei U das orthogonale Komplement zu v, also die Mengealler u ∈ V mit 〈v, u〉 = 0. Dann gilt 〈v, T u〉 = 〈T ad v, u〉, und nach Satz 6.9.5 (e) folgt T ad v = λ v. Alsofolgt 〈v, T u〉 = 0 für alle u ∈ U , und somit bildet T den (n− 1)-dimensionalen Raum U in sich ab. NachInduktionshypothese gibt es also in U eine Orthonormalbasis aus Eigenvektoren von T , und diese kanndurch Hinzunahme von v (jedenfalls wenn man vorher noch v normiert, d. h., durch Multiplikation miteinem Faktor dafür sorgt, dass ‖v‖ = 1 ist) zu einer Orthonormalbasis von V erweitert werden. 2

Aufgabe 8.4.2 Zeige: Eine normale Matrix ist genau dann hermitesch, wenn alle Nullstellen ihres cha-rakteristischen Polynoms reelle Zahlen sind. Schlieÿe hieraus, dass der Satz über die Hauptachsentrans-formation aus Satz 8.4.1 folgt.

Korollar zu Satz 8.4.1 Eine Matrix A ∈ Cn×n ist genau dann normal, wenn sie unitär ähnlich zueiner Diagonalmatrix ist.

Beweis: Wenn A unitär änlich zu B ist, ist A genau dann normal, wenn B normal ist. Da Diagonalma-trizen immer normal sind, folgt die eine Richtung des Satzes. Wenn A eine normale Matrix ist, dann ist

79

Page 80: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

auch der Endomorphismus x 7−→ Ax normal in Cn, und nach Satz 8.4.1 gibt es eine Orthonormalbasisaus Eigenvektoren dieses Endomorphismus. Daraus ergibt sich die unitäre Ähnlichkeit von A zu einerDiagonalmatrix. 2

8.5 De�nite Matrizen

De�nition 8.5.1 Sei n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix. Die Funktion

qA(x) = xT Ax = 〈x,Ax〉 ∀ x ∈ Kn ,

wobei rechts das kanonische Skalarprodukt in Kn steht, heiÿt die zu A gehörige quadratische Form. Be-achte, dass die quadratische Form wegen Aufgabe 6.6.7 immer reell ist. Analog zu Abschnitt 6.8 nennenwir die Matrix A positiv semide�nit, falls qA(x) ≥ 0 für alle x ∈ Rn, und positiv de�nit, falls sogarqA(x) > 0 für alle x ∈ Rn \ {0} ist. Entsprechend heiÿt A negativ semide�nit bzw. negativ de�nit, falls−A positiv semide�nit bzw. positv de�nit ist. Schlieÿlich heiÿt A inde�nit, falls es weder positiv nochnegativ semide�nit ist, d. h., falls es x1, x2 ∈ Rn gibt mit qA(x1) < 0 und qA(x2) > 0.

Aufgabe 8.5.2 Zeige: Die Einheitsmatrix ist positiv de�nit; eine Diagonalmatrix ist genau dann positivde�nit bzw. semide�nit, wenn alle Diagonalelemente reell und positiv bzw. nicht-negativ sind. Finde selbstdie entsprechende Charakterisierung von negativ (semi)de�niten und inde�niten Diagonalmatrizen.

Aufgabe 8.5.3 (De�nitheit und MAPLE) Finde heraus, wie man mit dem Programm MAPLE dieDe�nitheitseigenschaft einer Matrix prüfen kann.

Satz 8.5.4 Sei n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix.

(a) Genau dann ist A positiv semide�nit, wenn alle Eigenwerte von A nicht-negativ sind.

(b) Genau dann ist A positiv de�nit, wenn alle Eigenwerte von A positiv sind.

(c) Genau dann ist A negativ semide�nit, wenn alle Eigenwerte von A nicht-positiv sind.

(d) Genau dann ist A negativ de�nit, wenn alle Eigenwerte von A negativ sind.

(e) Genau dann ist A inde�nit, wenn ein Eigenwert von A positiv und ein anderer negativ ist.

Beweis: Aus Satz 6.8.4 folgt, dass unitär ähnliche Matrizen die gleiche De�nitheitseigenschaft haben.Nach dem Satz über die Hauptachsentransformation ist A unitär ähnlich zu einer Diagonalmatrix, derenDiagonalelemente gerade die Eigenwerte von A sind. Daraus folgt mit Aufgabe 8.5.2 die Behauptung. 2

De�nition 8.5.5 Für eine Matrix A = [ajk] ∈ Kn×n heiÿen die Zahlen

det

a11 . . . a1k...

. . ....

ak1 . . . akk

∀ k = 1, . . . , n

die Hauptunterdeterminanten von A. Die Zahl k heiÿt dabei auch die Ordnung der Hauptunterdetermi-nante. Wenn wir zwei Zeilen von A und anschlieÿend die zwei Spalten von A mit den gleichen Nummernvertauschen, sprechen wir auch von einer simultanen Vertauschung von zwei Zeilen und Spalten von A.Die Hauptunterdeterminanten jeder Matrix B, die aus A durch endlich viele simultane Vertauschungenvon Zeilen und Spalten hervorgeht, heiÿen auch allgemeine Hauptunterdeterminanten von A. Anders aus-gedrückt sind die allgemeinen Hauptunterdeterminanten von A gleich den Determinanten der aus A durchStreichen von Zeilen und Spalten gleicher Nummern entstehenden Matrizen.

80

Page 81: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Satz 8.5.6 Sei n ∈ N, und sei A ∈ Kn×n eine hermitesche Matrix.

(a) Wenn A positiv de�nit ist, dann sind alle allgemeinen Hauptunterdeterminanten von A positiv;insbesondere sind also alle Diagonalelemente positiv.

(b) Wenn alle Hauptunterdeterminanten von A positiv sind, dann existiert genau eine obere Dreiecks-matrix B mit reellen und positiven Diagonalelementen, so dass

A = BT

B (8.5.1)

ist, und hieraus folgt qA(x) = ‖y‖2, mit y = B x, sodass A positiv de�nit ist.

Beweis: Sei A positiv de�nit. Für 1 ≤ k ≤ n sei Uk der Unterraum aller Vektoren x = (x1, . . . , xn)T ∈ Knmit xk+1 = . . . = xn = 0. Wenn wir die quadratische Form qA auf Uk einschränken, ergibt dies diequadratische Form auf Kk mit der Matrix

Ak =

a11 . . . a1k...

. . ....

ak1 . . . akk

,und diese Matrix muss daher auch positiv de�nit sein. Nach Satz 8.5.4 müssen also alle Eigenwerte vonAk positiv sein, und nach Aufgabe 7.5.12 folgt hieraus detAk > 0. Eine simultane Vertauschung vonZeilen und Spalten von A ist gleichwertig zu einer Umnumerierung der Variablen xk und ändert nichtsan der positiven De�nitheit von A. Damit ist (a) bewiesen. Den Beweis von (b) führen wir induktiv: Fürn = 1 ist nichts zu zeigen, deshalb sei jetzt n ≥ 2 und der Beweis für Matrizen der Gröÿe (n−1)× (n−1)schon erbracht. Wir schreiben

A =

[An−1 aaT c

],

wobei wir die Tatsache ausnützen, dass A hermitesch ist. Nach Induktionshypothese gibt es genau eineobere Dreiecksmatrix Bn−1 mit reellen und positiven Diagonalelementen, so dass An−1 = B

T

n−1Bn−1. Esfolgt

qA(x) = yT C y , C =

[I b

bT

c

], y =

[Bn−1 0

0 1

]x ,

wobei b = (BT

n−1)−1 a ist. Mit dem Entwicklungssatz sieht man det C = c−bT b, und aus dem Determinan-tenmultiplikationssatz folgt dass A und C dieselbe Determinante haben. Also folgt aus der Voraussetzungdass detA = c− bT b > 0 ist, und wir setzen

d =

√c− bT b .

Daraus folgt aber jetzt

A = BT

B , B =

[Bn−1 b

0 d

].

O�enbar ist B obere Dreiecksmatrix mit positiv-reellen Diagonalelementen, und qA(x) = y y mit y = B x.Man erkennt auch leicht, dass dieses B durch A eindeutig bestimmt ist. Also gilt (b) auch für Matrizender Gröÿe n× n, was zu zeigen war. 2

De�nition 8.5.7 Nach dem vorausgegangenen Satz gibt es zu jeder positiv de�niten Matrix A genaueine obere Dreiecksmatrix B mit reell-positiven Diagonalelementen, für die (8.5.1) gilt. Man nennt diesauch die Cholesky-Zerlegung der Matrix A. Tatsächlich besteht ein gängiges numerisches Verfahren zurPrüfung einer Matrix auf positive De�nitheit in der Berechnung dieser Cholesky-Zerlegung.

Bemerkung 8.5.8 Wenn man von A zu −A übergeht, dann bleiben alle allgemeinen Hauptunterdeter-minanten mit gerader Ordnung erhalten, während die mit ungerader Ordnung ihr Vorzeichen wechseln.Daher kann man aus obigem Satz leicht Kriterien für negative De�nitheit ableiten.

81

Page 82: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Aufgabe 8.5.9 Untersuche die Matrizen aus Aufgabe 7.5.11 auf De�nitheit.

Aufgabe 8.5.10 Zeige für die Matrix

A =

[a bb c

], a, b, c ∈ R ,

folgende Aussagen:

• Genau dann ist A inde�nit, wenn a c < b2 ist.

• Genau dann ist A positiv de�nit, wenn a c > b2 und a > 0 ist.

• Genau dann ist A negativ de�nit, wenn a c > b2 und a < 0 ist.

Daraus folgt, dass A in allen anderen Fällen semide�nit ist.

82

Page 83: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Kapitel 9

Ergänzungen

9.1 Kegelschnitte

Als eine Anwendung der quadratischen Formen wollen wir kurz folgende Aufgabe studieren:

• Gegeben sei eine reelle symmetrische Matrix A = [ajk] ∈ R2×2, ein reeller Vektor b ∈ R2 sowie eineZahl c ∈ R. Untersuche die Lösungsmenge L ⊂ R2 der Gleichung

xT Ax + bT x + c = 0 . (9.1.1)

Ausgeschrieben lautet diese Gleichung, unter Beachtung von a21 = a12 wegen der Symmetrie vonA,

a11 x21 + 2 a12 x1 x2 + a22 x

22 + b1 x1 + b2 x2 + c = 0 .

Man sieht daran, dass es sich um die allgemeinste quadratische Gleichung in zwei Variablen x1, x2handelt.

Die Lösungsmenge einer solchen Gleichung ist, bis auf entartete Fälle, ein Kegelschnitt, d. h. die Schnitt-menge (in R3) einer Ebene mit einem Doppelkegel; darauf soll hier aber nicht eingegangen werden.

Zur Lösung der Aufgabe beachten wir, dass nach dem Satz über die Hauptachsentransformation eineorthogonale Matrix U ∈ R2×2 existiert, für welche Λ = UT AU eine Diagonalmatrix ist. Setzt manx = U y in (9.1.1) ein, und bezeichnet man den Vektor bT U der Einfachheit halber wieder mit bT , soerhält man die neue Gleichung

yT Λ y + bT y + c = 0.

Wir können o. B. d. A. noch annehmen, dass detU = 1 ist, denn sonst kann man zum Beispiel die ersteSpalte von U mit einem entsprechenden Faktor multiplizieren, was die Orthogonalität bzw. Invertierbar-keit von U nicht verändert (denn im Falle einer orthogonalen Matrix ist ja detU = 1 oder detU = −1).

Nach Aufgabe 6.7.6 ist die Abbildung x = U y im Fall einer orthogonalen Matrix U mit detU = 1 eineDrehung von R2, oder anders ausgedrückt, die Einführung eines neuen rechtwinkeligen Koordinatenys-tems, welches gegenüber dem vorigen verdreht ist. Aus diesem Grund genügt es für die Interpretationder Lösungsmenge, wenn wir im Folgenden annehmen, dass A von vorne herein eine Diagonalmatrix ist,sodass die Gleichung (9.1.1) die Form

a1 x21 + a2 x

22 + b1 x1 + b2 x2 + c = 0 .

Wir unterscheiden jetzt die folgenden grundsätzlich verschiedenen Fälle:

83

Page 84: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

1. Sei a1 a2 6= 0: Durch quadratische Ergänzung schreiben wir die Gleichung um in die Form

a1

(x1 +

b12 a1

)2+ a2

(x2 +

b22 a2

)2=

b214 a1

+b22

4 a2− c . (9.1.2)

Mit den Abkürzungen

x(0)

j = − bj2 aj

, λj =

√∣∣a−1j ∣∣ ∣∣∣ b214 a1+

b224 a2− c∣∣∣

für j = 1 und j = 2 ergeben sich folgende Unterfälle:

(a) Seien a1, a2 beide positiv: Dann ist die linke Seite von (9.1.2) immer positiv, und wir schlieÿen:

i. Falls c > b214 a1

+b224 a2

ist, ist die Lösungsmenge L der Gleichung leer.

ii. Falls c =b214 a1

+b224 a2

ist, ist L = {x0 = (x(0)

1 , x(0)

2 )T }.

iii. Falls c < b214 a1

+b224 a2

ist, bringen wir die Gleichung (9.1.2) auf die Form

(x1 − x(0)

1

λ1

)2+(x2 − x(0)

2

λ2

)2= 1 .

Daraus erkennt man, dass L geometrisch eine Ellipse mit Mittelpunkt x(0)

1 , x(0)

2 und ach-senparallelen Halbachsen λ1, λ2 ist. Falls λ1 = λ2 = 1 ist (was man mit Hilfe des Sylves-terschen Trägheitssatzes erreichen kann), handelt es sich o�enbar um einen Kreis mit demangegeben Mittelpunkt und dem Radius r = 1.

(b) Seien a1, a2 < 0: Diesen Unterfall kann man durch Multiplikation der Gleichung (9.1.2) mit−1 auf den ersten zurückführen.

(c) Seien a1 > 0 und a2 < 0: Dann kann die linke Seite von (9.1.2) sowohl positiv als auch negativwerden. In jedem Fall gibt es folgende Möglichkeiten:

i. Falls c =b214 a1

+b224 a2

ist, ist (9.1.2) äquivalent zu

x2 = x(0)

2 ± λ2λ1

(x1 − x(0)

1 ) ,

so dass L ein Paar von sich schneidenden Geraden ist.ii. Falls c > b21

4 a1+

b224 a2

ist, ist (9.1.2) äquivalent zu

(x1 − x(0)

1

λ1

)2−(x2 − x(0)

2

λ2

)2= −1 .

Damit ist L geometrisch ein Hyperbelpaar, welches nach unten bzw. oben geö�net ist.

iii. Falls c < b214 a1

+b224 a2

ist, können wir durch Vertauschen von x1 und x2, also geometrischdurch Spiegelung an der Geraden x2 = x1, aus dem vorangegangenen Fall ablesen, dass Lwieder ein Paar von Hyperbeln ist, die aber jetzt nach rechts bzw. links geö�net sind.

(d) Seien a1 < 0 und a2 > 0: Multiplikation mit −1 führt wieder auf den vorherigen Fall.

2. Sei a2 = 0, a1 6= 0: Division durch a1 erlaubt dann anzunehmen, dass a1 = 1 ist. Die Gleichungkann dann in der Form (

x1 + b1/2)2

+ b2 x2 = b21/4 − c

geschrieben werden. Es ergeben sich dann folgende Unterfälle:

(a) Sei b2 = 0: Dann ist L leer, falls c > b21/4 ist, und sonst ergeben sich für c = b21/4 eine und fürc < b21/4 zwei parallele Gerade.

(b) Sei b2 6= 0: Dann stellt L eine Parabel dar, die nach unten bzw. oben geö�net ist, wenn b2 > 0bzw. b2 < 0 ist.

84

Page 85: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

3. Sei a2 = 0, a1 6= 0: Vertauschen von x1 und x2 führt diesen auf den vorangegangenen Fall zurück.

4. Seien a1 = a2 = 0: Dann liegt eine lineare Gleichung vor, dessen Lösungsmenge L entweder leeroder eine Gerade ist.

Aufgabe 9.1.1 Drücke die oben aufgetretenen Fälle direkt durch die De�nitheitseigenschaften der Ma-trix A in (9.1.1) aus.

9.2 Drehungen und Spiegelungen

De�nition 9.2.1 Eine orthogonale Matrix U ∈ Rn×n erfüllt UT U = I, woraus mit dem Determinan-tenmultiplikationssatz folgt detU = ±1. Wenn detU = 1 ist, nennt man U eine Drehmatrix oder aucheinfach Drehung in Rn. Wenn dagegen detU = −1 ist, spricht man von einer Drehspiegelung.

Satz 9.2.2 Die Menge der unitären, der orthogonalen, sowie die Menge der Drehmatrizen sind Gruppenbezüglich der Matrixmultiplikation.

Beweis: Da für die Matrixmultiplikation immer ein Assoziativgesetz gilt, ist nur zu zeigen, dass dieEinheitsmatrix zu jeder der beiden Mengen gehört, und dass mit einer Matrix auch die inverse in derMenge ist. Dies ist aber klar wegen der De�nition der entsprechenden Matrizenmenge sowie dem Deter-minantenmultiplikationssatz. 2

Eine unitäre, und speziell eine orthogonale Matix ist immer normal, und deshalb nach Satz 8.4.1 unitärähnlich zu einer Diagonalmatrix. Dabei sind auch für orthogonale, also reelle Matrizen die Eigenwerteim Allgemeinen komplexe Zahlen vom Betrag 1. Interessanter, und relativ leicht zu beantworten, ist aberdie Frage nach einer Normalform einer orthogonalen Matrix bezüglich reell-unitärer, also orthogonalerÄhnlichkeit. Da orthogonale Matrizen die Darstellungsmatrizen von längentreuen Endomorphismen einesendlich-dimensionalen Vektorraumes über R sind, ist die Antwort auf diese Frage gleichwertig mit demfolgenden Satz:

Satz 9.2.3 Sei n ≥ 2, und sei V ein n-dimensionaler euklidischer Raum, also ein Raum über R mitSkalarprodukt. Sei weiter T ∈ L(V ) längentreu. Dann gibt es eine Orthonormalbasis (v1, . . . , vn) von V ,für welche die Darstellungsmatrix A von T die folgende Form hat:

A =

Ip 0 0 0 . . . 00 −Iq 0 0 . . . 00 0 A1 0 . . . 00 0 0 A2 . . . 0...

......

.... . .

...0 0 0 0 . . . Am

,

wobei Ip bzw. Iq Einheitsmatrizen vom Typ p× p bzw. q × q sind, während

Ak =

[cosφk sinφk

− sinφk cosφk

]∀ k = 1, . . . ,m ,

mit φk ∈ R. Dabei ist p+ q+ 2m = n, wobei auch p = 0 oder q = 0 oder m = 0 zugelassen sein soll, wasbedeutet dass die entsprechenden Matrizen nicht auftreten.

85

Page 86: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Beweis: Sei A zunächst die Darstellungsmatrix von T bezüglich irgendeiner Orthonormalbasis von V .Dann ist A eine orthogonale Matrix und somit auch normal, und deshalb gibt es nach Satz 8.4.1 eineunitäre Matrix U derart, dass U

T

AU = Λ eine Diagonalmatrix ist. Dabei sind die Diagonalelementevon Λ die Nullstellen des charakteristischen Polynoms von T , also eines Polynoms mit reellen Koe�zi-enten, und eine Nullstelle λ der Vielfachheit s tritt genau s-mal als ein Diagonalelement in Λ auf. DieseNullstellen können im Allgemeinen beliebige komplexe Zahlen vom Betrag 1 sein � allerdings ist mit je-der nicht-reellen Nullstelle auch die konjugiert-komplexe Zahl eine Nullstelle derselben Vielfachheit. DieSpalten uk der Matrix U bilden eine Orthonormalbasis von Cn und sind auÿerdem Eigenvektoren vonA, und durch Umnumerierung der Basisvektoren, also Vertauschen der Spalten von U , können wir einebeliebige Anordnung der Diagonalelemente von Λ erreichen. Wir gehen deshalb davon aus, dass entlangder Diagonalen von Λ zuerst die Zahl 1 und dann die Zahl −1, beide entsprechend ihrer Vielfachheit,auftreten, und danach die nicht-reellen Nullstellen folgen, wobei diese in Paaren von λ und der konjugiert-komplexen Zahl λ auftreten. Beachte, dass es natürlich möglich ist, dass alle Diagonalelemente von Λreell sind, oder dass die Zahl 1 oder −1 garnicht als Nullstelle auftritt.

Wenn p die Vielfachheit der Nullstelle λ = 1 des charakteristischen Polynoms von A bezeichnet, dannsind die ersten p Spalten von U gerade eine Basis des Eigenraums von A zum Eigenwert λ = 1. DieserEigenraum hat die Eigenschaft, dass mit u auch u zum Raum gehört, und deshalb gibt es nach Aufga-be 5.4.8 eine Orthonormalbasis aus lauter reellen Eigenvektoren. Also können wir o. B. d. A. annehmen,dass die ersten p Spalten von U reelle Vektoren sind. Analog schlieÿt man für die nächsten q Spalten vonU , welche ja eine Basis des Eigenraumes zum Eigenwert λ = −1 sind.

Sei jetzt λk das erste nicht-reelle Diagonalelement von A. Dann ist |λk| = 1, also λk = cosφk + i sinφk,mit einem φk ∈ R, und sinφk 6= 0. Wegen der gewählten Anordnung der Diagonalelemente von A istdann das nächste Diagonalelement von A gleich λk+1 = cosφk − i sinφk. Wenn (v1, . . . , vs) eine Ortho-normalbasis des Eigenraumes zu λk bilden, dann zeigt man leicht dass (v1, . . . , vs) eine Orthonormalbasisdes Eigenraumes zu λk = λk+1 ist. Daher können wir o. B. d. A. annehmen, dass uk+1 = uk ist. Wennman uk durch uk = (i

√2)−1(uk − uk−1) und uk+1 durch uk+1 = (

√2)−1(uk + uk−1) ersetzt, so kann

man überprüfen, dass die neuen, genau wie die alten, Spaltenvektoren eine Orthonormalbasis von Cnbilden; allerdings sind die neuen Spaltenvektoren uk und uk+1 jetzt reell geworden. Aus Auk = λk ukund Auk+1 = λk uk+1 folgt dann

A uk = cosφk uk + sinφk uk+1 , A uk+1 = − sinφk uk + cosφk uk+1 .

Also tritt in der Darstellungsmatrix von T bezüglich (u1, . . . , uk−1, uk, uk+1, uk+2, . . . , un) nach den 1-enund (−1)-en entlang der Diagonalen gerade ein Kästchen der Form Ak auf. Genauso kann man auch für dieübrigen Paare von konjugiert-komplexen Diagonalelementen schlieÿen. Dies ist, bis auf die Numerierungder Blöcke Ak, die Behauptung. 2

Aufgabe 9.2.4 Benütze den vorausgegangenen Satz, um für den Fall n = 3 zu zeigen, dass zu jedemlängentreuen Isomorphismus eines dreidimensionalen euklidischen Raumes V eine Orthonormalbasis vonV existiert, bezüglich der die Darstellungsmatrix A von T eine der folgenden beiden Formen hat:

A =

1 0 00 cosφ sinφ0 − sinφ cosφ

oder A =

−1 0 00 cosφ sinφ0 − sinφ cosφ

.

Im ersten Fall ist T also eine Drehung, im zweiten eine Drehspiegelung.

86

Page 87: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Literaturverzeichnis

[1] G. Fischer, Lineare Algebra. Eine Einführung für Studienanfänger, Vieweg Studium: GrundkursMathematik. Wiesbaden: Vieweg. x, 384 S., 2000.

[2] W. Gawronski, Grundlagen der Linearen Algebra. Studienbuch für Studierende der Mathematik,Informatik, Physik und anderer Naturwissenschaften ab dem 1. Semester, Studien-Text. Mathematik.Wiesbaden: Aula-Verlag. 413 S. DM 44.00 , 1996. 45

[3] H. Grauert und H.-C. Grunau, Lineare Algebra und analytische Geometrie, R. OldenbourgVerlag, Munich, 1999.

[4] W. Greub, Linear algebra, Graduate Texts in Mathematics, Bd. 23. New York - Heidelberg -Berlin:Springer-Verlag. XVII, 451 p., 5 Figs. DM 92.00; $ 42.90 , 4. Au�., 1981.

[5] J. Heinhold und B. Riedmueller, Lineare Algebra und Analytische Geometrie. Teil 2, München:Carl Hanser Verlag. VIII, 319 S. mit 47 Fig., 125 Beisp. und 137 Aufg. DM 44.00 , 1973.

[6] J. Heinhold und B. Riedmüller, Lineare Algebra und analytische Geometrie. Teil 1, München:Carl Hanser Verlag. VII, 215 S. mit 32 Figuren , 1971.

[7] K. Jänich, Lineare Algebra. 9. Au�., Springer-Lehrbuch. Berlin: Springer. xii, 271 S. EUR 19.95(D); sFr. 31.00 , 2002.

[8] H.-J. Kowalsky und G. O. Michler, Lineare Algebra. 10., völlig neu bearb. Au�., De GruyterLehrbuch. Berlin: de Gruyter. xiv, 399 p. DM 44.00 /pbk; DM 98.00 /hbk , 1995.

[9] R. Lingenberg, Lineare Algebra. Erster Teil einer Vorlesung. (B.I.-Hochschulskripten. 828/828a),Mannheim-Zürich: Bibliographisches Institut, XII, 161 S. , 1969.

[10] F. Lorenz, Lineare Algebra. I, Bibliographisches Institut, Mannheim, 2. Au�., 1988.

[11] , Lineare Algebra. II, Bibliographisches Institut, Mannheim, 2. Au�., 1989.

[12] U. Stammbach, Lineare Algebra. 4. durchges. Au�., Teubner Studienskripten: Mathematik. Stutt-gart: B. G. Teubner. 259 S., 1994.

87

Page 88: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Index

hermitesch, 69unitär, 61, 69

Abbildungadjungierte, 60duale, 59längen- und winkeltreue, 61längentreue, 61lineare, 54nilpotente, 78normale, 60orthogonale, 61selbstadjungierte, 60semilineare, 60unitäre, 61

abhängiglinear, 9

Abstand, 47adjungiert, 60Ähnlichkeit, 67

unitäre, 76algebraische Vielfachheit, 73algebraisches Komplement, 44Approximation, 52Äquivalenz

-klasse, 25-relation, 25von Matrizen, 24

Assoziativgesetzder Addition, 5der Multiplikation, 5

Austauschsatz, 14Automorphismus, 57

Basis, 11Orthogonal-, 50

Basisauswahlsatz, 13Basisergänzungssatz, 15Basiswechsel, 67

bei Endomorphismen, 68beste Approximation, 52Bild, 55Blockdreiecksmatrizen, 43

C[a, b], 6Cayley-Hamilton, 77charakteristisches Polynom, 70

eines Endomorphismus, 71Cholesky-Zerlegung, 81

Darstellungsmatrix, 65De�nitheit, 62, 80Determinanten, 39

-multiplikationssatz, 42Berechnung, 41Rechenregeln, 40von Blockdreiecksmatrizen, 43von Endomorphismen, 68

diagnonalisierbar, 63Diagonalelemente, 23diagonalisierbar, 79

unitär, 79Diagonalmatrix, 23Di�erenz

von Vektoren, 8Dimensionsformel, 55direkte Summe, 17Distributivgesetz, 5

allgemeines, 8Dreiecksmatrix, 23Dreiecksungleichung, 48duale Abbildung, 59Dualraum, 59

Eigen-raum, 63vektor, 63wert, 63

Einheitsmatrix, 23Einheitsvektor, 11endlich-dimensional, 13Endomorphismus, 54

de�niter, 62diagonalisierbarer, 63nilpotenter, 78normaler, 60selbstadjungierter, 60

Entwicklungssatz, 45erweiterte Matrix, 30Erzeugendensystem, 11euklidischer Vektorraum, 46

Fehlstand, 37

GL(n,K), 28

88

Page 89: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

Gauÿsches Elim.-Verf., 30, 41geometrische Vielfachheit, 73Gleichungssystem

lineares, 30homogenes, 30

Gram-Schmidtsches Orthog.-Verf., 50Gruppe, 35

symmetrische, 35Gruppenordnung, 35

Hauptachsentransformation, 78Hauptunterdeterm., 80Hilbertraum

Prä-, 46Hülle

lineare, 9

Inhomogenitätenvektor, 30inneres Produkt, 46Inversion, 37Isomorphismus, isomorph, 57

K[t], 6Kn, 6Kn[t], 6kanonische Basis, 11kanonischer Isomorphismus, 57Kern, 55Körper, 5Koe�zientenmatrix, 30Kommutatives Diagramm, 66Komplement

algebraisches, 44komplexer Raum, 5Komplexi�zierung, 16Koordinatenabbildung, 54Kronecker-Delta, 23

L(V,W ), 54L(vj , j ∈ J), 9`2, 49längen- und winkeltreu, 61längentreu, 61Lemma

von Schur, 76lineare

Abbildung, 54Hülle, 9Mannigfaltigkeit, 16Unabhängigkeit, 9endlich vieler Vektoren, 10

linearer Raum, 5normierter, 49

lineares Funktional, 59Linearform, 59Linearkombination, 9

endlich vieler Vektoren, 10

Matrix, 19erweiterte, 30Determinante einer, 39Diagonal-, 23Dreiecks-, 23hermitesche, 69nilpotente, 78normale, 69orthogonale, 69quadratische, 19(semi-)de�nite, 80symmetrische, 69transponierte, 23Typ einer, 19unitäre, 69

Matrizenähnliche, 67äquivalente, 24unitär ähnliche, 76

Minimalpolynom, 78Minor, 44Monom, 9Multiplikation

von Matrizen, 21

N, N0, 5nilpotent, 78Norm, 47, 49

Eigenschaften, 48normal, 60normale Matrix, 69Normalform

unter Äquivalenz, 26normierter Raum, 49Nullstelle, 71

Vielfachheit einer, 71

Ordnungeiner Gruppe, 35

Orthogonal-basis, 50-system, 50

orthogonal, 49, 61, 69orthogonale Projektion, 52orthogonales Komplement, 49Orthogonalisierung, 50Orthonormal

-basis, 50-system, 50

Parität, 37Permutation, 35

identische, 37Polynom, 6, 9

89

Page 90: Vorlesungsmanuskript zu Lineare Algebra I · (U2) 8v2U 8 2K : v 2U. Abstrakt ausgedrückt heiÿt das, dass die Restriktionen der Abbildungen + und von U Unach U abbilden. Satz 1.3.2

charakteristisches, 70Minimal-, 78

Prä-Hilbertraum, 46Produkt

von Permutationen, 35Projektion

orthogonale, 52

quadratische Form, 80

Raumdualer, 59euklidischer, 46linearer, 5mit Skalarprodukt, 46normierter, 49unitärer, 46

Rechenregelnfür adjungierte Abb., 60für das Vorz. e. Perm., 37für den Rang, 27für Determinanten, 40für die inverse Matrix, 29für Matrizen, 19, 23für Vektoren, 7

reeller Raum, 5Re�exivität, 25Repräsentant, 25

Sn, 35Sarrussche Regel, 39Satz

Austausch-, 14Basisauswahl-, 13Basisergänzungs-, 15vom Basiswechsel, 67von Cayley-Hamilton, 77von der besten Approx., 52von der Hauptachsentr., 78

Schursches Lemma, 76selbstadjungiert, 60semilinear, 60Signum

einer Permutation, 37Skalar, 5Skalarenkörper, 5Skalarprodukt, 46

kanonisches, 47Spalten, 19Spektralwert, 63Spur, 70Summe, 16Symmetrie, 25symmetrisch, 69symmetrische Gruppe, 35System, 9

leeres, 9Orthogonal-, 50Orthonormal-, 50

Teilraum, 8Teilsystem, 9trA, 70Transitivität, 25transponierte Matrix, 23Typ, 19

unabhängiglinear, 9

unendlich-dimensional, 13unitär ähnlich, 76unitärer Vektorraum, 46Unterraum, 8

trivialer, 8unverkürzbar, 12unverlängerbar, 12

Vektorraum, 5dualer, 59komplexer, 5normierter, 49reeller, 5

Vielfachheit, 71algebraische, 73geometrische, 73

Vorzeicheneiner Permutation, 37

Winkelzwischen Vektoren, 49

Zeilen, 19Zerlegung, 25Zykel, 36

90