algèbre linéaire - 2 année universitaire 2018-2019 ...pierre-emmanuel.chaput/documents/... ·...
TRANSCRIPT
2
Ce polycopié est très largement inspiré du polycopié utilisé par mon prédecesseur J.F. Gros-jean, que je remercie pour son travail de rédaction.
Table des matières
1 Déterminants 51.1 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Signature d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . . 8
1.3 Définition du déterminant et premières propriétés . . . . . . . . . . . . . . . . . . 111.3.1 Déterminant d’une famille de n-vecteurs . . . . . . . . . . . . . . . . . . . 111.3.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 121.3.3 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 141.3.4 Déterminant des matrices carrées 2× 2 . . . . . . . . . . . . . . . . . . . . 151.3.5 Matrices transposées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.3.6 Opérations sur les lignes et les colonnes . . . . . . . . . . . . . . . . . . . 17
1.4 Développement d’un déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.4.1 Cofacteurs et comatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.4.2 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.3 Matrices inverses et déterminant . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Réduction des endomorphismes 272.1 Sous-espaces propres et diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . 272.1.2 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.1.3 Endomorphismes et matrices diagonalisables . . . . . . . . . . . . . . . . . 322.1.4 Calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . 35
2.2 Trigonalisation et théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 352.2.1 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . 352.2.2 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 392.2.3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.3.1 Théorème de décomposition des noyaux . . . . . . . . . . . . . . . . . . . 42
3
4 TABLE DES MATIÈRES
2.3.2 Polynômes annulateurs, polynôme minimal . . . . . . . . . . . . . . . . . 432.4 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.5 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.5.1 Indice d’un endomorphisme et endomorphismes nilpotents . . . . . . . . . 502.5.2 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . 532.5.3 Décomposition de Dunford-Jordan . . . . . . . . . . . . . . . . . . . . . . 55
2.6 Applications et exemples : suites récurrentes . . . . . . . . . . . . . . . . . . . . . 572.6.1 Calcul des puissances d’un endomorphisme . . . . . . . . . . . . . . . . . 572.6.2 Une méthode de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . 582.6.3 Suites récurrentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3 Systèmes différentiels linéaires 633.1 Exponentielle d’une matrice ou d’un endomorphisme . . . . . . . . . . . . . . . . 63
3.1.1 Espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . 633.1.2 Norme sur l’espace des endomorphismes et sur les matrices . . . . . . . . 653.1.3 Dérivabilité et intégration des fonctions à variable réelle et à valeurs dans
un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.1.4 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Calcul pratique de l’exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . 723.3 Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . 74
3.3.1 Système différentiel linéaire homogène . . . . . . . . . . . . . . . . . . . . 753.3.2 Système différentiel linéaire non homogène . . . . . . . . . . . . . . . . . . 77
3.4 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Chapitre 1
Déterminants
1.1 Permutations
1.1.1 Définitions
Définition 1.1 Une permutation de l’ensemble Fn = {1, ..., n} est une bijection de Fn sur Fn.
On notera Sn l’ensemble des permutations.
Remarque 1.2 La donnée d’un élément σ de Sn est définie par les données successives deσ(1) ∈ Fn, σ(2) ∈ Fn \ {σ(1)}, · · · , σ(n) ∈ Fn \ {σ(1), · · · , σ(n− 1)}.
On en déduit que card (Sn) = n!.
Exercice de cours 1.1 Combien y a-t-il d’éléments dans S3 ? Donner la liste des éléments deS3.
Remarque 1.3 Sn muni de la loi de composition ◦ est un groupe. En effet ◦ est une loi interne.En effet si (σ, σ′) ∈ S2
n, alors σ ◦ σ′ ∈ Sn car la composée de deux bijections est une bijection.La loi ◦ est associative. En effet si (σ, σ′, σ′′) ∈ S3
n, alors on a évidemment (σ ◦ σ′) ◦ σ′′ =σ ◦ (σ′ ◦ σ′′).
L’application identité notée id (id(k) = k pour tout k ∈ Fn) est une permutation de Fn et estl’élément neutre pour ◦. Pour tout σ ∈ Sn on a σ ◦ Id = Id ◦ σ = σ.
Tout élément σ de Sn admet un inverse qui n’est rien d’autre que la bijection réciproque σ−1.
Définition 1.4 Sn muni de la loi ◦ s’appelle le groupe des permutations ou groupe sy-métrique.
Exemples de permutations: Soit F4 = {1, 2, 3, 4} et soit σ ∈ S4 définie par : σ(1) = 4,σ(2) = 3, σ(3) = 1 et σ(4) = 2. On écrira alors :
σ =
(1 2 3 44 3 1 2
)
5
6 CHAPITRE 1. DÉTERMINANTS
Définition 1.5 On suppose que n > 2. Pour tout (i, j) ∈ F 2n tel que i < j, on appelle transpo-
sition échangeant i et j et on note τij la permutation de Fn définie par τij(i) = j, τij(j) = i etτij(k) = k, pour tout k ∈ Fn \ {i, j}.
On écrira aussi τij = (i, j).
Exemple 1.6 τ =
(1 2 3 44 2 3 1
)est une transposition et on a τ = (1, 4).
Nous admettons maintenant le théorème suivant qui nous sera utile par la suite.
prod Théorème 1.7 Tout élément de Sn est produit de transpositions.
1.1.2 Signature d’une permutation
Définition 1.8 Soient σ ∈ Sn et (i, j) ∈ F 2n . On dit que le couple (i, j) présente une inversion
pour σ (ou est une inversion de σ) si : i < j et σ(i) > σ(j).
Le nombre d’inversions d’une permutation σ est noté `(σ).
perm-l5 Exemple 1.9 Considérons σ =
(1 2 3 44 3 1 2
). Les couples (1, 2), (1, 3), (1, 4), (2, 3), (2, 4),
sont des inversions de σ. En revanche (3, 4) n’est pas une inversion. Donc `(σ) = 5.
Remarque 1.10 La permutation Id ne possédant aucune inversion, on a `(Id) = 0.
Exercice de cours 1.2 Montrer que pour tout σ ∈ S4, on a `(σ) ≤ 6. Existe-t-il une permuta-tion σ ∈ S4 telle que `(σ) = 6 ? Les trouver toutes.
Exercice de cours 1.3 Soit σ la permutation de l’exempleperm-l51.9. Vérifier le Théorème
prod1.7 pour
σ en écrivant σ comme produit de cinq transpositions de la forme (i, i+ 1) avec i ∈ {1, 2, 3}.On pourra utiliser le fait que pour toute permutation σ′, si σ′(i) > σ′(i+1), alors `(σ′ ◦ (i, i+
1)) = `(σ′) − 1, et trouver ainsi des entiers i1, i2, i3, i4, i5 tels que `(σ ◦ (i1, i1 + 1)) = `(σ) − 1,`(σ ◦ (i1, i1 + 1) ◦ (i2, i2 + 1)) = `(σ ◦ (i1, i1 + 1)) − 1, et ainsi de suite. On observera alors queσ◦(i1, i1+1)◦(i2, i2+1)◦(i3, i3+1)◦(i4, i4+1)◦(i5, i5+1) est de longueur 0, donc est l’élémentneutre.
Pour les plus courageux, on pourra démontrer l’affirmation selon laquelle si σ′(i) > σ′(i+ 1),alors `(σ′ ◦ (i, i+ 1)) = `(σ′)− 1.
Définition 1.11 On appelle signature de σ ∈ Sn, le nombre ε(σ) = (−1)`(σ).
Remarque 1.12 ε(σ) ∈ {−1, 1}.
Définition 1.13 Soit σ ∈ Sn. On dit que σ est paire si ε(σ) = 1 et σ est impaire si ε(σ) = −1.
1.2. APPLICATIONS MULTILINÉAIRES 7
perm Théorème 1.14 Soient σ, σ′ ∈ Sn. Alors :1. ε(σ ◦ σ′) = ε(σ)ε(σ′).2. ε(σ−1) = ε(σ).
Proposition 1.15 Soit τ une transposition de Sn. Alors τ est impaire.
Exercice de cours 1.4 Montrer que la transposition (2, 4), dans S5, est de longueur 3, doncque cette transposition est bien impaire.
1.2 Applications multilinéaires
Dans toute la suite, K désigne le corps des réels ou des complexes.
1.2.1 Définitions
Définition 1.16 Soient E et F deux espaces vectoriels sur K. On dit que l’application :
f : Ep = E × · · · × E −→ F(x1, · · · , xp) 7−→ f(x1, · · · , xp)
est une application multilinéaire ou p-linéaire si pour tout i compris entre 1 et p et pourtous vecteurs x1,...,xi−1, xi+1,...,xp fixés, l’application :
x 7−→ f(x1, · · · , xi−1, x, xi+1, · · · , xp)
est une application linéaire de E dans F . Si de plus F = K, on dit que f est une forme p-linéaire.
Autrement dit on a pour tous vecteurs x et y de E :f(x1, · · · , xi−1, λx+ µy, xi+1, · · · , xp) =
λf(x1, · · · , xi−1, x, xi+1, · · · , xp) + µf(x1, · · · , xi−1, y, xi+1, · · · , xp)
Exercice de cours 1.5 Soit E = R2 et F = R3, et soit p = 2. Montrer que l’application
f : E2 = R2 × R2 −→ R3
((x1, y1), (x2, y2)) 7−→ (0, x1y2 − y1x2, 0)(1.1) equa:f
est bilinéaire, mais pas celle définie de façon similaire par le vecteur (0, x1y1 − x2y2, 0).
multi Remarque 1.17 Notons Lp(E,F ) l’ensemble des applications p-linéaires de E dans F . Étantdonné λ ∈ K, f, g ∈ Lp(E,F ), on peut définir les deux opérations suivantes :
1. (f + g)(x1, · · · , xp) = f(x1, · · · , xp) + g(x1, · · · , xp).2. (λf)(x1, · · · , xp) = λf(x1, · · · , xp).
Alors il est facile de vérifier que Lp(E,F ) muni de ces deux opérations est unsagemath weyl groupelements espace vectoriel sur K.
8 CHAPITRE 1. DÉTERMINANTS
1.2.2 Applications multilinéaires alternées
alter Définition 1.18 Soient E et F deux espaces vectoriels sur K et v : Ep = E × · · · × E −→ Fune application multilinéaire. On dit que v est alternée si pour tout couple (i, j) ∈ F 2
p tel quei 6= j et pour tout (x1, · · ·xp) ∈ Ep :
xi = xj implique v(x1, · · · , xp) = 0
Exercice de cours 1.6 Montrer que l’application f définie par (equa:f1.1) est alternée.
alterne Proposition 1.19 Si v : Ep = E × · · · × E −→ F est une application multilinéaire alternée,alors pour tout couple (i, j) ∈ {1, . . . , p}2 tel que i < j, on a :
v(x1, . . . , xi, . . . , xj , . . . , xp) = −v(x1, . . . , xj , . . . , xi, . . . , xp)
Preuve: Comme v est multilinéaire et alternée on a :
0 =v(x1, . . . , xi + xj , . . . , xi + xj , . . . , xp)
= v(x1, . . . , xi, . . . , xi, . . . , xp) + v(x1, . . . , xi, . . . , xj , . . . , xp)
+ v(x1, . . . , xj , . . . , xi, . . . , xp) + v(x1, . . . , xj , . . . , xj , . . . , xp)
= v(x1, . . . , xi, . . . , xj , . . . , xp) + v(x1, . . . , xj , . . . , xi, . . . , xp)
d’où le résultat.
Exercice de cours 1.7 Montrer que le produit vectoriel sur R3 est une application bilinéairealternée. On pourra utiliser la formule qui définit ce produit vectoriel, (x1, y1, z1) ∧ (x2, y2, z2) =(y1z2 − y2z1, z1x2 − z2x1, x1y2 − x2y1), ou la règle des trois doigts de Maxwell.
Remarque 1.20 L’ensemble Λp(E,F ) des applications multilinéaires alternées de E dans F estun sous-espace vectoriel de Lp(E,F ) pour les opérations définies dans la remarque
multi1.17.
Remarque 1.21 De la propositionalterne1.19, on déduit immédiatement que si τ est une transposition
de Sp, v(x1, · · · , xp) = ε(τ)v(xτ(1), · · · , xτ(p)).
Cette remarque nous conduit à la proposition suivante :
formperm Proposition 1.22 Soit v : Ep = E × · · · × E −→ F une application multilinéaire alternée etsoit σ ∈ Sp. Alors pour tout vecteur (x1, · · · , xp) ∈ Ep, on a :
v(x1, · · · , xp) = ε(σ)v(xσ(1), · · · , xσ(p))
1.2. APPLICATIONS MULTILINÉAIRES 9
Preuve: La preuve résulte d’une application directe du théorèmeprod1.7. En effet toute permutation
s’écrivant comme un produit de transpositions, il existe des transpositions τ1, ..., τk telles queσ = τ1 ◦ · · · ◦ τk. De la remarque ci-dessus, il découle que :
v(x1, · · · , xp) = ε(τk)v(xτk(1), · · · , xτk(p))= ε(τk−1)ε(τk)v(xτk−1◦τk(1), · · · , xτk−1◦τk(p))
= · · · · · · · · · · · · · · ·= ε(τ1)ε(τ2) · · · ε(τk)v(xτ1◦τ2◦···◦τk(1), · · · , xτ1◦τ2◦···◦τk(p))= ε(τ1)ε(τ2) · · · ε(τk)v(xσ(1), · · · , xσ(p))
et utilisant la propriété 2. du théorèmeperm1.14, on déduit que ε(τ1)ε(τ2) · · · ε(τk) = ε(τ1 ◦ τ2 ◦ · · · ◦
τk) = ε(σ), d’où le résultat recherché.
formvol Proposition 1.23 Soit E un espace vectoriel de dimension n sur K.
1. Soit B = (e1, . . . , en) une base de E. Pour tous vecteurs x1,...,xn de E, on note
x11...xn1
,...,
x1n...xnn
leurs coordonnées respectives dans la base B. Définissons ω par :
ω : En −→ K
(x1, . . . xn) 7−→ ω(x1, . . . , xn) =∑σ∈Sn
ε(σ)n∏i=1
xσ(i),i.
Alors ω est l’unique forme n-linéaire alternée En → K vérifiant ω(e1, . . . , en) = 1.
2. ∀v ∈ Λn(E,K) on a v = v(e1, . . . , en)ω.
3. dim(Λn(E,K)) = 1.
Exercice de cours 1.8 Supposer que n = 2. Calculer ω((
12
),
(34
)).
Exercice de cours 1.9 Supposer que n = 3. Montrer que ω
123
,
234
,
357
= 0.
Preuve de la proposition : Montrons que ω est une n-forme linéaire alternée. Soit x′i ∈ E
de coordonnées
x′1i...x′ni
dans (e1, · · · , en) et soient λ, µ ∈ K. Alors :
10 CHAPITRE 1. DÉTERMINANTS
ω(x1, · · · , λxi + µx′i, · · · , xn) =∑σ∈Sn
ε(σ)xσ(1)1 · · · (λxσ(i)i + µx′σ(i)i) · · ·xσ(n)n
= λ∑σ∈Sn
ε(σ)xσ(1)1 · · ·xσ(i)i · · ·xσ(n)n
+ µ∑σ∈Sn
ε(σ)xσ(1)1 · · ·x′σ(i)i · · ·xσ(n)n
= λω(x1, · · · , xi, · · · , xn) + µω(x1, · · · , x′i, · · · , xn)
Donc ω est multilinéaire. Montrons maintenant que ω est alternée. Soit (i, j) ∈ {1, . . . , p}2 telque i < j. Supposons que xi = xj . Considérons τ = (i, j) la transposition qui échange i et j.Alors :
ω(x1, · · · , xi, · · · , xj , · · · , xn) = ω(xτ(1), · · · , xτ(n))
=∑σ∈Sn
ε(σ)xσ(1)τ(1) · · ·xσ(n)τ(n)
=∑σ∈Sn
ε(σ)xσ(τ(1))τ(τ(1)) · · ·xσ(τ(n))τ(τ(n)).
La dernière égalité provient de l’égalité
n∏j=1
xσ(j),τ(j) =n∏k=1
xσ(k),τ(k) =n∏j=1
xσ(τ(j)),τ(τ(j)).
Or τ ◦ τ = id, donc :
ω(x1, · · · , xi, · · · , xj , · · · , xn) =∑σ∈Sn
ε(σ)xσ◦τ(1)1 · · ·xσ◦τ(n)n
= −∑σ∈Sn
ε(σ ◦ τ)xσ◦τ(1)1 · · ·xσ◦τ(n)n
car ε(σ ◦ τ) = ε(σ)ε(τ) = −ε(σ) et ε(τ) = −1. Comme σ 7−→ σ ◦ τ est une bijection de Sn surlui-même, on déduit que :
ω(x1, · · · , xi, · · · , xj , · · · , xn) = −∑σ∈Sn
ε(σ)xσ(1)1 · · ·xσ(n)n
= −ω(x1, · · · , xi, · · · , xj , · · · , xn)
Donc 2ω(x1, · · · , xi, · · · , xj , · · · , xn) = 0 et comme K est R ou C, on déduit que
ω(x1, · · · , xi, · · · , xj , · · · , xn) = 0.
1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 11
Donc ω est alternée.D’autre part si les vecteurs x1,...,xn sont les vecteurs e1,...,en de la base canonique alors
xij = 0 si i 6= j et xii = 1. Donc xσ(1)1 · · ·xσ(n)n 6= 0 si et seulement si σ(i) = i pour tout icompris entre 1 et n c’est-à-dire si et seulement si σ = id. Donc :
ω(e1, · · · , en) = x11 · · ·xnn = 1
Faire la preuve de la réciproque uniquement dans le cas n = 2. Soit maintenant v une formen-linéaire alternée. Alors :
v(x1, · · · , xn) = v
(n∑
i1=1
xi11ei1 ,
n∑i2=1
xi22ei2 , · · · ,n∑
in=1
xinnein
)
=
n∑i1=1
n∑i2=1
· · ·n∑
in=1
xi11xi22 · · ·xinnv(ei1 , · · · , ein)
Comme v est multilinéaire alternée, dès que pour k 6= l on a ik = il, alors v(ei1 , · · · , ein) = 0.Donc on ne va considérer que les termes où tous les ij sont différents. Cela revient à dire quel’application j 7−→ ij qui va de {1, · · · , n} dans lui-même est une bijection donc une permutationσ de Sn. Donc en réécrivant ij = σ(j), on a :
v(x1, · · · , xn) =∑σ∈Sn
xσ(1)1 · · ·xσ(n)nv(eσ(1), · · · , eσ(n))
=∑σ∈Sn
ε(σ)xσ(1)1 · · ·xσ(n)nv(e1, · · · , en)
où dans cette dernière égalité on a appliqué la propositionformperm1.22. Donc v = v(e1, . . . , en)ω.
En particulier, si v est une forme n-linéaire alternée telle que v(e1, . . . , en) = 1, on obtientv = ω, ce qui montre l’unicité de ω affirmée au premier point.
Enfin comme v = v(e1, . . . , en)ω, il est facile de voir que ω est l’unique n-forme alternée telleque ω(e1, . . . , en) = 1.
1.3 Définition du déterminant et premières propriétés
1.3.1 Déterminant d’une famille de n-vecteurs
Notation 1.24 D’après la proposition précédente si E est un K-espace vectoriel de dimensionn muni d’une base B = (e1, · · · , en), alors il existe une unique n-forme linéaire alternée ω telleque ω(e1, · · · , en) = 1. Notons detB = ω.
Définition 1.25 Soit E un espace vectoriel de dimension n muni d’une base B = (e1, . . . , en).Alors pour toute famille de n vecteurs (u1, . . . , un) le scalaire detB(u1, . . . , un) s’appelle le dé-terminant de la famille (u1, . . . , un) dans la base B.
12 CHAPITRE 1. DÉTERMINANTS
rem:det Remarque 1.26 De la propositionformvol1.23 on déduit immédiatement que :
∀v ∈ Λn(E,K), ∀(u1, · · · , un) ∈ En, v(u1, · · · , un) = v(e1, · · · , en)detB(u1, · · · , un)
Faire la preuve.
caracliee Proposition 1.27 Soit (u1, · · · , un) ∈ En. Alors la famille (u1, · · · , un) est liée si et seulementsi detB(u1, · · · , un) = 0.
Preuve: Supposons que (u1, · · · , un) est liée. Alors il existe des scalaires λ1, · · · , λn non tousnuls tels que :
λ1u1 + · · ·+ λnun = 0
Comme λ1, · · · , λn non tous nuls, il existe i ∈ {1, · · · , n} tel que λi 6= 0. Donc :
ui = −∑
16j6nj 6=i
λjλiuj =
∑16j6nj 6=i
αjuj
etdetB(u1, · · · , un) =
∑16j6nj 6=i
αjdetB(u1, · · · , ui−1, uj , ui−1, · · · , un) = 0
Réciproquement si detB(u1, · · · , un) = 0. Supposons par l’absurde que (u1, · · · , un) est libre.Comme E est de dimension n, B′ = (u1, · · · , un) est une base de E. Donc, d’après la Remarquerem:det1.26 appliquée à v = detB′ :
detB′(u1, · · · , un) = detB′(e1, · · · , en)detB(u1, · · · , un) = 0
Ceci contredit le fait que detB′(u1, · · · , un) = 1 donc (u1, · · · , un) est liée.
Exercice de cours 1.10 Montrer que les calculs de déterminants effectués dans les deux exer-cices suivant la Proposition
formvol1.23 sont en accord avec la Proposition
caracliee1.27.
1.3.2 Déterminant d’un endomorphisme
Proposition et définition 1.28 Soit E un espace vectoriel sur K de dimension finie n, f unendomorphisme de E et v : En −→ K une forme n-linéaire alternée non nulle. Soit f?(v)l’application de En dans K définie pour tous x1, · · · , xn par :
f?(v)(x1, · · · , xn) = v(f(x1), · · · , f(xn))
Alors f?(v) est une forme n-linéaire alternée et f?(v) = λv. De plus λ ne dépend pas du choixde v et s’appelle le déterminant de f . On note λ = det(f).
1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 13
Preuve: La preuve du fait que f?(v) est multilinéaire alternée est laissée au lecteur. La pro-position
formvol1.23 nous disant que l’espace des formes multilinéaires alternées est un espace vectoriel
de dimension 1, il s’ensuit que v étant non nul est une base de cet espace et donc f?(v) = λv.Maintenant si v′ est une autre forme n-linéaire alternée non nulle, alors v′ = µv et on en déduitfacilement que f?(v′) = λv′ ce qui prouve l’unicité de λ.
Exercice de cours 1.11 Soit ω : R2 × R2 → R la forme bilinéaire alternée définie par laformule ω((x1, y1), (x2, y2)) = x1y2 − x2y1 et soit f1, f2, f3 : R2 → R2 définies par f1(x, y) =(2y, 3x), f2(x, y) = (x+ 2y, y) et f3(x, y) = (2x+ y, 4x+ 2y). Calculer f?1ω, f
?2ω et f?3ω.
reldetfdetb Proposition 1.29 Soit E un espace vectoriel de dimension n muni d’une base B = (e1, . . . , en)et soit f ∈ L(E). Alors :
det(f) = detB(f(e1), . . . , f(en))
Preuve: D’après la définition de det(f) on a
detB(f(e1), . . . , f(en)) = f?(detB)(e1, . . . , en) = det(f)detB(e1, . . . , en) = det(f)
lambdan Proposition 1.30 Soit E un espace vectoriel de dimension finie n sur K. Alors pour tout en-domorphisme f de E et tout λ ∈ K on a :
det(λf) = λndet(f)
Preuve: Soit B = (e1, · · · , en) une base de E alors :
det(λf) = detB((λf)(e1), · · · , (λf)(en)) = detB(λf(e1), · · · , λf(en))
= λndetB(f(e1), · · · , f(en))
Cette dernière égalité provenant du fait que detB est une forme linéaire. On en déduit donc lerésultat recherché.
produit Proposition 1.31 Soit E un espace vectoriel de dimension finie n sur K. Soient f et g deuxendomorphismes de E. Alors :
det(f ◦ g) = det(f)det(g)
Preuve: Soit v une forme n-linéaire alternée non nulle. Alors :
((f ◦ g)?v)(x1, · · · , xn) = v((f ◦ g)(x1), · · · , (f ◦ g)(xn)
= v(f(g(x1)), · · · , f(g(xn)))
= det(f)v(g(x1), · · · , g(xn))
= det(f)det(g)v(x1, · · · , xn)
Ceci permet de conclure que (f◦g)?(v) = det(f)det(g)v. Mais d’autre part, on a aussi (f◦g)?(v) =det(f ◦ g)v, d’où le résultat.
14 CHAPITRE 1. DÉTERMINANTS
Exercice de cours 1.12 Pour les fonctions f1, f2, f3 de l’exercice précédent, calculer f1 ◦ f2, etdet(f1 ◦ f2) de deux manières différentes.
inverse Proposition 1.32 Soit E un espace vectoriel de dimension finie n.
1. Alors det(IdE) = 1.
2. Un endomorphisme f de E est un automorphisme de E si et seulement si det(f) 6= 0. Si
f est un automorphisme alors : det(f−1) =1
det(f).
Preuve: Étant donné v une forme n-linéaire alternée non nulle on a de manière immédiateId?Ev = v, donc det(IdE) = 1 ce qui montre le point 1.
Supposons maintenant que f est un automorphisme. Alors d’après la propositionproduit1.31 on a :
det(f ◦ f−1) = det(f)det(f−1) = det(IdE) = 1
Ce qui montre que det(f) 6= 0 ainsi que la relation demandée.Réciproquement supposons que det(f) 6= 0. Soit B = (e1, . . . , en) une base de E. Alors
det(f) = detB(f(e1), . . . , f(en))
Comme det(f) 6= 0, d’après la propositioncaracliee1.27 (f(e1), . . . , f(en)) est une famille libre de E, donc
une base de E. Il s’ensuit que f est surjective et comme les espaces de départ et d’arrivée sontde même dimension, f est un automorphisme.
formuledetf Proposition 1.33 Soit E un espace vectoriel de dimension n sur K muni d’une base B =(e1, . . . , en). Soient f ∈ L(E) et A = (aij)16i,j6n la matrice de f dans B. Alors
det(f) =∑σ∈Sn
ε(σ)n∏i=1
aσ(i)i
Preuve: D’après la propositionreldetfdetb1.29 det(f) = detB(f(e1), . . . , f(en)). D’autre part la j-ième
colonne de A n’étant rien d’autre que les coordonnées dans la base B de f(ej), on déduit dupoint 1. de la proposition
formvol1.23 la relation souhaitée.
1.3.3 Déterminant d’une matrice
Soit A ∈Mn,n(K). On note A =
a11 · · · a1n...
...an1 · · · ann
.
dfi:detA Définition 1.34 On note fA : Kn → Kn l’application linéaire définie par : fA(X) = AX. Ledéterminant de A est alors défini par la formule
det(A) = det(fA). (1.2) equa:detA
1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 15
Remarque 1.35— On a évidemment det(In) = 1. En effet :
det(In) = det(IKn) = 1
— D’autre part, la Propositionformuledetf1.33 donne det(A) =
∑σ∈Sn
ε(σ)
n∏i=1
aσ(i)i.
Comme corollaire de la Définitiondfi:detA1.34 et des propositions
lambdan1.30,
produit1.31 et
inverse1.32 on a les théorèmes
suivants :
Théorème 1.36 Soit A ∈Mn(K) et λ ∈ K. Alors :
det(λA) = λndet(A)
Théorème 1.37 Soient A,B ∈Mn(K). Alors det(AB) = det(A)det(B).
inversemat Théorème 1.38 Soit A ∈ Mn(K). Alors A est inversible si et seulement si det(A) 6= 0. Si A
est inversible alors : det(A−1) =1
det(A).
Nous verrons dans la partie 4.2 que l’on peut retrouver ce résultat de manière différente.
Proposition 1.39 Soit E un espace vectoriel de dimension n sur un corps K muni d’une baseB et soit (u1, · · · , un) une famille de n vecteurs. Soit P la matrice de (u1, · · · , un) dans B. Alors
detB(u1, · · · , un) = det(P )
Preuve: La matrice P est en effet la matrice, dans la base B, de l’application linéaire quienvoie les vecteurs de la base B sur les vecteurs u1, · · · , un. Or, par définition, le déterminantd’une matrice est le déterminant de l’application linéaire qui lui est associée.
1.3.4 Déterminant des matrices carrées 2× 2
Soit A =
(a11 a12a21 a22
), alors det(A) =
∑σ∈S2
ε(σ)aσ(1)1aσ(2)2. Il n’y a que deux permutations
dans S2, les permutations id =
(1 21 2
)et τ =
(1 22 1
). On a alors ε(id) = 1 et ε(τ) = −1.
Donc :
Proposition 1.40 Soit A =
(a11 a12a21 a22
), alors
det(A) = a11a22 − a21a12.
16 CHAPITRE 1. DÉTERMINANTS
1.3.5 Matrices transposées
dfi:transpose-matrice Définition 1.41 Soit A = (aij)16i,j6n. La transposée tA de A est la matrice dont les coefficientssont les ai,j, avec aij = aji.
Exercice de cours 1.13 Soit A =
(a bc d
)∈M2,2(K). Montrer que det( tA) = det(A).
Proposition 1.42 Soit A ∈Mn(K), alors det( tA) = det(A).
Preuve: Soit A = (aij)16i,j6n, on a tA = (aij)16i,j6n avec aij = aji. Donc :
det( tA) =∑σ∈Sn
ε(σ)aσ(1)1 · · · aσ(n)n
=∑σ∈Sn
ε(σ)a1σ(1) · · · anσ(n)
On peut permuter les facteurs a1σ(1),..., anσ(n). On a alors :
a1σ(1) · · · anσ(n) = aσ′(1)σ(σ′(1)) · · · aσ′(n)σ(σ′(n))
pour tout σ′ ∈ Sn. C’est en particulier vrai si on prend σ′ = σ−1. On a donc :
det( tA) =∑σ∈Sn
ε(σ)aσ−1(1)1 · · · aσ−1(n)n
mais ε(σ) = ε(σ−1), donc
det( tA) =∑σ∈Sn
ε(σ−1)aσ−1(1)1 · · · aσ−1(n)n
Or l’application σ 7−→ σ−1 est une bijection de Sn dans lui-même. Donc finalement,
det( tA) =∑σ∈Sn
ε(σ)aσ(1)1 · · · aσ(n)n = det(A)
Remarque 1.43 Le fait que det( tA) = det(A) a pour conséquence que toutes les propriétés dudéterminant démontrées sur les colonnes restent vraies sur les lignes et vice versa.
1.3. DÉFINITION DU DÉTERMINANT ET PREMIÈRES PROPRIÉTÉS 17
1.3.6 Opérations sur les lignes et les colonnes
Soit A =
a11 · · · a1n...
...an1 · · · ann
∈Mn(K).
On notera par la suite :
C1(A) =
a11...an1
, · · · , Cn(A) =
a1n...ann
les colonnes de A et :
L1(A), · · · , Ln(A)
les lignes de A.Alors det(A) = detC(C1(A), · · · , Cn(A)) = det( tA) = detC( tL1(A), · · · , tLn(A)). Les deux
propositions qui suivent sont des conséquences immédiates du fait que detC est multilinéairealternée.
pro:det=0 Proposition 1.44 Si une colonne (ou une ligne) est combinaison linéaire d’autres colonnes (oulignes) alors det(A) = 0. En particulier, si deux colonnes (ou deux lignes) sont égales, alorsdet(A) = 0.
Exercice de cours 1.14 Soit A ∈ Mn,n(K) une matrice telle que L1(A) = L2(A). Donner lesdétails de la preuve de l’égalité det(A) = 0.
collig Proposition 1.45 (Opérations sur les colonnes)1. Si à la colonne Cj(A) (ou à la ligne Li(A)) on ajoute une combinaison linéaire des autres
colonnes∑k 6=j
λkCk(A) (ou des autres lignes∑k 6=i
λkLk(A)), le déterminant reste in-
changé.2. Si on permute deux colonnes (ou deux lignes) de A, le déterminant change de signe.3. Si on multiplie une colonne (ou une ligne) de A par µ, alors le déterminant de A est
multiplié par µ.
Exercice de cours 1.15 Montrer le cas particulier suivant de la Proposition ci-dessus :
detC(C1(A) + 2C2(A), C2(A), · · · , Cn(A)) = detC(C1(A), C2(A), · · · , Cn(A)).
Exercice de cours 1.16 Calculer le déterminant de la matrice(
1 23 6
). Vérifier le résultat ob-
tenu à l’aide de la Propositionpro:det=01.44.
18 CHAPITRE 1. DÉTERMINANTS
1.4 Développement d’un déterminant suivant une ligne ou unecolonne
1.4.1 Cofacteurs et comatrices
Soit A ∈ Mn(K). On note A(i, j) la matrice deMn−1(K) obtenue en supprimant la i-ièmeligne et la j-ième colonne de A.
Exemple 1.46 Soit A =
3 3 70 2 2−3 −1 −4
. Alors :
A(1, 2) =
(0 2−3 −4
)Définitions 1.47 Soit A ∈Mn(K).
— On appelle cofacteur de A = (aij)16i,j6n d’indice (i, j) le coefficient
aij = (−1)i+jdet(A(i, j))
— La matrice A = (aij)16i,j6n de Mn(K) s’appelle la matrice des cofacteurs ou coma-trice.
Exercice de cours 1.17 Soit A la matrice
3 3 70 2 2−3 −1 −4
. Montrer que A =
−6 −6 65 9 −6−8 −6 6
.
Avant d’énoncer le théorème principal, nous avons besoin des deux lemmes suivants :
detparticulier Lemme 1.48 Soit B ∈Mn−1(K) et A =
1 0 · · · 00... B0
. Alors det(A) = det(B).
Preuve: Considérons les applications :
Φ : Mn−1,1(K) −→ Mn,1(K)
X =
x1...
xn−1
7−→ Φ(X) =
0x1...
xn−1
et
V : Mn−1,1(K)n−1 −→ K(X1, · · · , Xn−1) 7−→ detC(E1,Φ(X1), · · · ,Φ(Xn−1))
1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 19
Alors Φ est une application linéaire et de manière immédiate, V est une forme n − 1-linéairealternée. Soit C′ = (E′1, · · · , E′n−1) la base canonique deMn−1,1(K). Alors
V (E′1, · · · , E′n−1) = detC(E1,Φ(E′1), · · · ,Φ(E′n−1)) = detC(E1, · · · , En) = 1
D’après la propositionformvol1.23, il existe une unique n − 1-forme alternée sur Mn−1,1(K) vérifiant
V (E′1, . . . , E′n−1) = 1. Donc V = detC′ et on a :
det(B) = detC′(C1(B), · · · , Cn−1(B))
= detC [E1,Φ(C1(A)), · · · ,Φ(Cn−1(A))]
=
∣∣∣∣∣∣∣∣∣1 0 · · · 00... B0
∣∣∣∣∣∣∣∣∣ce qui achève la preuve.
technic Lemme 1.49 Soit A(j) =
a11 · · · a1j−1 0 a1j+1 · · · a1n...
......
......
ai−11 · · · ai−1j−1 0 ai−1j+1 · · · ai−1nai1 · · · aij−1 1 aij+1 · · · ainai+11 · · · ai+1j−1 0 ai+1j+1 · · · ai+1n...
......
......
an1 · · · anj−1 0 anj+1 · · · ann
.
Alors det(A(j)) = (−1)i+jdet(A(i, j)).
Preuve: Après avoir échangé la ligne i avec la ligne i−1, puis la ligne i−1 avec la ligne i−2, etainsi de suite jusqu’à la première ligne, et après avoir fait de même avec les colonnes, on obtientd’après les règles de la Proposition
collig1.45 :
det(A(j)) = (−1)i+j
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
1 ai1 · · · aij−1 aij+1 · · · ain0 a11 · · · a1j−1 a1j+1 · · · a1n...
......
......
0 ai−11 · · · ai−1j−1 ai−1j+1 · · · ai−1n0 ai+11 · · · ai+1j−1 ai+1j+1 · · · ai+1n...
......
......
0 an1 · · · anj−1 anj+1 · · · ann
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
= (−1)i+j
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
1 ai1 · · · aij−1 aij+1 · · · ain0...... A(i, j)...0
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
20 CHAPITRE 1. DÉTERMINANTS
= (−1)i+j
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
1 0 · · · · · · · · · · · · 00...... A(i, j)...0
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣= (−1)i+jdet(A(i, j))
d’après le lemme précédent.Nous sommes maintenant en mesure d’énoncer un théorème fondamental sur le calcul des
déterminants qui sert constamment.
develop Théorème 1.50 Soit A = (aij) ∈Mn(K) et k un entier tel que 1 6 k 6 n. Alors :
1. det(A) =n∑i=1
(−1)i+kaikdet(A(i, k)) =n∑i=1
aikaik. On dit qu’on développe suivant la
colonne k.
2. det(A) =n∑j=1
(−1)k+jakjdet(A(k, j)) =n∑j=1
akj akj. On dit qu’on développe suivant la
ligne k.
Exemple 1.51 Calculons det(A) =
∣∣∣∣∣∣3 3 70 2 2−3 −1 −4
∣∣∣∣∣∣. Nous allons développer ce déterminant sui-
vant la deuxième colonne. Pour cela affectons chaque coefficients aij de la matrice, du signe(−1)i+j. On a alors :
∣∣∣∣∣∣3 3 70 2 2−3 −1 −4
∣∣∣∣∣∣ =
∣∣∣∣∣∣3+ 3− 7+
0− 2+ 2−
−3+ −1− −4+
∣∣∣∣∣∣= −3
∣∣∣∣ 0 2−3 −4
∣∣∣∣+2
∣∣∣∣ 3 7−3 −4
∣∣∣∣−(−1)
∣∣∣∣3 70 2
∣∣∣∣où∣∣∣∣ 0 2−3 −4
∣∣∣∣ a été obtenue en supprimant la première ligne et la deuxième colonne,∣∣∣∣ 3 7−3 −4
∣∣∣∣ ensupprimant la deuxième ligne et la deuxième colonne et
∣∣∣∣3 70 2
∣∣∣∣ la troisième ligne et la deuxième
colonne.D’où det(A) = −3 · 6 + 2 · 9 + 1 · 6 = 6.
Preuve du théorèmedevelop1.50: Montrons le 1. du théorème. La k-ième colonne de A peut sécrire :
a1k...ank
= a1k
10...0
+ · · ·+ ank
0...01
1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 21
comme le déterminant est multilinéaire, on a immédiatement,
det(A) =n∑i=1
aik
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 · · · a1k−1 0 a1k+1 · · · a1n...
......
......
ai−11 · · · ai−1k−1 0 ai−1k+1 · · · ai−1nai1 · · · aik−1 1 aik+1 · · · ainai+11 · · · ai+1k−1 0 ai+1k+1 · · · ai+1n...
......
......
an1 · · · ank−1 0 ank+1 · · · ann
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣Et d’après le lemme
technic1.49, on a :
det(A) =n∑i=1
(−1)i+kaikdet(A(i, k)).
D’autre part, comme det( tA) = det(A), on obtient immédiatement l’assertion 2.
Proposition 1.52 (Règle de Sarrus) On a :∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33
∣∣∣∣∣∣ = a11a22a33 + a21a32a13 + a31a12a23
− (a13a22a31 + a23a32a11 + a33a12a21)
La preuve s’obtient en développant par rapport à n’importe quelle ligne ou colonne.
Remarque 1.53 On obtient facilement le résultat en écrivant :
∣∣∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33
∣∣∣∣∣∣∣∣a11 a12 a13a21 a22 a23
= a11a22a33 + a21a32a13 + a31a12a23
− (a13a22a31 + a23a32a11 + a33a12a21)
Attention ! La règle de Sarrus fonctionne uniquement pour les matrices (3, 3).
1.4.2 Matrices triangulaires
Définition 1.54 Une matrice A = (ai,j) est dite triangulaire si elle est triangulaire inférieure(ie i < j ⇒ ai,j = 0) ou triangulaire supérieure (ie i > j ⇒ ai,j = 0).
22 CHAPITRE 1. DÉTERMINANTS
dettriang Proposition 1.55 Soit A = (aij)16i,j6n une matrice triangulaire. Alors det(A) = a11 · · · ann.
Preuve: On démontre le résultat par récurrence sur n pour les matrices triangulaires supé-rieures. La relation est vraie pour n = 1. Supposons maintenant qu’elle est vraie pour les matricesdeMn(K) pour un entier n > 1 et montrons qu’elle reste vraie pour les matrices deMn+1(K).Soit A une matrice triangulaire supérieure deMn+1(K). Alors
A =
a11 a12 · · · · · · a1n
0 a22...
... 0. . .
......
.... . .
...0 0 · · · 0 an+1 n+1
En développant suivant la dernière ligne on a :
det(A) = an+1 n+1
∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 a12 · · · · · · a1n
0 a22...
... 0. . .
......
.... . .
...0 0 · · · 0 ann
∣∣∣∣∣∣∣∣∣∣∣∣∣Par hypothèse de récurrence le résultat étant vrai pour les matrices de Mn(K) on obtient lerésultat voulu.
D’autre part, comme pour toute matrice carrée A, det(A) = det( tA), la proposition restevraie pour les matrices triangulaires inférieures.
Exercice de cours 1.18 Calculer le déterminant de la matrice
1 2 30 2 30 0 3
.
1.4.3 Matrices inverses et déterminant
theo:comatrice Théorème 1.56 Pour tout A ∈Mn(K), on a :
A tA = tAA = det(A)In
Preuve: Posons A = (aij) et tA = (bjk). Alors bjk = akjSoit C = A tA. Montrons que C = det(A)In. Pour cela posons C = (cik).
1.4. DÉVELOPPEMENT D’UN DÉTERMINANT 23
Soit D(i, k) la matrice
a11 · · · · · · · · · · · · · · · · · · a1n...
...ai1 · · · · · · · · · · · · · · · · · · ain...
...ak−11 · · · · · · · · · · · · · · · · · · ak−1nai1 · · · · · · · · · · · · · · · · · · ainak+11 · · · · · · · · · · · · · · · · · · ak+1n
......
an1 · · · · · · · · · · · · · · · · · · ann
D’après le 1. du théorème
develop1.50, on a
det(D(i, k)) =n∑j=1
(−1)k+jaijdet(A(k, j)) =n∑j=1
aij akj
=n∑j=1
aijbjk = ci,k
Si i = k, alors D(i, k) = A, donc cii = det(A). Si i 6= k, les lignes k et i de D(i, k) sont lesmêmes. Donc ci,k = 0. On en déduit donc que C = det(A)In.
Exercice de cours 1.19 Soit A la matrice
3 3 70 2 2−3 −1 −4
. Montrer par le calcul que
A tA = tAA = det(A)I3.
On en déduit alors immédiatement le corollaire suivant :
Corollaire 1.57 Soit A ∈Mn(K). Alors A est inversible si et seulement si det(A) 6= 0 (résultat
déjà énoncé dans le théorèmeinversemat1.38). Si A est inversible, A−1 =
tA
det(A).
Exercice de cours 1.20 Soit A la matrice
− 3 2 − 13 1 22 0 1
. Calculer det(A). Monter que
A est inversible, et que son inverse a des coefficients entiers. Calculer A−1 par deux méthodesdifférentes.
24 CHAPITRE 1. DÉTERMINANTS
1.5 Formules de Cramer
On rappelle que si A ∈Mn(K) et (S) : AX = Y est le système de n équations à n inconnuesassocié, alors les propriétés suivantes sont équivalentes :
— (S) est un système de Cramer.— (S) admet une solution et une seule.— rg(A) = n.— A est inversible.— det(A) 6= 0.
Si (S) est de Cramer, la solution est donnée par X = A−1Y =tAY
det(A). Si on note X =
x1...xn
et Y =
y1...yn
, on a alors la proposition suivante :
Proposition 1.58 (Formules de Cramer) Si (S) est de Cramer, alors :
xi =
∣∣∣∣∣∣∣a11 · · · a1i−1 y1 a1i+1 · · · a1n...
......
......
an1 · · · ani−1 yn ani+1 · · · ann
∣∣∣∣∣∣∣det(A)
Preuve: Posons A = (aij). On a vu que X =tAY
det(A), donc :x1...
xn
=1
det(A)
a11 · · · an1...
...a1n · · · ann
y1...yn
Donc
1
det(A)
∣∣∣∣∣∣∣a11 · · · a1i−1 y1 a1i+1 · · · a1n...
......
......
an1 · · · ani−1 yn ani+1 · · · ann
∣∣∣∣∣∣∣=
1
det(A)
n∑j=1
yj(−1)i+jdet(A(j, i))
=1
det(A)
n∑j=1
yj aji = xi
1.6. RANG D’UNE MATRICE 25
1.6 Rang d’une matrice
Définition 1.59 (Matrice extraite) Soit A ∈ Mp,q(K), A = (aij). Soit r 6 p et s 6 q. Ondit que A′ ∈Mr,s(K) est une matrice extraite de A si A′ est de la forme A′ = (aikjl)16k6r
16l6soù
1 6 i1 < · · · < ir 6 p et 1 6 j1 < · · · < js 6 q.
Exemple 1.60 Soit A =
4 −1 3 6 72 1 5 −1 03 6 8 2 41 1 2 −1 1
Alors la matrice A′ =
(4 3 63 8 2
)est une matrice extraite de A.
theo:rang Théorème 1.61 Soit A ∈Mp,q(K). Alors A est de rang r si et seulement si :
1. Il existe une matrice carrée A′ extraite de A de format (r, r) telle que det(A′) 6= 0.
2. Pour tout s > r, toute matrice carrée A′′ de format (s, s) extraite de A vérifie det(A′′) = 0.
Preuve:
1. Montrons tout d’abord que si A est une matrice deMp,q(K) de rang r, alors il existe unematrice carrée A′ extraite de A de format (r, r) telle que det(A′) 6= 0 :Comme rg(A) = rg(C1(A), . . . , Cq(A)) = r, on peut extraire de (C1(A), . . . , Cq(A)) unefamille libre (Cj1(A), . . . , Cjr(A)) de r vecteurs (j1 < · · · < jr).Notons A′ la matrice deMp,r(K) dont la `-ième colonne est Cj`(A). Alors :
r = rg(A′) = rg( tA′) = rg(L1(A′), · · · , Lp(A′))
Donc on peut extraire de la famille (L1(A′), · · · , Lp(A′)) une famille libre de r vecteurs
(Li1(A′), · · · , Lir(A′)) (i1 < · · · < ir). Soit A′′ la matrice deMr(K) dont la k-ième ligneest Lik(A′). En fait A′′ = (aikj`)16k,`6r et rg(A′′) = r. Donc det(A′′) 6= 0.
2. Montrons maintenant que s’il existe une matrice carrée A′ ∈ Ms(K) extraite de A telleque det(A′) 6= 0 alors rg(A) > s :Tout d’abord A′ = (aikj`)16k,`6s avec i1 < · · · < is et j1 < · · · < js.Puisque det(A′) 6= 0 rg(A′) = s et (C1(A
′), · · · , Cs(A′)) est une famille libre. Mais celaimplique que la famille (Cj1(A), · · · , Cjs(A)) est libre. Donc rg(A) > s.
Des points 1. et 2. on déduit de manière immédiate le théorème.
Exemple 1.62 Soit A =
2 3 5 4−1 0 −1 11 2 3 3
. 2L1 + L2 − 3L3 = 0. Alors :∣∣∣∣∣∣2 3 5−1 0 −11 2 3
∣∣∣∣∣∣ =
∣∣∣∣∣∣3 5 40 −1 12 3 3
∣∣∣∣∣∣ =
∣∣∣∣∣∣2 3 4−1 0 11 2 3
∣∣∣∣∣∣ =
∣∣∣∣∣∣2 5 4−1 −1 11 3 3
∣∣∣∣∣∣ = 0
26 CHAPITRE 1. DÉTERMINANTS
Donc tous les déterminants de matrices (3, 3) extraites de A sont nuls, donc rg(A) < 3.Pour montrer que A est de rang 2, il suffit de trouver une matrice (2, 2) extraite de détermi-
nant non nul. Or ∣∣∣∣ 2 3−1 0
∣∣∣∣ 6= 0
donc rg(A) = 2.
Chapitre 2
Réduction des endomorphismes
Dans toute la suite, K désigne le corps R ou C et E est un espace vectoriel sur K de dimensionfinie n D’autre part L(E) désigne le K-espace vectoriel des endomorphismes de E.
2.1 Sous-espaces propres et diagonalisation
Étant donné un espace vectoriel E sur un corps K de dimension finie, les endomorphismesles plus simples sont les homothéties f = λIdE . La matrice de ces endomorphismes est la mêmedans toutes les bases de E. C’est une matrice diagonale avec des λ sur la diagonale et des 0partout ailleurs. Autrement dit il n’y a pas de direction privilégiée.
Étant donné maintenant un endomorphisme u quelconque, on va essayer dans ce chapitre dele "dévisser" en "cassant" l’espace E en une somme directe de sous-espaces stables (précisémentles sous-espaces propres) sur lesquels u se comportera comme une homothétie. Si cela est possibleen prenant une base dans chacun de ces ous-espaces et en les réunissant, on obtiendra une basede E dans laquelle la matrice de u sera diagonale.
2.1.1 Valeurs propres, vecteurs propres
Définition 2.1 Soient u ∈ L(E) et λ ∈ K. S’il existe un vecteur non nul x de E tel queu(x) = λx, alors on dit que :
1. λ est une valeur propre de u.
2. x est un vecteur propre de u associé à λ.
On appelle spectre de u et on note Sp(u) l’ensemble des valeurs propres de u.
Ker Remarque 2.2 1. Il résulte de la définition qu’un vecteur propre n’est jamais nul.
2. λ est une valeur propre de u si et seulement si Ker(u− λIdE) 6= {0}.
En effet λ est une valeur propre de u si et seulement si il existe un vecteur non nul x de E telque u(x) = λx. Or 0 = u(x)− λx = (u− λIdE)(x). Il s’ensuit que λ est une valeur propre de usi et seulement si Ker(u− λIdE) 6= {0}.
27
28 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Définition 2.3 Soient A ∈ Mn(K) et λ ∈ K. S’il existe un vecteur colonne non nul X deMn,1(K) tel que AX = λX, alors on dit que :
1. λ est une valeur propre de A.
2. X est un vecteur propre de A associé à λ.
On appelle spectre de A et on note Sp(A) l’ensemble des valeurs propres de A.
exo:matA Exercice de cours 2.1 Soit A =
(3 2−4 −3
). Déterminer le spectre de A. On pourra résoudre
le système {3x+ 2y = λx−4x− 3y = λy ,
dépendant du paramètre λ.
equivAu Remarque 2.4 Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors Sp(u) = Sp(A). Plusprécisément :
1. λ est une valeur propre de u si et seulement si λ est une valeur propre de A.
2. x est un vecteur propre de u si et seulement si X = MatB(x) est un vecteur propre de A.
Définition 2.5 Soit A = (aij)16i,j6n une matrice carrée de Mn(K). On appelle trace de A lescalaire :
tr(A) :=
n∑i=1
aii
Proposition 2.6 Soient (A,B) ∈Mn(K)2. Alors tr(AB) = tr(BA).
Exercice de cours 2.2 Donner une preuve de ce résultat. En cas de difficulté, commencer parle cas où n = 2.
trace Proposition et définition 2.7 Soient u ∈ L(E) et B une base de E. Alors le scalaire tr(MatB(u))ne dépend pas de la base choisie et s’appelle la trace de u. On le note tr(u).
Preuve: Soit B′ une autre base, et soit P la matrice de passage de B à B′. Soient A = MatB(u)et A′ = MatB′(u). On a A′ = P−1AP , donc tr(A′) = tr(P−1AP ) = tr(APP−1) = tr(A).
exo:pol-car Exercice de cours 2.3 Soit A la matrice de l’exerciceexo:matA2.1, A =
(3 2−4 −3
)et soit x un réel.
Montrer que det(A− xI2) = x2 − 1.
2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 29
polycarendo Proposition et définition 2.8 Soit u ∈ L(E). La fonction
χu : K −→ Kx 7−→ det(u− xIdE)
est une fonction polynomiale de degré n. De plus :
χu(X) = (−1)nXn + (−1)n−1tr(u)Xn−1 + · · ·+ det(u)
χu s’appelle le polynôme caractéristique de u.
polycarmat Proposition et définition 2.9 Soit A ∈Mn(K). La fonction
χA : K −→ Kx 7−→ det(A− xIn)
est une fonction polynomiale de degré n. De plus :
χA(X) = (−1)nXn + (−1)n−1tr(A)Xn−1 + · · ·+ det(A)
χA s’appelle le polynôme caractéristique de A.
polycar Remarques 2.10— Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors χA = χu.— Dans le cas n = 2, observer que χu est déterminé par tr(u) et det(u).
Exercice de cours 2.4 Vérifier que ces énoncés sont compatibles avec le calcul que vous avezfait dans l’exercice
exo:pol-car2.3.
Preuve des énoncéspolycarendo2.8 et
polycarmat2.9 : Soit A = (aij)16i,j6n. Alors :
χA(x) = det(A− xIn) =∑σ∈Sn
ε(σ)n∏i=1
(aσ(i)i − xδσ(i)i)
Chacun des produitsn∏i=1
(aσ(i)i − xδσ(i)i) est une fonction polynomiale en x de degré inférieur ou
égal à n. Il en est de même de leur somme et χA est un polynôme de degré au plus n. Or :
χA(x) =∑
σ∈Sn\{Id}
ε(σ)n∏i=1
(aσ(i)i − xδσ(i)i) +n∏i=1
(aii − x)
Remarquons que si σ ∈ Sn \ {Id}, alors il existe j ∈ {1, · · · , n} tel que σ(j) 6= j. En posantk = σ−1(j), on a k 6= j et σ(k) 6= k. Donc δσ(j)j = δσ(k)k = 0. Ainsi :
n∏i=1
(aσ(i)i − xδσ(i)i) = aσ(j)jaσ(k)k
n∏i=1i 6=j,k
(aσ(i)i − xδσ(i)i)
30 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
et donc pour chaque σ ∈ Sn \ {Id},n∏i=1
(aσ(i)i−xδσ(i)i) est une fonction polynomiale de degré au
plus n− 2 et il en est de même de∑
σ∈Sn\{Id}
ε(σ)
n∏i=1
(aσ(i)i − xδσ(i)i). Or commen∏i=1
(aii − x) est
de degré n il s’ensuit que χA est de degré n et que les coefficients de xn et xn−1 dans χu sont
les coefficients de xn et xn−1 dansn∏i=1
(aii − x). Donc les coefficients de xn et xn−1 dans χA sont
respectivement (−1)n et (−1)n−1n∑i=1
aii = (−1)n−1tr(A).
Le terme constant de χA est χA(0) = det(A). Ceci prouve l’énoncépolycarmat2.9. La preuve de
polycarendo2.8 est
une conséquence immédiate de la remarquepolycar2.10 et de la proposition et définition
trace2.7.
En raison des remarquesequivAu2.4 et
polycar2.10, on se contentera dans la majorité des cas d’énoncer les
résultats dans le cadre des endomorphismes.
Proposition 2.11 Soit u ∈ L(E). Alors λ ∈ Sp(u) si et seulement si λ est racine de χu.
Preuve: On a vu d’après la remarqueKer2.2 que λ est valeur propre de u si et seulement si
Ker(u− λIdE) 6= {0}. Or les 4 assertions ci-dessous sont équivalentes :1. Ker(u− λIdE) 6= {0}2. u− λIdE n’est pas injective.3. u− λIdE n’est pas un isomorphisme.4. det(u− λIdE) = 0 (voir proposition
inverse1.32).
Donc λ est valeur propre de u si et seulement si χu(λ) = 0.
Exercice de cours 2.5 Résoudre à nouveau l’exerciceexo:matA2.1 en utilisant le polynôme caractéris-
tique de A.
Corollaire 2.12 Tout endomorphisme u de E a au plus n valeurs propres.
Définition 2.13 Soient u ∈ L(E) et λ une valeur propre de u. On dira que λ est une valeurpropre d’ordre m si λ est une racine d’ordre m de χu. L’entier m s’appelle la multiplicité de λet sera noté m(λ).
exo:matBC Exercice de cours 2.6 Déterminer le spectre et la multiplicité des valeurs propres des matrices
suivantes : B =
3 1 21 2 1− 2 − 1 − 1
et C =
0 − 1 02 3 0− 3 − 3 1
.
χB(X) = χC(X) = (X − 1)2(X − 2). La matrice B n’est pas diagonalisable et C est diagonali-sable.
2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 31
2.1.2 Sous-espaces propres
Définition 2.14 Soient u ∈ L(E) et λ une valeur propre de u. Le sous-espace vectoriel Eλ(u) :=Ker(u− λIdE) s’appelle le sous-espace propre associé à la valeur propre λ.
Remarque 2.15
1. Si λ est une valeur propre de u, on a toujours Eλ(u) 6= {0}.2. Eλ(u) \ {0} est l’ensemble des vecteurs propres de u.
3. Les sous-espaces propres de u sont stables par u (pour toute valeur propre λ, u(Eλ(u)) ⊂Eλ(u)).
Définition 2.16 Soit A ∈Mn(K) et λ une valeur propre de A. Le sous-espace vectorielMλ(A) :=Ker(A− λIn) deM1,n(K) s’appelle le sous-espace propre associé à la valeur propre λ.
exo:espaces-propres Exercice de cours 2.7 Calculer les sous-espaces propres des matrices A,B et C des exercicesexo:matA2.1 et
exo:matBC2.6.
Exercice de cours 2.8 Montrer que u(Eλ(u)) ⊂ Eλ(u) pour toute valeur propre λ de u.
pro:inegalite-esp-propre Proposition 2.17 Soient u ∈ L(E) et λ une valeur propre de u. Alors :
1 6 dim(Eλ(u)) 6 m(λ)
Preuve: Posons p = dim(Eλ(u)). Soit (e1, · · · , ep) une base de Eλ(u) que l’on complète parep+1, · · · , en pour obtenir une base B de E. Dans ce cas on a :
MatB(u) =
λ 0 · · · 0 a1 p+1 · · · a1n
0. . . . . .
......
......
. . . . . . 0...
...0 · · · 0 λ ap p+1 · · · apn0 · · · · · · 0 ap+1 p+1 · · · ap+1 n...
......
...0 · · · · · · 0 an p+1 · · · ann
Le polynôme caractéristique s’écrit donc :
χu(x) = (λ− x)pχM (x)
où M = (aij)p+16i,j6n. Donc (λ− x)p divise χu et p 6 m(λ).
sommedirecte Théorème 2.18 Soit u ∈ L(E). Alors les sous-espaces propres de u sont en somme directe.
32 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Preuve: Soient λ1, · · · , λr les valeurs propres de u. Le but est de montrer que si (v1, · · · , vr) ∈Eλ1(u)× · · · × Eλr(u) et v1 + · · ·+ vr = 0 alors vi = 0 pour tout i ∈ {1, · · · , r}.
On va procéder par récurrence en montrant que Eλ1(u), · · · , Eλj (u) sont en somme directepour tout j ∈ {1, · · · , r}.
Pour j = 1, la propriété est vraie.On suppose maintenant la propriété vraie au rang j ∈ {1, · · · , r − 1}. Montrons qu’elle est
vraie au rang j + 1.
Soit (v1, · · · , vj+1) ∈ Eλ1(u)× · · · × Eλj+1(u) tel que
j+1∑i=1
vi = 0. Alors :
u
(j+1∑i=1
vi
)=
j+1∑i=1
u(vi) =
j+1∑i=1
λivi = 0
Donc :
0 =
j+1∑i=1
λivi − λj+1
j+1∑i=1
vi =
j+1∑i=1
(λi − λj+1)vi =
j∑i=1
(λi − λj+1)vi
Or pour tout i ∈ {1, · · · , j}, (λi − λj+1)vi ∈ Eλi(u). Comme par hypothèse de récurrence,Eλ1(u), · · · , Eλj (u) sont en somme directe, il s’ensuit que pour tout i ∈ {1, · · · , j}, (λi−λj+1)vi =0. De plus λi − λj+1 6= 0 pour tout i ∈ {1, · · · , j}. Donc :
v1 = · · · = vj = 0
etj+1∑i=1
vi = vj+1 = 0. Donc Eλ1(u), · · · , Eλj+1(u) sont en somme directe. Par récurrence sur j la
propriété est vraie pour tout j ∈ {1, · · · , r}.
Exercice de cours 2.9 Vérifier que les espaces propres obtenus pour A,B et C dans l’exerciceexo:espaces-propres2.7 sont en somme directe.
2.1.3 Endomorphismes et matrices diagonalisables
criterediag Théorème 2.19 Soit u ∈ L(E). Alors les propositions suivantes sont équivalentes :1. Il existe une base B de E telle que MatB(u) soit diagonale.2. Il existe une base B de E constituée de vecteurs propres de u.3. E est la somme directe des sous-espaces propres de u.4. χu est scindé sur K (i.e. χu a toute ses racines dans K) et pour toute valeur propre de u,
dim(Eλ(u)) = m(λ).
Preuve: 1⇒ 2. Il existe une base B = (e1, · · · , en) de E telle que :
MatB(u) =
α1 0. . .
0 αn
2.1. SOUS-ESPACES PROPRES ET DIAGONALISATION 33
Par définition de la matrice d’un endomorphisme dans une base, on a pour tout i ∈ {1, · · · , n},u(ei) = αiei ce qui prouve 2.
2⇒ 3. Soit B = (e1, · · · , en) une base formée de vecteurs propres de u. D’après le théorèmesommedirecte2.18 les sous-espaces propres sont en somme directe et B = (e1, · · · , en) est une famille libre der⊕i=1
Eλi(u). Donc :
dim
(r⊕i=1
Eλi(u)
)> n = dim(E)
et E =r⊕i=1
Eλi(u).
3 ⇒ 1 et 3 ⇒ 4. Soient λ1, · · · , λr les valeurs propres de u. Posons ni = dim(Eλi(u)).Soient B1, · · · ,Br des bases respectivement de Eλ1(u), · · · , Eλr(u). Comme par hypothèse E =r⊕i=1
Eλi(u), B =
r⋃i=1
Bi est une base de E constituée de vecteurs propres. Donc :
MatB(u) =
λ1 0 · · · · · · · · · · · · 0
0. . . . . .
......
. . . λ1. . .
......
. . . . . . . . ....
.... . . λr
. . ....
.... . . . . . 0
0 · · · · · · · · · · · · 0 λr
ce qui prouve 1.
D’autre part χu(x) = (λ1 − x)n1 · · · (λr − x)nr . Il s’ensuit que le polynôme est scindé et quela multiplicité des valeurs propres vérifie m(λi) = ni = dim(Eλi(u)) ce qui prouve 4.
4⇒ 3 On suppose que χu est scindé sur K et que pour toute valeur propre de u, dim(Eλ(u)) =m(λ). Donc :
χu(x) =r∏i=1
(λi − x)m(λi)
et dim(Eλi(u)) = m(λi). On a donc :
dim
(r⊕i=1
Eλi(u)
)=
r∑i=1
dim(Eλi) =r∑i=1
m(λi) = n
Par conséquentr⊕i=1
Eλi(u) = E.
exo:critere-diago Exercice de cours 2.10 Pour les matrices A,B,C ci-dessus et pour chaque valeur propre λ,déterminer dimEλ et m(λ).
34 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Définition 2.20 Soit u ∈ L(E). On dit que u est diagonalisable si l’une des 4 conditionséquivalentes du théorème
criterediag2.19 est vérifiée.
exo:ABCdiago Exercice de cours 2.11 Les endomorphismes de Kn associés aux matrices A,B et C ci-dessussont-ils diagonalisables ?
Définition 2.21 Soit A ∈ Mn(K). On dit que A est diagonalisable si A est semblable à unematrice diagonale. Autrement dit A est diagonalisable s’il existe une matrice P ∈ GLn(K) et unematrice diagonale D ∈Mn(K) telles que : D = P−1AP .
rem:corps Remarque 2.22 Lorsqu’on voudra insister sur le fait que la matrice P est à coefficients dansK, on précisera que A est diagonalisable sur K. Ainsi, par exemple, une matrice à coefficientsdans R pourra être diagonalisable sur C mais non sur R : ceci signifie qu’il existe P ∈ GLn(C)telle que P−1AP est une matrice diagonale à coefficients complexes, mais qu’il n’existe pas dematrice P ∈ GLn(R) telle que P−1AP est une matrice diagonale à coefficients réels.
exo:diago-sur-R Exercice de cours 2.12 Donner un exemple d’une matrice carrée d’ordre 2 à coefficients réelsdont les valeurs propres sont deux nombres complexes non réels (on pourra d’abord choisir unpolynôme χ ayant deux racines complexes, puis une matrice dont le polynôme caractéristique estχ). Montrer que cette matrice est diagonalisable sur C mais pas sur R.
Exercice de cours 2.13 (Exercice facultatif) Soit A une matrice à coefficients réels et λune valeur propre réelle de A. Montrer que les espaces propres réel et complexe de A pour lavaleur propre λ ont la même dimension.
Soit A ∈Mn(R) de polynôme caractéristique scindé sur R. Montrer que A est diagonalisablesur R si et seulement si elle est diagonalisable sur C.
diagmatendo Remarque 2.231. Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors u est diagonalisable si et
seulement si A est diagonalisable.2. Si A est diagonalisable alors il existe P ∈ GLn(K) telle que D = P−1AP est diagonale.
Dans ce cas (C1(P ), · · · , Cn(P )) est une base de Mn,1(K) constituée de vecteurs propresde A.
Corollaire 2.24 Soit u ∈ L(E). Alors si χu est scindé sur K et si toutes les racines de χu sontsimples alors u est diagonalisable.
Exercice de cours 2.14 Donner un exemple d’endomorphisme u diagonalisable mais tel queles racines de χu ne sont pas simples.
2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 35
2.1.4 Calcul des puissances d’une matrice
Soit A ∈Mk(K). Si A est diagonalisable alors il existe une matrice diagonale D ∈Mk(K) et
P ∈ GLk(K) telles que D = P−1AP . Or on sait calculer Dn. En effet si D =
α1 0. . .
0 αk
,
alors Dn =
αn1 0
. . .0 αnk
. D’autre part on peut montrer par récurrence que :
Dn = (P−1AP )n = P−1AnP
d’où :An = PDnP−1
Exercice de cours 2.15 Calculer les puissances de la matrice A de l’exerciceexo:matA2.1.
2.2 Trigonalisation et théorème de Cayley-Hamilton
2.2.1 Endomorphismes trigonalisables
Définition 2.25 Soit u ∈ L(E). On dit que u est trigonalisable s’il existe une base B de Etelle que MatB(u) est triangulaire supérieure.
Définition 2.26 Soit A ∈ Mn(K). On dit que A est trigonalisable s’il existe P ∈ GLn(K)telle que P−1AP soit triangulaire supérieure.
Remarque 2.27 Soient B une base de E, u ∈ L(E) et A = MatB(u). Alors u est trigonalisablesi et seulement si A est trigonalisable.
theo:trigo-pol-scinde Théorème 2.28 Soit u ∈ L(E). Alors u est trigonalisable si et seulement si χu est scindé dansK[X] (i.e. χu se décompose en un produit de polynômes du premier degré).
Preuve:— (⇒) Si u est trigonalisable alors il existe une base B telle que :
MatB(u) =
a11 · · · · · · a1n
0. . .
......
. . ....
0 · · · 0 ann
Notant T = MatB(u), on en déduit immédiatement que χu(x) = det(T−xIn) =
n∏i=1
(aii−x)
ce qui signifie que χu est scindé.
36 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
— (⇐) On suppose que χu est scindé et on veut montrer que u est trigonalisable.Nous allons raisonner par récurrence sur n = dim(E). Si n = 1 l’affirmation est immédiate.En supposant que pour n > 2 l’affirmation est vraie quand dim(E) = n − 1, montronsqu’elle est encore vraie quand dim(E) = n.Donc soit E un K-espace vectoriel de dimension n et soit u ∈ L(E) tel que χu soitscindé. Cela entraîne que Sp(u) 6= ∅. Soit λ ∈ Sp(u) et soit e1 un vecteur propre associé.Complétons e1 par des vecteurs e2, · · · , en pour que B = (e1, · · · , en) soit une base de E.Alors :
MatB(u) = M =
λ m12 · · · · · · · · · m1n
0...... M1...0
Donc χu(x) = (λ − x)det(M1 − xIn−1). D’autre part on a E = Ke1 ⊕ F où F =Vect(e2, · · · , en). Soit g l’endomorphisme de E défini par :
MatB(g) =
0 0 · · · · · · · · · 00...... M1...0
Remarquons que pour tout i ∈ {2, · · · , n} :
u(ei) = m1ie1 + g(ei)
Ainsi pour tout v ∈ F il existe a ∈ K tel que :
u(v) = ae1 + g(v)
D’autre part on a évidemment g(F ) ⊂ F . Donc g|F ∈ L(F ) et Mat{e2,··· ,en}(g|F ) = M1.Or χu(x) = (λ − x)det(M1 − xIn−1) = (λ − x)χM1(x). Comme χu est scindé, il s’ensuitque χM1 est scindé et on peut appliquer l’hypothèse de récurrence. Il existe une base(f2, · · · , fn) de F telle que :
Mat{f2,··· ,fn}(g|F ) =
α22 α23 · · · α2n
0 α33 · · · α3n...
. . . . . ....
0 · · · 0 αnn
2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 37
Comme E = Ke1 ⊕ F , B′ = {e1, f2, · · · , fn} est une base de E. Pour tout j ∈ {2, · · · , n}il existe a1j ∈ K tel que :
u(fj) = a1je1 + g(fj) = a1je1 +
j∑i=2
αijfi
Il s’ensuit que MatB′(u) est triangulaire supérieure.
On donne une autre preuve de l’implication χu scindé ⇒ u trigonalisable.
Définition 2.29 (Espace vectoriel quotient) Soit E un K-espace vectoriel et F ⊂ E unsous-espace vectoriel. Il existe une unique structure d’espace vectoriel sur le groupe quotient E/Ftelle que π : E → E/F soit une application linéaire.
Preuve: En effet, on a nécessairement
λ · v = λv (2.1) equa:quotient
si π est linéaire. Réciproquement, la formule (equa:quotient2.1) définit une structure d’espace vectoriel sur
E/F .
pro:quotient Proposition 2.30 (Passage au quotient) Soit f : E → G une application linéaire et F ⊂ E
un sous-espace vectoriel. On peut former un diagramme commutatif Ef //
π��
G
E/Ff
==si et seulement
si f(F ) = {0}. Dans ce cas, il existe une unique application f : E/F → G telle que ce diagrammecommute.
Preuve: Si on peut définir f , alors pour v ∈ F , on a f(v) = f(π(v)) = f(0) = 0.Réciproquement, si f(F ) = {0}, alors la formule f(v) = f(v) définit bien une application
f : E/F → G, et c’est la seule qui fait commuter le diagramme.Soit donc u : E → E telle que χu est scindé. Soit λ ∈ K tel que χu(λ) = 0. Alors λ est une
valeur propre de u, soit donc v ∈ E tel que u(v) = λv. On définit F = K · v et on forme lediagramme E
u //
u′ !!
E .
π��
E/F
Comme u(v) = λv, on a u(F ) ⊂ F et donc u′(F ) = 0. D’après le Propositionpro:quotient2.30, on obtient un
diagramme Eu′ //
π
��
E/F
E/F
u
;;
En mettant ensemble les deux diagrammes précédent, on obtient
38 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
E
π��
u //
u′ ##
E
π��
E/Fu// E/F
On a alors le lemme suivant, qui relie la matrice de u à celle de u :
lem:u-barre Lemme 2.31 Soit B = (e1, · · · , en) une base de E avec e1 = v. Alors B = (e2, · · · , en) est unebase de E/F . En particulier, dim(E/F ) = dim(E)− dim(F ).
De plus, MatB(u) est la matrice extraite de MatB(u) obtenue en supprimant la première ligneet la première colonne.
Preuve: Soit η ∈ E/F et soit w ∈ E tel que w = η. Alors il existe des scalaires λi tels quew =
∑i≥1 λiei. On en déduit que w =
∑i≥2 λiei. Ainsi η =
∑i≥2 λiei. Donc (e2, · · · , en) est une
famille génératrice de E/F .Par ailleurs, si on a une relation
∑i≥2 λiei = 0, alors on en déduit que
∑i≥2 λiei ∈ F par
définition de E/F , donc il existe λ1 tel que∑
i≥2 λiei = −λ1e1, et donc∑
i≥1 λiei = 0, et donctous les λi sont nuls, puisque B est une famille libre.
Ceci démontre que B est une base. Par le diagramme commutatif définissant u, si u(ej) =∑i ai,jei, alors u(ej) =
∑i≥2 ai,jei. Ceci montre que la matrice de u est la matrice extraite
annoncée.
On termine alors la preuve du théorème comme suit : d’après le Lemmelem:u-barre2.31, la matrice de
u dans la base B s’écrit
MatB(u) =
λ a12 · · · · · · · · · a1n0...... MatB(u)...0
(2.2) equa:mat-u
En développant le déterminant de MatB(u) − xIn par rapport à la première colonne, on endéduit que χu(x) = (λ− x)χu(x). Comme χu est scindé, si on note µi ses racines comptées avecmultiplicités, de sorte que χu(x) =
∏i(µi − x), on a
∏i(µi − λ) = 0. On en déduit l’existence
d’un entier i tel que µi = λ. Alors, χu(x) =∏j 6=i(µj − x). En particulier, χu est scindé.
On a dim(E/F ) = dim(E) − 1 ; en argumentant par récurrence sur dim(E), on peut doncsupposer qu’il existe une base B′ = (e′2, · · · , e′n) de E/F telle que MatB′(u) soit triangulairesupérieure. D’après la relation (
equa:mat-u2.2) appliquée avec B′, la matrice de u dans la base (e1, e
′2, · · · , e′n)
est triangulaire supérieure.
Exercice de cours 2.16 Soit A une matrice carrée d’ordre 2 à coefficients réels et soit χA sonpolynôme caractéristique. Soit ∆ le discriminant de χA.
1. Si ∆ < 0, montrer que A est diagonalisable sur C mais pas sur R.
2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 39
2. Si ∆ = 0, montrer que A est trigonalisable sur R. Donner un exemple où A n’est pasdiagonalisable sur R.
3. Si ∆ > 0, montrer que A est diagonalisable sur R.
Corollaire 2.32 Soit E un espace vectoriel sur C de dimension finie. Alors tout endomorphismede E est trigonalisable.
Preuve: C’est une conséquence du fait que C est algébriquement clos (i.e. tout polynôme àcoefficients dans C est scindé).
Remarque 2.33 Si un endomorphisme u est trigonalisable alors sa matrice dans une base ap-propriée est triangulaire supérieure et sur la diagonale principale figurent les valeurs propres deu, chacune d’elle y figurant autant de fois que son ordre de multiplicité dans χu.
Corollaire 2.34 Si χu est scindé, c’est-à-dire si χu(x) =
n∏i=1
(λi − x) alors tr(u) =n∑i=1
λi et
det(u) =n∏i=1
λi.
2.2.2 Polynômes d’endomorphismes
Soit u un endomorphisme de E. On rappelle que pour tout i ∈ N?, ui est défini par récurrencede la façon suivante :
1. u0 = IdE .2. Pour tout entier i > 1, ui = u ◦ ui−1.
On a alors les propriétés suivantes, pour tout (p, q) ∈ N on a :1. up ◦ uq = up+q = uq ◦ up.2. (up)q = upq = (uq)p
Définition 2.35 Soit u un endomorphisme de E. On appelle polynôme de l’endomorphisme utout endomorphisme de la forme :
P (u) =k∑i=0
aiui
où P (X) =
k∑i=0
aiXi est un polynôme de K[X].
Remarque 2.36 De même si A est une matrice de Mn(K) et P (X) =k∑i=0
aiXi un polynôme
de K[X], on pose :
P (A) =
k∑i=0
aiAi
40 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Exercice de cours 2.17 Calculer P (A), P (B) et P (C) pour P (X) = X2 + X + 1, lorsqueA,B,C sont les matrices des exercices
exo:matA2.1 et
exo:matBC2.6.
Proposition 2.37 Soient u et v deux endomorphismes de E, P et Q deux polynômes de K[X]et (λ, µ) ∈ K2. Alors :
1. (λP + µQ)(u) = λP (u) + µQ(u).2. (PQ)(u) = P (u) ◦Q(u) = Q(u) ◦ P (u) = (QP )(u).3. Si B est une base de E, alors MatB(P (u)) = P (MatB(u)).
Remarque 2.38 Cette proposition ne dit rien d’autre que pour tout u ∈ L(E) l’application :
Φu : K[X] −→ L(E)P (X) 7−→ P (u)
est un morphisme de K-algèbres. Plus précisément cela signifie que :— Φu est une application linéaire du K-espace vectoriel K[X] dans le K-espace vectorielL(E).
— ∀(P,Q) ∈ K[X]2 , Φu(PQ) = Φu(P ) ◦ Φu(Q).— Φu(1) = u0 = IdE.
D’autre part, le point 2. de la proposition dit que si P (X) = (X − a1)α1 · · · (X − ar)αr alors :
P (u) = (u− a1IdE)α1 ◦ · · · ◦ (u− arIdE)αr
2.2.3 Théorème de Cayley-Hamilton
theo:cayley-hamilton Théorème 2.39 (Cayley-Hamilton) Soit u un endomorphisme de E, alors :
χu(u) = 0
Commençons par traiter un exemple : soit M la matrice ayant tous les coefficients nuls sauf surla sur-diagonale, où ils sont égaux à 1 : M = (ai,j) avec ai,i+1 = 1 et ai,j = 0 pour j 6= i+ 1. Ona alors χM (x) = (−x)n. Montrons que Mn = 0. Pour cela, soit Vi ⊂ Kn le sous-espace vectorielengendré par e1, · · · , ei, avec la convention V0 = {0}. On a M · ei = ei−1 donc M ·Vi ⊂ Vi−1. Onen déduit que
Mn · Vn ⊂Mn−1 · Vn−1 ⊂Mn−2 · Vn−2 ⊂ · · · ,de telle sorte que finalement Mn · Vn = {0} et donc Mn = 0.
Preuve: Comme Mn(R) ⊂ Mn(C), il suffit de montrer le théorème dans le cas où K = C.Ainsi u est trigonalisable. Donc soit B = {e1, · · · , en} une base dans laquelle T = MatB(u) esttriangulaire supérieure. Notons λ1, · · · , λn, les valeurs propres de u telles que :
T =
λ1O . . .λn
Posons V0 = {0} et pour tout k ∈ {1, · · · , n} soit Vk := Vect(e1, · · · , ek). Alors on a le lemme
suivant :
2.2. TRIGONALISATION ET THÉORÈME DE CAYLEY-HAMILTON 41
Lemme 2.40 Pour tout k ∈ {1, · · · , n}, (u− λkIdE )(Vk) ⊂ Vk−1.
Preuve: Soit k ∈ {1, · · · , n} et j ∈ {1, · · · , k}. Comme T est triangulaire supérieure il existedes scalaires α1j , · · · , αjj tels que :
(u− λkIdE )(ej) =
j∑i=1
αijei − λkej
Si j < k, alors (u−λkIdE )(ej) ∈ Vk−1. Si j = k, comme αkk = λk, on a aussi (u−λkIdE )(ej) ∈Vk−1.
Poursuivons maintenant la preuve du théorème. Soit maintenant x ∈ E = Vn. Alors d’aprèsle lemme précédent :
(u− λnIdE )(x) ∈ Vn−1 , (u− λn−1IdE ) ◦ (u− λnIdE )(x) ∈ Vn−2 , · · · ,(u− λ2IdE ) ◦ · · · ◦ (u− λnIdE )(x) ∈ V1
Comme V1 n’est rien d’autre que le sous-espace propre associé à λ1, on a :
(u− λ1IdE ) ◦ · · · ◦ (u− λnIdE )(x) = 0
et comme χu(u)(x) = (−1)n(u− λ1IdE ) ◦ · · · ◦ (u− λnIdE )(x), il s’ensuit que χu(u) = 0.
exem:UV Exemple 2.41 On considère deux exemples pour illustrer ce théorème et la théorie du polynôme
minimal. Soit U =
(2 10 2
)et V =
(2 00 2
). Come ces matrices sont triangulaires supérieures, on
calcul facilement leurs polynômes caractéristiques : χU (X) = χV (X) = (X − 2)2. On vérifie
le théorème de Cayley-Hamilton : U − 2I2 =
(0 10 0
)et V − 2I2 =
(0 00 0
). On a donc bien
(U − 2I2)2 = 0 et (V − 2I2)
2 = 0.
Exercice de cours 2.18 Vérifier le théorème de Cayley-Hamilton pour les matrices A,B,Cci-dessus.
exo:matM Exercice de cours 2.19 Soit M la matrice
M =
2 1 1 2 04 4 3 5 −20 0 1 1 0−2 −1 −1 −1 1
2 2 2 4 1
Montrer que χM (X) = (X − 1)3(X − 2)2. Vérifier que χM (M) = 0 (pour cela garder la formefactorisée de χM !).
42 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
2.3 Polynôme minimal
2.3.1 Théorème de décomposition des noyaux
decompnoyau Théorème 2.42 Soient u ∈ L(E), P1, · · · , Pk des polynômes de K[X] premiers entre eux deux
à deux et P =k∏i=1
Pi. Alors :
Ker(P (u)) =k⊕i=1
Ker(Pi(u))
Preuve: Si k = 1, le résultat est évident.Si k = 2, alors P = P1P2 et P1 et P2 sont premiers entre eux. D’après le théorème de Bezout,
il existe deux polynômes U1 et U2 tels que :
1 = U1P1 + U2P2
Il s’ensuit que :IdE = U1(u) ◦ P1(u) + U2(u) ◦ P2(u)
Soit x ∈ Ker(P1(u)) ∩Ker(P2(u)). Alors la relation précédente entraîne que :
x = U1(u)(P1(u)(x)) + U2(u)(P2(u)(x)) = 0
Donc Ker(P1(u)) et Ker(P2(u)) sont en somme directe.Montrons maintenant que Ker(P (u)) ⊂ Ker(P1(u)) + Ker(P2(u)) :Soit x ∈ Ker(P (u)), alors :
x = U1(u)(P1(u)(x)) + U2(u)(P2(u)(x))
Or :P2(u)(U1(u)(P1(u)(x))) = U1(u)(P (u)(x)) = 0
Donc U1(u)(P1(u)(x)) ∈ Ker(P2(u)). De même U2(u)(P2(u)(x)) ∈ Ker(P1(u)). Finalement x ∈Ker(P1(u)) + Ker(P2(u)).
Montrons que Ker(P1(u)) + Ker(P2(u)) ⊂ Ker(P (u)) :Soit x ∈ Ker(P1(u)), alors P (u)(x) = P2(u)(P1(u)(x)) = 0 donc x ∈ Ker(P (u)) et Ker(P1(u)) ⊂
Ker(P (u)). De même Ker(P2(u)) ⊂ Ker(P (u)). Donc Ker(P1(u)) +Ker(P2(u)) ⊂ Ker(P (u)). Ona donc montré que :
Ker(P (u)) = Ker(P1(u))⊕Ker(P2(u))
Soit k > 3 et supposons le théorème démontré au rang k − 1. Montrons que le résultat estvrai au rang k. Soient P1, · · · , Pk des polynômes de K[X] premiers entre eux deux à deux et
P =k∏i=1
Pi. Alors les polynômes P1 et P2 · · ·Pk sont premiers entre eux et d’après ce qui a été
montré précédemment on a :
Ker(P (u)) = Ker(P1(u))⊕Ker(P2 · · ·Pk)(u) =k⊕i=1
Ker(Pi(u))
2.3. POLYNÔME MINIMAL 43
exo:noyaux-M Exercice de cours 2.20 Pour la matrice M ci-dessus, déterminer les sous-espaces vectorielsKer((M − I5)3) et Ker((M − 2I5)
2). Vérifier qu’ils sont supplémentaires dans R5. Retrouver cerésultat en utilisant le théorème de décomposition des noyaux.
2.3.2 Polynômes annulateurs, polynôme minimal
Commençons par quelques rappels.
Définition 2.43 Soit (A,+,×) un anneau. Alors on dit qu’un sous-ensemble I de A est unidéal si :
1. (I,+) est un sous-groupe de (A,+).
2. ∀a ∈ A , ∀x ∈ I , ax ∈ I.Un idéal est dit principal si I est engendré par un seul élément. Autrement dit I est principals’il existe α ∈ I tel que :
I = {yα ; y ∈ A}
Un anneau principal est un anneau dont tous les idéaux sont principaux.
L’anneau des polynômes K[X] est un anneau principal. C’est une conséquence de l’algorithmed’Euclide. En effet soit I un idéal de K[X]. Alors I est non vide. Si I = {0}, le résultat estévident.
Supposons I 6= {0}. Soit P0 un polynôme non nul de I de degré minimal. Soit P ∈ I. Eneffectuant la division euclidienne de P par P0, il existe des polynômes Q et R tels que :
P (X) = Q(X)P0(X) +R(X)
où deg(R) < deg(P0). Comme (I,+) est un idéal de K[X], P (X) − Q(X)P0(X) ∈ I. DoncR(X) ∈ I. Mais comme P0 un polynôme non nul de I de degré minimal, il s’ensuit que R(X) = 0et :
I = {Q(X)P0(X) ; Q(X) ∈ K[X]}
Donc K[X] est un anneau principal et tout idéal I de K[X] est engendré par tout polynôme nonnul de I de degré minimal. De plus il n’est pas difficile de voir qu’il existe un unique polynômeunitaire (i.e. dont le terme de plus haut degré vaut 1) de I de degré minimal qui engendre I.Résumons tout ceci dans la proposition qui suit :
anneauprinc Proposition 2.44 L’anneau K[X] des polynômes est principal et tout idéal I tel que I 6= {0}est engendré par un unique polynôme unitaire de I de degré minimal.
Proposition et définition 2.45 Soit u ∈ L(E). Considérons le sous-ensemble de K[X] sui-vant :
I(u) = {P ∈ K[X] ; P (u) = 0}
Alors I(u) est un idéal de K[X] appelé idéal annulateur de u.Tout polynôme P de I(u) est appelé polynôme annulateur de u.
44 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Preuve: Le polynôme nul appartient à I(u), donc I(u) 6= ∅. Soient (P,Q) ∈ (I(u))2. Alors :
(P −Q)(u) = P (u)−Q(u) = 0
Donc I(u) est un sous-groupe de (K[X],+). D’autre part pour tout A ∈ K[X] :
(AP )(u) = A(u) ◦ P (u) = 0
Donc AP ∈ I(u) et I(u) est un idéal de K[X].
exem:ideal Exemple 2.46 Soit W =
(0 10 0
). Alors Wn = 0 si n ≥ 2. Donc, pour P (X) = a0 + a1X +
a2X2 + · · · , on a P (W ) = a0I2 + a1W . L’annulateur de W est donc l’ensemble des polynômes
P (X) = a0 + a1X + a2X2 + · · · avec a = 0 = a1 = 0. On vérifiera que c’est un idéal de K[X].
On va maintenant étudier de façon similaire l’idéal annulateur des matrices U et V de l’Exempleexem:UV2.41. Pour cela, on établit un lemme préliminaire :
lem:taylor Lemme 2.47 Soit P ∈ K[X] de degré n et c ∈ K. Il existe d’uniques coefficients a0, · · · , an ∈ Ktels que
P (X) = an(X − c)n + an−1(X − c)n−1 + · · ·+ a1(X − c) + a0 (2.3) equa:taylor
Preuve: En effet, l’équationequa:taylor2.3 est équivalente à l’équation
P (X + c) = anXn + an−1X
n−1 + · · ·+ a1X + a0.
Les coefficients ai sont donc les coefficients du polynôme P (X + c).
exem:idealUV Exemple 2.48 Un polynôme P est dans l’idéal annulateur de U , resp. V , si et seulement si 2est une racine double, resp. simple de P .
Preuve: Soit P ∈ K[X] ; écrivons le à l’aide du Lemmelem:taylor2.47 sous la forme
P (X) = an(X − 2)n + an−1(X − 2)n−1 + · · ·+ a2(X − 2)2 + a1(X − 2) + a0.
On a alors
P (U) = an(U − 2I2)n + an−1(U − 2I2)
n−1 + · · ·+ a2(U − 2I2)2 + a1(U − 2I2) + a0I2.
Comme U − 2I2 =
(0 10 0
)est de carré nul, on a donc P (U) = a1(U − 2I2) + a0I2. Ainsi, P (U)
est nul si et seulement si a0 = a1 = 0, ce qui équivaut à dire que 2 est une racine double de P .Pour V , le raisonnement est similaire, à ceci près que V − 2I2 = 0. On a donc P (V ) = a0I2.
Ainsi, P (V ) est nul si et seulement si a0 = 0, ce qui équivaut à dire que 2 est une racine de P .
Proposition et définition 2.49 Soit u ∈ L(E). Alors I(u) 6= {0} et il existe un unique poly-nôme unitaire µu de I(u) de degré minimal qui engendre I(u).
Autrement dit µu est l’unique polynôme annulateur de u, unitaire de degré minimal qui divisetous les autres polynômes annulateurs de u.
µu s’appelle le polynôme minimal de u.
2.3. POLYNÔME MINIMAL 45
Preuve: D’après le théorème de Cayley-Hamilton, χu(u) = 0. Comme degχu = n, χu estun polynôme non nul et I(u) 6= {0}. D’après la proposition
anneauprinc2.44 il existe un unique polynôme
unitaire µu de I(u) de degré minimal qui engendre I(u). Cela revient à dire que :
I(u) = {P (X)µu(X) ;P (X) ∈ K[X]}
Exercice de cours 2.21 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer qu’on atrois possibilités pour µN : soit µN (X) = X − 1, soit µN (X) = X + 1, soit µN (X) = X2 − 1.
Remarque 2.50 Le degré m du polynôme minimal vérifie toujours m > 1.
Exemple 2.51 L’exempleexem:ideal2.46 montre que l’idéal annulateur de W est l’ensemble des multiples
de X2. Ainsi, µW (X) = X2. De façon similaire, l’exempleexem:idealUV2.48 montre que l’idéal annulateur de
U resp. V est l’ensemble des multiples de (X − 2)2 resp. X − 2. On a donc µU (X) = (X − 2)2
et µV (X) = X − 2.
Exercice de cours 2.22 Soit A la matrice de l’exerciceexo:matA2.1 et soit µA son polynôme minimal.
1. Montrer que µA divise (X + 1)(X − 1).Il y a donc trois cas de figure possible : µA est un des trois polynômes (X + 1), (X − 1) et(X + 1)(X − 1).
2. Les polynômes X − 1 et X + 1 annulent-ils A ?
3. En déduire que µA(X) = (X + 1)(X − 1).
On remarque que l’unique racine de χW et µW est 0, et que l’unique racine de χU , χV , µU et µVest 2.
Proposition 2.52 Le polynôme minimal et le polynôme caractéristique ont exactement les mêmesracines.
Preuve: Soit λ une racine de χu. Alors λ est une valeur propre de u. Soit x un vecteurpropre de u associé à λ. Il est facile de voir que pour tout entier i > 0 : ui(x) = λix. Donc si
µu(X) =
k∑i=0
aiXi, alors :
0 = µu(u)(x) =k∑i=0
aiui(x) =
(k∑i=0
aiλi
)x = µu(λ)x
Comme x est non nul car x est un vecteur propre, µu(λ) = 0 et λ est une racine de µu.Réciproquement, comme µu divise χu, les racines de µu sont des racines de χu.
Fin de la séance du 18/10/2018
46 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Exercice de cours 2.23 Pour les matrices B et C de l’exerciceexo:matBC2.6, montrer qu’on a
µB(X) = (X − 2)(X − 1)2 ; µC(X) = (X − 2)(X − 1).
Pour cela, on pourra utiliser la relation µB|χB, et la proposition précédante.
Exercice de cours 2.24 Soit M la matrice de l’exerciceexo:matM2.19. Montrer que
µM (X) = χM (X) = (X − 1)3(X − 2)2.
Exercice de cours 2.25 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer que lesracines de χN appartiennent à {−1, 1}.
Observons que µU (X) = (X−2)2, µV (X) = X−2 et µW (X) = X2. Par ailleurs, V est diagonale,U et W sont triangulaires supérieures. Les matrices U et W ne sont pas diagonalisables car leurunique espace propre est de dimension 1 (en effet U − 2I2 et W sont de rang 1). Ceci illustre lecritère de diagonalisabilité suivant :
caracdiagpolymini Théorème 2.53 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si son polynômeminimal est scindé et si toutes ses racines sont simples.
Preuve:— (⇒) Supposons que u est diagonalisable. Soient λ1, · · · , λr les valeurs propres de u (comp-
tées sans multiplicité - autrement dit λ1, · · · , λr sont distincts). Considérons le polynôme :
M(X) = (X − λ1) · · · (X − λr)
Comme u est diagonalisable,E =r⊕i=1
Eλi(u). Donc soit x ∈ E, alors il existe (x1, · · · , xr) ∈
Eλ1(u)× · · · × Eλr(u) tel que :x = x1 + · · ·+ xr
Or :
M(u)(xi) =
∏16j6rj 6=i
(u− λjIdE)
((u− λiIdE)(xi)) = 0
DoncM(u)(x) = 0 pour tout x ∈ E etM(u) = 0. DoncM est un polynôme annulateur deu et µu diviseM . Comme les racines de µu sont exactement les valeurs propres λ1, · · · , λr,il s’ensuit que µu = M et µu est scindé et n’a que des racines simples.
— (⇐) Supposons que µu est scindé et n’a que des racines simples. Alors :
µu(X) = (X − λ1) · · · (X − λr)
2.4. PROJECTEURS 47
et λ1, · · · , λr sont les valeurs propres de u. D’après le théorèmedecompnoyau2.42 :
E = Ker(µu(u)) =r⊕i=1
Ker(u− λiIdE) =r⊕i=1
Eλi(u)
Donc E est la somme directe des sous-espaces propres de u ce qui signifie que u estdiagonalisable.
Corollaire 2.54 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si il existe un poly-nôme annulateur de u qui est scindé et qui n’admet que des racines simples.
Preuve:— (⇒) On suppose que u est diagonalisable. Alors d’après le théorème précédent µu est
scindé et n’a que des racines simples. De plus c’est un polynôme annulateur.— (⇐) Réciproquement supposons qu’il existe un polynôme annulateur P de u qui est scindé
et qui n’admet que des racines simples. Comme µu divise P , il s’ensuit que µu est scindéet n’a que des racines simples ce qui implique d’après le théorème précédent que u estdiagonalisable.
Exercice de cours 2.26 Soit N ∈ M2(R) une matrice telle que N2 = I2. Montrer que N estdiagonalisable. Quelles peuvent être les valeurs propres de N ? Montrer que la trace de N vaut−2, 0 ou 2.
2.4 Projecteurs
Soient F et G deux sous-espaces vectoriels supplémentaires dans E : E = F ⊕G. Pour toutx de E il existe un unique couple (p(x), q(x)) ∈ F ×G tel que x = p(x) + q(x).
Proposition 2.55 Les applications p et q sont des endomorphismes de E. p s’appelle le pro-jecteur sur F parallèlement à G et q s’appelle le projecteur sur G parallèlement à F .
Remarque 2.56 On a p+ q = IdE.
Proposition 2.571. Soient F et G deux sous-espaces vectoriels de E supplémentaires dans E et p le projecteur
sur F parallèlement à G. Alors on a : p ◦ p = p, Im(p) = F et Ker(p) = G.De plus si q est le projecteur sur G parallèlement à F , alors p ◦ q = q ◦ p = 0.
2. Réciproquement, soit p ∈ L(E) tel que p ◦ p = p. Alors :
E = Im(p)⊕Ker(p)
et p est le projecteur sur Im(p) parallèlement à Ker(p).
48 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Preuve: Prouvons d’abord le point 1). Soit x ∈ E. Alors p(x) = p(x) + 0 et (p(x), 0) ∈ F ×G.Donc par unicité de la décomposition p(p(x)) = p(x) et p ◦ p = p.
Déterminons Im(p). Comme pour tout x ∈ E, p(x) ∈ F , il est évident que Im(p) ⊂ F .D’autre part pour tout x dans F , on a x = x + 0 et (x, 0) ∈ F × G. Donc x = p(x) ∈ Im(p).Ainsi Im(p) = F .
Déterminons Ker(p). Pour tout x de G, x = 0 + x et (0, x) ∈ F × G, donc p(x) = 0, d’oùG ⊂ Ker(p). Réciproquement soit x ∈ G, alors x = p(x) + q(x) = 0 + x et par unicité de ladécomposition p(x) = 0. Donc Ker(p) ⊂ G. Ainsi Ker(p) = G.
Montrons maintenant le point 2). Soit x ∈ Ker(p) ∩ Im(p). Alors p(x) = 0 et il existe y ∈ Etel que p(y) = x. D’où :
0 = p(x) = p(p(y)) = (p ◦ p)(y) = p(y) = x
Ceci montre que Im(p) ∩ Ker(p) = {0} et donc Im(p) et Ker(p) sont en somme directe. Soitx ∈ E. Alors x = p(x) + (x − p(x)). Or p(x − p(x)) = p(x) − (p ◦ p)(x) = 0. Donc x − p(x) ∈Ker(p). Ceci montre que E = Im(p) +Ker(p). Nous avons donc montré que Im(p) et Ker(p) sontsupplémentaires dans E.
Puisque pour tout x ∈ E, x = p(x) + (x − p(x)) avec p(x) ∈ Im(p) et x − p(x) ∈ Ker(p), pest le projecteur sur Im(p) parallèlement à Ker(p).
Exercice de cours 2.27 Soit, dans R2, les sous-espaces vectoriels F et G engendrés respec-tivement par (1, 1) et (1,−1). Ecrire les matrices P resp. Q des projections sur F (resp. G)parallèlement à G (resp. F ). Vérifier que P +Q = I2, P
2 = P,Q2 = Q.
Remarque 2.58 L’application linéaire q = IdE − p est le projecteur sur Ker(p) parallèlement àIm(p), Ker(q) = Im(p) et Im(q) = Ker(p).
Proposition et définition 2.59 Soient F1, . . . , Fk des sous-espaces vectoriels de E tels que
E =
k⊕i=1
Fi. Alors pour tout x ∈ E, il existe un unique k-uplet (p1(x), . . . , pk(x)) ∈ F1× . . .×Fk
tel que : x =k∑i=1
pi(x).
Les applications pi sont des endomorphismes et (pi)16i6k s’appelle famille de projecteurs
de E associée à la décomposition E =k⊕i=1
Fi.
Proposition 2.60
1. Soit (pi)16i6k une famille de projecteurs de E associée à la décomposition E =k⊕i=1
Fi.
Alors : pour tout (i, j) ∈ {1, . . . , k}2 :
— (i) IdE =k∑i=1
pi.
2.4. PROJECTEURS 49
— (ii) pi ◦ pi = pi.— (iii) pi ◦ pj = 0 si i 6= j.
De plus Im(pi) = Fi et Ker(pi) =k⊕j=1j 6=i
Fj pour tout i ∈ {1, . . . , k}.
2. Réciproquement soit (pi)16i6k une famille d’endomorphismes de E vérifiant les propriétés
(i), (ii) et (iii). Alors E =
k⊕i=1
Im(pi) et (pi)16i6k est la famille de projecteurs associés à
cette décomposition.
Remarque 2.61 Soit E =r⊕i=1
Fi et (pi)16i6r la famille de projecteurs associée à (Fi)16i6r. Pour
v un endomorphisme tel que pour tout i ∈ {1, · · · , r}, Fi est stable par v, on a v ◦ pi = pi ◦ v.
Preuve: Pour montrer l’égalité des applications linéaires v ◦ pi et pi ◦ v, il suffit de montrerque pour x ∈ Fj avec 1 ≤ j ≤ r, on a v ◦ pi(x) = pi ◦ v(x). Or, si j 6= i, on a pi(Vj) = {0}, doncv ◦ pi(x) = pi ◦ v(x) = 0. Si j = i, on a v ◦ pi(x) = pi ◦ v(x) = v(x).
prodiag Proposition 2.62 Soit u ∈ L(E). Alors u est diagonalisable si et seulement si il existe desscalaires λ1, · · · , λr et une famille de sous-espaces vectoriels (Fi)16i6r tels que :
E =r⊕i=1
Fi et u =r∑i=1
λipi
où (pi)16i6r est la famille de projecteurs associée à (Fi)16i6r. Dans ce cas Sp(u) = {λ1, · · · , λr}et Fi = Eλi(u) pour tout i ∈ {1, · · · , r}.
Preuve: Supposons que u est diagonalisable. Par le théorèmecriterediag2.19, E est somme directe de ses
sous-espaces propres :E =
⊕i
Eλi(u) .
Si on note Fi = Eλi(u) et (pi) la famille de projecteurs associée à cette décomposisition, il resteà montrer que u =
∑i λipi. Pour montrer que pour tout x de E, u(x) =
∑i λipi(x), on peut,
par linéarité, supposer qu’il existe i tel que x ∈ Fi. Alors, on a u(x) = λix et∑
j λjpj(x) = λix.Donc l’égalité est établie.
Supposons maintenant qu’il existe (Fi) et (λi) tels que{E =
⊕i Fi
p =∑
i λipi
Alors, on vérifie comme ci-dessus que pour x ∈ Fi, on a∑
j λjpj(x) = λix, de sorte que Fi ⊂Eλi(u). On raisonne sur les dimensions pour en déduire que Fi = Eλi(u) : l’inclusion déjà établiedonne dim(Fi) ≤ dim(Eλi(u)). D’où dimE =
∑dim(Fi) ≤
∑dim(Eλi(u)) ≤ dimE, de sorte
que toutes ces inégalités sont des égalités, et donc Fi = Eλi(u). On en déduit E =⊕Eλi(u), et
donc que u est diagonalisable.Fin de la séance du 26/10/2018
50 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Exercice de cours 2.28 Soit F ⊂ R3 le sous-espace vectoriel engendré par (1,−2, 3), et soit Gle sous-espace vectoriel engendré par (1,−1, 0) et (0, 0, 1). Calculer la matrice P de la projectionsur F parallèlement à G et la matrice Q de la projection sur G parallèlement à F . Calculer2P + Q et comparer le résultat à la matrice C de l’exercice
exo:matBC2.6. Pouvez vous expliquer ce que
vous constatez ?
Remarque 2.63projitere
— Si E =r⊕i=1
Fi et u =r∑i=1
λipi où (pi)16i6r est la famille de projecteurs associée à
(Fi)16i6r, alors pour tout entier k > 0 :
uk =
r∑i=1
λki pi
— Plus généralement si (u1, · · · , ur) ∈ L(E)r et si pour tout i ∈ {1, · · · , r} les sous-espaces
Fi sont stables par ui, alors l’endomorphisme u =
r∑i=1
ui◦pi vérifie pour tout entier k > 0 :
uk =r∑i=1
uki ◦ pi
Il semble que ce serait préférable de mettre cette section après le Théorèmecriterediag2.19.
2.5 Sous-espaces caractéristiques et décomposition de Dunford-Jordan
2.5.1 Indice d’un endomorphisme et endomorphismes nilpotents
noyauitere Proposition 2.64 Soit u ∈ L(E). Alors :
1. Pour tout entier k > 0, Ker(uk) ⊂ Ker(uk+1).
2. La suite (Ker(uk))k∈N est stationnaire. Autrement dit :
∃j > 0 ; ∀k > j , Ker(uj) = Ker(uk)
3. Si j est un entier tel que Ker(uj) = Ker(uj+1) alors :
∀k > j , Ker(uj) = Ker(uk)
4. Soit i0 le plus petit entier tel que Ker(ui0) = Ker(ui0+1). Alors i0 6 dim(E).
Preuve:
2.5. SOUS-ESPACES CARACTÉRISTIQUES 51
1. Soit k ∈ N et soit x ∈ Ker(uk), alors :
uk+1(x) = u(uk(x)) = u(0) = 0
Donc x ∈ Ker(uk+1) et Ker(uk) ⊂ Ker(uk+1).2. Considérons la suite (dim(Ker(uk)))k∈N. Comme Ker(uk) ⊂ Ker(uk+1) ⊂ E, dim(Ker(uk)) 6
dim(Ker(uk+1)) 6 dim(E) = n donc (dim(Ker(uk)))k∈N est une suite croissante d’entiersmajorée. Donc à partir d’un certain rang, la suite (dim(Ker(uk)))k∈N est stationnaire.Donc :
∃j > 0 ; ∀k > j , dim(Ker(uj)) = dim(Ker(uk))
Comme Ker(uj) ⊂ Ker(uk) pour tout k > j, il s’ensuit que Ker(uj) = Ker(uk) pour toutk > j.
3. Supposons que Ker(uj) = Ker(uj+1). Montrons que pour tout k > j, Ker(uk) = Ker(uk+1).Soit x ∈ Ker(uk+1), alors :
uk+1(x) = uj+1(uk−j(x)) = 0
Donc uk−j(x) ∈ Ker(uj+1), mais comme Ker(uj) = Ker(uj+1), uk−j(x) ∈ Ker(uj) et :
uj(uk−j(x)) = 0 = uk(x)
Donc x ∈ Ker(uk) et Ker(uk+1) ⊂ Ker(uk). Mais d’après le 1. on a aussi Ker(uk) ⊂Ker(uk+1). Finalement Ker(uk) = Ker(uk+1).
4. Soit i0 le plus petit entier tel que Ker(ui0) = Ker(ui0+1). Considérons l’application :
F : {0, · · · , i0} −→ {0, · · · , n}k 7−→ dim(Ker(uk))
D’après le point précédent, on a :
dim(Ker(u0)) < · · · < dim(Ker(ui0))
Donc F est injective et il s’ensuit que i0 6 n.
Définition 2.65 Soit u ∈ L(E). On appelle indice de u le plus petit entier i0 tel que Ker(ui0) =Ker(ui0+1).
Exercice de cours 2.29 Déterminer l’indice de B − I3 et celui de C − I3.
Remarque 2.66kerupnul— Si i0 > 0, alors d’après la définition de i0 et la proposition on a pour tout p > 1 :
{0} = Ker(u0) · · · Ker(ui0) = Ker(ui0+1) = · · · = Ker(ui0+p)
52 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
— Soit p ∈ N?. Alors Ker(up) = {0} si et seulement si Ker(u) = {0}. En effet Ker(u) ⊂Ker(up) donc l’égalité Ker(up) = {0} implique Ker(u) = {0}. Réciproquement, si Ker(u) ={0}, alors u est injective, et il en est de même de up pour tout p.
Le deuxième point résulte aussi de la Propositionnoyauitere2.64 dans le cas particulier i0 = 0.
Définition 2.67 Soit ν ∈ L(E). On dit que ν est un endomorphisme nilpotent s’il existe unentier k tel que νk = 0.
pro:nilpotent Proposition 2.68 Soit ν un endomorphisme nilpotent de E. Soit n0 l’indice de ν. Alors n0 estle plus petit entier tel que νn0 = 0 et on a n0 6 dim(E).
Preuve: Soit m le plus petit entier tel que νm = 0. Alors νm−1 6= 0 et :
Ker(νm−1) Ker(νm) = E
Il s’ensuit que Ker(νm) = Ker(νm+1) et m est l’indice de ν.
Exercice de cours 2.30 Donner un exemple d’endomorphisme nilpotent non nul.
diagnu Proposition 2.69 Soit ν un endomorphisme nilpotent de E. Alors Sp(ν) = {0}. De plus ν estdiagonalisable si et seulement si ν = 0.
Preuve: Soit n0 l’indice de ν. Alors νn0 = 0 et νn0−1 6= 0. Soit P (X) = Xn0 . Alors P est unpolynôme annulateur et comme le polynôme minimal de ν divise P , il s’ensuit que µν(X) = Xk
avec k 6 n0.D’après le théorème
caracdiagpolymini2.53, ν est diagonalisable si et seulement si µν est scindé (ce qui est
le cas) et µν n’a que des racines simples. Or µν n’a que des racines simples si et seulement siµν(X) = X. Mais dans ce cas µν(ν) = ν = 0.
Proposition 2.70 Soit d un endomorphisme diagonalisable de E. Alors d est nilpotent si etseulement si d = 0.
Exercice de cours 2.31 Soit ν un endomorphisme nilpotent de E et soit n0 son indice denilpotence.
1. Montrer que ν annule un polynôme scindé.
2. Quelles sont les valeurs propres de ν ?
3. Montrer qu’il existe une base de E dans laquelle la matrice de ν est strictement triangulairesupérieure (c’est-à-dire triangulaire supérieure avec des 0 sur la diagonale).
4. Montrer que νdim(E) = 0.
5. Retrouver le résultat de la Propositionpro:nilpotent2.68 selon lequel n0 ≤ dim(E).
2.5. SOUS-ESPACES CARACTÉRISTIQUES 53
2.5.2 Sous-espaces caractéristiques
Dans ce paragraphe u est un endomorphisme de E tel que χu soit scindé sur K. Soientλ1, · · · , λr les valeurs propres (distinctes) de u. Alors :
χu(X) = (−1)nr∏i=1
(X − λi)αi , µu(X) =r∏i=1
(X − λi)βi
On note d’autre part :
Cλi(u) := Ker(u− λiIdE)αi et Mλi(u) := Ker(u− λiIdE)βi
On a bien entendu 1 6 βi 6 αi.
Définition 2.71 Soit i ∈ {1, · · · , r}. Le sous-espace vectoriel Cλi(u) s’appelle le sous-espacecaractéristique associé à la valeur propre λi.
exo:esp-carac Exercice de cours 2.32 Déterminer C1(A),M1(A), C−1(A),M−1(A). Déterminer aussi C1(B)et M1(B).
Remarque 2.72stab— D’après le paragraphe précédent, on a :
Eλi(u) ⊂Mλi(u) ⊂ Cλi(u)
— Mλi(u) et Cλi(u) sont stables par u (i.e. u(Mλi(u)) ⊂Mλi(u) et u(Cλi(u)) ⊂ Cλi(u)).
indice Proposition 2.73 Soit i ∈ {1, · · · , r}. L’indice de u− λiIdE est βi. En particulier on a :
Mλi(u) = Cλi(u)
Preuve: Les polynômes des ensembles {(X − λi)αi ; 1 6 i 6 r} et {(X − λi)βi ; 1 6 i 6 r}sont premiers deux à deux. Comme χu et µu sont des polynômes annulateurs on a Ker(χu(u)) =Ker(µu(u)) = E et d’après le théorème
decompnoyau2.42 on a :
E =r⊕i=1
Mλi(u) =r⊕i=1
Cλi(u)
Donc :
dim(E) =
r∑i=1
dim(Mλi(u)) =
r∑i=1
dim(Cλi(u))
Doncr∑i=1
(dim(Cλi(u)− dim(Mλi(u)) = 0
54 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Comme dim(Cλi(u))−dim(Mλi(u)) > 0, On a dim(Mλi(u)) = dim(Cλi(u)) et Mλi(u) = Cλi(u).On en déduit donc que l’indice i0 de u− λiIdE vérifie i0 6 βi.
Supposons que i0 < βi. Cela signifie alors que Ker(u − λiIdE)βi−1 = Ker(u − λiIdE)βi .Considérons alors le polynôme :
Q(X) =
∏16j6rj 6=i
(X − λj)βj
(X − λi)βi−1
Soit x ∈ E. Comme E =r⊕j=1
Mλj (u), il existe (x1, · · · , xr) ∈ Mλ1(u) × · · · ×Mλr(u) tel que :
x = x1 + · · · + xr. Pour tout j ∈ {1, · · · , r} tel que j 6= i, on a (u − λjIdE)βj (xj) = 0. De pluscomme Ker(u − λiIdE)βi−1 = Ker(u − λiIdE)βi = Mλi(u) on a (u − λiIdE)βi−1(xi) = 0. Doncpour tout j ∈ {1, · · · , r} Q(u)(xj) = 0 et :
Q(u)(x) = 0
Ceci pour tout x ∈ E. Donc Q est un polynôme annulateur de u. Mais deg(Q) < deg(µu) ce quicontredit la définition de µu. Donc i0 = βi.
pro:dim-esp-caracteristique Proposition 2.74 Pour tout i ∈ {1, · · · , r} on a :
dim(Cλi(u)) = m(λi)
Preuve: On montre d’abord que dim(Cλi(u)) ≤ m(λi) par une preuve analogue à celle dela Proposition
pro:inegalite-esp-propre2.17. Posons ni = dim(Cλi(u)). Comme Cλi(u) est stable par u, la restriction
ui = u|Cλi (u)est un endomorphisme de Cλi(u). De plus on a Ker(ui − λiIdCλi (u))
αi = Cλi(u).Donc le polynôme Q(X) = (X − λi)αi est un polynôme annulateur de ui et ceci montre queλi est l’unique valeur propre de ui. Soit Bi une base de Cλi(u) dans laquelle la matrice de uiest triangulaire supérieure. On complète Bi par une famille de vecteurs L de façon à ce queB = Bi ∪ L soit une base de E. Alors :
MatB(u) =
λi a12 · · · a1ni
0. . .
......
. . . . . . ani−1,ni0 · · · 0 λi
A
O B
On en déduit alors que :
χu(X) = (λi −X)niχB(X)
et donc (λi −X)ni divise χu(X). Cela implique que ni 6 αi. On a donc :
dim(E) =
r∑i=1
dim(Cλi(u)) =
r∑i=1
ni 6r∑i=1
αi = dim(E)
On déduit que ni = αi.Fin de la séance du 09/11/2018
2.5. SOUS-ESPACES CARACTÉRISTIQUES 55
Exercice de cours 2.33 Montrer que ce résultat est compatible avec les calculs d’espaces ca-ractéristiques que vous avez faits dans l’exercice
exo:esp-carac2.32.
2.5.3 Décomposition de Dunford-Jordan
Dunford Théorème 2.75 (Décomposisition de Dunford-Jordan) Soit u ∈ L(E) tel que χu soitscindé dans K[X]. Alors il existe un unique couple (d, ν) d’endomorphismes de E tel que :
1. u = d+ ν.2. d ◦ ν = ν ◦ d.3. d est diagonalisable et ν est nilpotent.
De plus si µu(X) =r∏i=1
(X − λi)βi , alors d =r∑i=1
λipi où (pi)16i6r est la famille de projecteurs
associés à la décomposition E =r⊕i=1
Cλi(u), et l’indice de ν est N = max16i6r
(βi).
Dunford a écrit la décomposition et Jordan a trouvé la base dans laquelle le nilpotent a la matriceusuelle.
Preuve: On a E =r⊕i=1
Cλi(u). Soit (pi)16i6r la famille de projecteurs associés à cette décom-
position. Posons d =r∑i=1
λipi. Alors d est un endomorphisme diagonalisable (voir propositionprodiag2.62). Posons maintenant ν = u− d. Alors :
ν = u−r∑i=1
λipi = u ◦r∑i=1
pi −r∑i=1
λipi =
r∑i=1
(u− λiIdE) ◦ pi
Montrons que ν ◦ d = d ◦ ν.
ν ◦ d =
(r∑i=1
(u− λiIdE) ◦ pi
)◦
r∑j=1
λjpj
=∑
16i,j6r
λj(u− λiIdE) ◦ pi ◦ pj
=∑
16i,j6r
λj(u− λiIdE) ◦ pj ◦ pi
Comme pour tout couple (i, j) ∈ {1, · · · , r}2, les sous-espaces Cλj (u) sont stables par (u−λiIdE)alors (u− λiIdE) ◦ pj = pj ◦ (u− λiIdE). Donc :
ν ◦ d =∑
16i,j6r
λjpj ◦ (u− λiIdE) ◦ pi
= d ◦ ν
56 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Montrons maintenant que ν est nilpotent d’indiceN = max16i6r
(βi). Comme pour tout i ∈ {1, · · · , r},les sous-espaces Cλi(u) sont stables par (u− λiIdE), on a (voir la remarque
projitere2.63) :
νN =r∑i=1
(u− λiIdE)N ◦ pi
Or N > βi pour tout i ∈ {1, · · · , r} et βi est l’indice de u − λiIdE d’après la propositionindice2.73.
Donc Ker(u− λiIdE)N = Ker(u− λiIdE)βi = Cλi(u).Soit x ∈ E. Alors pour tout i ∈ {1, · · · , r}, pi(x) ∈ Ker(u − λiIdE)N . Donc pour tout
x ∈ E, νN (x) = 0 ce qui signifie que νN = 0 et ν est nilpotent. Soit j ∈ {1, · · · , r} telque βj = N . Alors dans ce cas Ker(u − λjIdE)N−1 Ker(u − λjIdE)N = Cλj (u). Donc soitx ∈ Cλj (u) \Ker(u− λjIdE)N−1. Alors pi(x) = 0 pour tout i 6= j et :
νN−1(x) =
r∑i=1
(u− λiIdE)N−1(pi(x)) = (u− λjIdE)N−1(x) 6= 0
Donc ν est nilpotent d’indice N .Il nous reste à montrer l’unicité du couple (d, ν). Soit (d′, ν ′) vérifiant les hypothèses 1, 2 et
3 du théorème. Notons N ′ l’indice de ν ′. Soit λ′ ∈ Sp(d′) et x ∈ Eλ′(d′) \ {0}. Alors comme u etd′ commutent :
0 = ν ′N′(x) = (u− d′)N ′(x) =
N ′∑k=0
(N ′
k
)(−1)N
′−k(uk ◦ d′N ′−k)(x)
=N ′∑k=0
(N ′
k
)(−1)N
′−k(uk ◦ (λ′IdE)N′−k)(x)
= (u− λ′IdE)N′(x)
Donc Ker(u− λ′IdE)N′ 6= {0}. Il s’ensuit d’après la remarque
kerupnul2.66 que Ker(u− λ′IdE) 6= {0} et
λ′ ∈ Sp(u). Donc Sp(d′) ⊂ Sp(u). De plus on déduit de ce qui précède que :
Eλ′(d′) ⊂ Cλ′(u)
Notons Sp(d′) = {λ′1, · · · , λ′s}. Comme d′ est diagonalisable :
E =s⊕i=1
Eλ′i(d′) ⊂
s⊕i=1
Cλ′i(u)
Donc E =s⊕i=1
Cλ′i(u). On en déduit que {λ′1, · · · , λ′s} = {λ1, · · · , λr} et Sp(d′) = Sp(u). Donc
pour tout i ∈ {1, · · · , r}, Eλi(d′) = Cλi(u) et pour tout x ∈ E on a :
d′(x) =r∑i=1
d′(pi(x)) =r∑i=1
λipi(x) = d(x)
Donc d = d′ et ν = ν ′.
2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 57
Remarque 2.76 Si u est diagonalisable, sa décomposition de Dunford-Jordan est donc u = u+0(c’est-à-dire d = u et ν = 0).
Exercice de cours 2.34
1. Déterminer la décomposition de Dunford-Jordan des matrices A et C.
2. Déterminer la décomposition de Dunford-Jordan de la matrice
1 2 30 4 50 0 6
. Attention c’est
un piège.
Remarque 2.77
1. Sp(d) = Sp(u).
2. ∀λ ∈ Sp(u) , Eλ(d) = Cλ(u).
3. ∀λ ∈ Sp(u), Cλ(u) est stable par ν et par d.
2.6 Applications et exemples : suites récurrentes
2.6.1 Calcul des puissances d’un endomorphisme
Soit u ∈ L(E) tel que χu soit scindé dans K[X]. Soient λ1, · · · , λr les valeurs propres (dis-tinctes) de u. Alors :
χu(X) = (−1)nr∏i=1
(X − λi)αi , µu(X) =
r∏i=1
(X − λi)βi
On rappelle d’autre part que :
Ker(u− λiIdE)βi−1 Ker(u− λiIdE)βi = Ker(u− λiIdE)αi = Cλi(u)
et que 1 6 βi 6 αi = dim(Cλi(u)).D’après le théorème
Dunford2.75 il existe un unique couple (d, ν) d’endomorphismes de E vérifiant les
propriétés 1,2,3 du théorème. Notons m l’indice de ν. Soit k ∈ N alors comme d et ν commutenton peut appliquer la formule du binôme de Newton ce qui donne :
uk =k∑i=0
(ki
)dk−iνi
Si k > m− 1, alors :
uk =m−1∑i=0
(ki
)dk−iνi
58 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Maintenant soient des bases B1, · · · ,Br respectivement de chacun des sous-espaces caractéris-tiques Cλ1(u), · · · , Cλr(u). Considérons la base de E définie par B = B1 ∪ · · · ∪ Br. Dans ce cascomme Eλi(u) = Cλi(u) pour tout i ∈ {1, · · · , r} on a :
MatB(d) =
λ1. . .
λ1
O. . . O
λr. . .
λr
et MatB(ν) = MatB(u − d). De plus comme Cλi(u) est stable par ν, en posant A = MatB(u),D = MatB(d) et N = MatB(ν) alors A est une matrice diagonale par blocs et pour k > m − 1on a :
Ak =m−1∑i=0
(ki
)Dk−iN i
On sait calculer les puissances de D. Il reste à calculer N2, · · · , Nm−1.
2.6.2 Une méthode de trigonalisation
On peut cependant faire les choses plus finement. Pour cela pour tout i ∈ {1, · · · , r} comme :
Ker(u− λiIdE) · · · Ker(u− λiIdE)βi−1 Ker(u− λiIdE)βi
On construit des bases Bi,1, · · · ,Bi,βi respectivement de Ker(u−λiIdE), · · · ,Ker(u−λiIdE)βi detelle manière que :
Bi,1 ⊂ · · · ⊂ Bi,βiAutrement dit chaque base Bi,j−1 de Ker(u−λiIdE)j−1 est complétée par une famille libre Lj deKer(u− λiIdE)j pour obtenir une base Bi,j de Ker(u− λiIdE)j . Remarquons alors que si v ∈ Ljalors (u− λiIdE)j−1((u− λiIdE)(v)) = 0. Donc u(v)− λiv ∈ Ker(u− λiIdE)j−1 = Vect(Bi,j−1).Il s’ensuit qu’on a :
MatB(u) =
λ1 ∗ · · · · · · · · · · · · ∗. . . . . .
...
λ1. . .
...
O. . . . . .
...
λr. . .
.... . . ∗
λr
et dans cette base N est une matrice triangulaire supérieure stricte.
2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 59
2.6.3 Suites récurrentes
Intéressons-nous maintenant au cas des suites de nombres complexes définies par une relationde récurrence du type :
un+k = ak−1un+k−1 + ak−2un+k−2 + · · ·+ a0un (2.4) equa:suite-recu
pour tout n > 0. Cette relation de récurrence est équivalente à la relation de récurrence matri-cielle :
Xn+1 = AXn
pour tout n > 0 où Xn =
un+k−1...un
∈ Mk,1(K) et A =
ak−1 ak−2 · · · · · · a0
1 0 · · · · · · 0
0 1. . .
......
. . . . . . . . ....
0 · · · 0 1 0
∈Mk(K). Un calcul facile permet de voir que pour tout n > 0, Xn = AnX0. Calculons le polynômecaractéristique χA. Alors :
χA(λ) =
∣∣∣∣∣∣∣∣∣∣∣∣
ak−1 − λ ak−2 · · · · · · a01 −λ · · · · · · 0
0 1. . .
......
. . . . . . . . ....
0 · · · 0 1 −λ
∣∣∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣∣∣
−λ 0 · · · · · · 00 −λ · · · · · · 0
0 1. . .
......
. . . . . . . . ....
0 · · · 0 1 −λ
∣∣∣∣∣∣∣∣∣∣∣∣+Dk−1 = (−λ)k +Dk−1
où :
Di =
∣∣∣∣∣∣∣∣∣∣∣∣
ai ai−1 · · · · · · a01 −λ · · · · · · 0
0 1. . .
......
. . . . . . . . ....
0 · · · 0 1 −λ
∣∣∣∣∣∣∣∣∣∣∣∣En développant suivant la première colonne on remarque que Di = (−1)iaiλ
i − Di−1 et parrécurrence on montre que :
Di = (−1)ii∑
j=0
ajλj
et :χA(λ) = (−1)k
(λk − ak−1λk−1 − · · · − a1λ− a0
)
60 CHAPITRE 2. RÉDUCTION DES ENDOMORPHISMES
Si on travaille dans C, χA est scindé.Fin de la séance du 16/11/2018
Supposons d’abord que toutes les racines de χA soient distinctes. Notons λ1, · · · , λk ces
racines. Alors pour tout i ∈ {1, · · · , k}, Vi =
λk−1i
λk−2i...λi1
est un vecteur propre associé à λi car
ak−1λki + · · ·+ a1λi + a0 = λki .
D’après la remarquediagmatendo2.23, on a D = P−1AP où P est la matrice deMk(K) dont les vecteurs
colonne Ci(P ) vérifient Ci(P ) = Vi, et :
D =
λ1 0. . .
0 λk
Donc notant P−1X0 =
c1...ck
Xn = AnX0 = PDnP−1X0 = P
λn1 0
. . .0 λnk
c1...ck
= P
c1λn1
...ckλ
nk
Donc Xn = c1λ
n1V1 + · · ·+ ckλ
nkVk d’où :
Proposition 2.78 Supposons que χA(X) = (−1)k(Xk − ak−1Xk−1 − · · · − a1X − a0
)a k ra-
cines distinctes λi, . . . , λk. Alors, les suites qui vérifient la relation de récurrence (equa:suite-recu2.4) sont les
suites définies parun = c1λ
n1 + · · ·+ ckλ
nk ,
où c1, · · · , ck sont des constantes quelconques.
Remarque 2.79 Les coefficients inconnus c1, · · · , ck sont déterminés par les k premières valeursu0, · · · , uk−1 de la suite.
Le cas où les racines ne sont pas distinctes est plus complexe. Traitons ce cas au travers d’unexemple. Considérons la suite récurrente suivante vérifiant pour tout n > 0 :
un+3 = un+2 + 8un+1 − 12un
La matrice A définie comme ci-dessus vaut :
A =
1 8 −121 0 00 1 0
2.6. APPLICATIONS ET EXEMPLES : SUITES RÉCURRENTES 61
Et d’après ce qui a été fait plus haut :
χA(λ) = −(λ3 − λ2 − 8λ+ 12) = −(λ− 2)2(λ+ 3)
Donc les valeurs propres de A sont 2 et −3 de multiplicités respectives 2 et 1.
D’autre part dim(E2(A)) = 1 et E2(A) = Vect(U) où U =
421
. De plus le système :
(A− 2I3)2
xyz
= 0
est équivalent à x − 4y + 4z = 0 d’où l’on déduit qu’en posant V =
011
, {U, V } est une base
de l’espace C2(A). De plus AV = 2V − U .
Comme E−3(A) = Vect(W ) où W =
−93−1
, (U, V,W ) est une base de R3. Donc si on pose
P =
4 0 −92 1 31 1 −1
on a :
P−1AP =
2 −1 00 2 00 0 −3
= D +N
où D =
2 0 00 2 00 0 −3
et N =
0 −1 00 0 00 0 0
. Comme N est nilpotente d’indice 2, on déduit que
pour n > 1 : un+2
un+1
un
= An
u2u1u0
= PDnP−1
u2u1u0
= P (Dn + nDn−1N)C
où C = P−1
u2u1u0
=
c1c2c3
. Donc :
un+2
un+1
un
=
4 0 −92 1 31 1 −1
2n −n2n−1 00 2n 00 0 (−3)n
c1c2c3
et
un = c12n + c2(−n2n−1 + 2n)− c3(−3)n
Chapitre 3
Systèmes différentiels linéaires àcoefficients constants
Dans toute la suite le corps K considéré est R ou C.
3.1 Exponentielle d’une matrice ou d’un endomorphisme
3.1.1 Espaces vectoriels normés
La notion d’espace vectoriel normé fait l’objet d’un cours spécifique au S4. Nous nous conten-tons ici d’énoncer les résultats de cette théorie qui nous seront utiles pour résoudre les systèmesdifférentiels.
Définition 3.1 Soit E un K-espace vectoriel. On appelle norme sur E toute application N :E −→ R+ vérifiant :
1. N(x) = 0⇔ x = 0.
2. ∀(λ, x) ∈ K× E ; N(λx) = |λ|N(x).
3. ∀(x, y) ∈ E × E ; N(x+ y) 6 N(x) +N(y).
Un espace vectoriel muni d’une norme est appelé espace vectoriel normé.
Dans la pratique on note pour tout x ∈ E, N(x) = ‖x‖ et (E, ‖ ‖) désigne l’espace vectorielnormé associé.
Exercice de cours 3.1 Soit E = R2. On note, pour (x, y) ∈ E,— ‖(x, y)‖1 = |x|+ |y| ;— ‖(x, y)‖2 =
√x2 + y2 ;
— ‖(x, y)‖∞ = sup(|x|, |y|)Montrer que ‖ ‖1, ‖ ‖2 et ‖ ‖∞ sont des normes. Quelles sont les “cercles unités” pour ces normes,définis par l’équation ‖(x, y)‖i = 1 ?
Voici maintenant quelques résultats importants pour la suite :
63
64 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Définition 3.2 On dit qu’une suite (xn)n∈N de E tend vers x ∈ E si ‖xn − x‖ −→ 0 quandn −→∞.
Définition 3.3 Deux normes ‖ ‖1 et ‖ ‖2 sont équivalentes s’il existe α, β > 0 tels que pourtout x ∈ E :
α‖x‖1 6 ‖x‖2 6 β‖x‖1
Les suites convergentes pour ‖ ‖1 ou ‖ ‖2 sont alors les mêmes et ont la même limite.
Théorème 3.4 Si E est de dimension finie alors toutes les normes sont équivalentes.
pro:composantes Proposition 3.5 Si E est de dimension finie muni d’une base (e1, · · · , en) alors toute suite
(xk)k∈N de E telle que xk =
n∑i=1
xk,iei pour tout k ∈ N tend vers x =
n∑i=1
xiei si et seulement si
pour tout i ∈ {1, · · · , n} :xk,i −→ xi quand k −→∞
Preuve: Il suffit de prendre la norme sup, définie par ‖∑n
i=1 xiei‖∞ = supi |xi|, pour obtenirl’équivalence indiquée.
Proposition 3.6 Si (E, ‖ ‖) est un K-espace vectoriel normé de dimension finie alors (E, ‖ ‖)est complet. Autrement dit toute suite de Cauchy dans E est convergente. On rappelle qu’unesuite (xn)n∈N est de Cauchy si :
∀ε > 0 , ∃N ; ∀p, q > N , ‖xp − xq‖ < ε
Preuve: Si on utilise la norme sup ‖ ‖∞, cela résulte de la Propositionpro:composantes3.5.
Définition 3.7 Si (E, ‖ ‖E) et (F, ‖ ‖F ) sont deux espaces vectoriels normés, alors f : E −→ Fest continue en x ∈ E si pour toute suite (xn)n∈N de E telle que lim
n−→∞xn = x pour la norme
‖ ‖E alors limn−→∞
f(xn) = f(x) pour la norme ‖ ‖F . Là encore si E et F sont de dimensionfinie l’ensemble des fonctions continues est le même quel que soit le choix des normes sur E etF .
À partir de maintenant (E, ‖ ‖) est un espace vectoriel normé de dimension finie n.
Donnons un exemple important de norme dans un espace vectoriel de dimension finie : soit
(e1, · · · , en) est une base de E. Pour tout x =
n∑i=1
xiei, posons :
‖x‖1 =n∑i=1
|xi|
Alors ‖ ‖1 est une norme sur E.
3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 65
Définition 3.8 Soit∑k>0
uk une série de E. On dit∑k>0
uk converge absolument si la série∑k>0
‖uk‖ converge.
Proposition 3.9 Soit∑k>0
uk une série de E qui converge absolument. Alors∑k>0
uk est conver-
gente.
Preuve: Posons SN =N∑k=0
uk. Alors pour tout p > q :
‖Sp − Sq‖ =
∥∥∥∥∥∥p∑
k=q+1
uk
∥∥∥∥∥∥ 6p∑
k=q+1
‖uk‖
Comme∑k>0
‖uk‖ est une série convergente la suite
(N∑k=0
‖uk‖
)N∈N
est de Cauchy. Alors, pour
tout ε > 0 :
∃N ; ∀p, q > N ,
p∑k=q+1
‖uk‖ < ε
Donc :∀p, q > N , ‖Sp − Sq‖ < ε
Donc (SN )N∈N est de Cauchy dans E qui est complet car de dimension finie. Donc (SN )N∈N estune suite convergente ce qui signifie que
∑k>0
uk converge.
Fin de la séance du 23/11/2018
3.1.2 Norme sur l’espace des endomorphismes et sur les matrices
Dans toute cette partie (E, ‖ ‖) est une espace vectoriel normé de dimension finie n.
Proposition 3.10 Soit u ∈ L(E). Alors il existe une constante M telle que pour tout x ∈ E :
‖u(x)‖ 6M‖x‖
De plus u est continue sur (E, ‖ ‖).
Preuve: Soit (e1, · · · , en) une base de E et x =n∑i=1
xiei alors :
‖u(x)‖ =
∥∥∥∥∥n∑i=1
xiu(ei)
∥∥∥∥∥ 6n∑i=1
|xi|‖u(ei)‖ 6 max16i6n
(‖u(ei)‖)n∑i=1
|xi| = max16i6n
(‖u(ei)‖)‖x‖1
66 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Or toutes les normes étant équivalentes il existe un réel β > 0 tel que pour tout x ∈ E, ‖x‖1 6β‖x‖. Donc posant M = β max
16i6n(‖u(ei)‖), on a prouvé que pour tout x ∈ E :
‖u(x)‖ 6M‖x‖
Maintenant si (xk)k∈N est une suite de E qui converge vers x, alors :
‖u(xk)− u(x)‖ = ‖u(xk − x)‖ 6M‖xk − x‖
Comme limk−→∞
‖xk − x‖ = 0, on conclut que limk−→∞
u(xk) = u(x) et u est continue.
Exemple 3.11 Soit fA : Rn → Rn l’application linéaire associée à une matrice A = (ai,j), etsoit la norme ‖ ‖1 sur Rn. On a ‖AX‖1 ≤
(∑i,j |ai,j |
)‖X‖1.
Preuve: En effet, ∑i
∑j |ai,jxj | ≤
∑i,j |ai,jxj |
=∑
i,j |ai,j | |xj |≤
(∑i,j |ai,j |
)(∑
k |xk|)
De la proposition on déduit que supx∈E‖x‖=1
‖u(x)‖ est bien défini.
normalg Proposition 3.12 Pour tout u ∈ L(E) définissons :
‖|u‖| := supx∈E‖x‖=1
‖u(x)‖
Alors ‖| ‖| est une norme sur E qui satisfait :1. ∀x ∈ E , ‖u(x)‖ 6 ‖|u‖|‖x‖.2. ∀(u, v) ∈ (L(E))2 , ‖|u ◦ v‖| 6 ‖|u‖|‖|v‖|.
‖| ‖| s’appelle norme d’algèbre.
Preuve: En effet, on déduit de la définition de ‖|u‖| que ‖u(x)‖ ≤ ‖|u‖| ‖x‖ pour tout x ∈ E.Soit maintenant x ∈ E, on a
‖u ◦ v(x)‖ ≤ ‖|u‖| ‖v(x)‖ ≤ ‖|u‖| ‖|v‖| ‖x‖ ,
en appliquant deux fois cette propriété.
Proposition 3.13 On considère l’espace vectoriel des matrices colonnes E = Mn,1(K) munid’une norme ‖ ‖. Soit A ∈Mn(K) et définissons :
‖|A‖| := supX∈E‖X‖=1
‖AX‖
Alors ‖| ‖| est une norme sur E qui satisfait :
3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 67
1. ∀X ∈ E , ‖AX‖ 6 ‖|A‖|‖X‖.2. ∀(A,B) ∈ (Mn(K))2 , ‖|AB‖| 6 ‖|A‖|‖|B‖|.
‖| ‖| s’appelle norme matricielle.
Preuve: Pour tout A ∈Mn(K), considérons l’application :
fA : E −→ EX 7−→ AX
Alors fA est un endomorphisme de E et ‖|A‖| = ‖|fA‖|. L’assertion 1. est évidente. Pour l’as-sertion 2. on a :
‖|AB‖| = ‖|fAB‖| = ‖|fA ◦ fB‖| 6 ‖|fA‖|‖|fB‖| = ‖|A‖|‖|B‖|
3.1.3 Dérivabilité et intégration des fonctions à variable réelle et à valeursdans un espace vectoriel
Dans toute cette partie (E, ‖ ‖) est une espace vectoriel normé de dimension finie n.
Définition 3.14 Soit I un intervalle non vide de R. On dit que la fonction f : I −→ E estdérivable en t0 ∈ I, s’il existe un vecteur de E noté f ′(t0) tel que :∥∥∥∥1
h(f(t0 + h)− f(t0))− f ′(t0)
∥∥∥∥ −→ 0
quand h −→ 0.Si f est dérivable sur I, l’application :
f ′ : I −→ Et 7−→ f ′(t)
s’appelle la dérivée de f sur I.
Proposition 3.15 Soit I un intervalle non vide de R. On suppose que E est muni d’une baseB. Soit f : I −→ E une fonction. Notons (f1, · · · , fn) les fonctions composantes de f dans la
base B (i.e. ∀t ∈ I , f(t) =n∑i=1
fi(t)ei). Alors f est dérivable en t0 ∈ I si et seulement si les
fonctions fi sont dérivables en t0 ∈ I pour tout i ∈ {1, · · · , n}.
Proposition 3.16 Soit I un intervalle non vide de R et soit f : I −→ E une fonction.
1. Soient B et B′ deux bases de E. Alors les fonctions composantes de f dans B sont inté-grables au sens de Riemann sur I si et seulement si les fonctions composantes de f dansB′ sont intégrables au sens de Riemann sur I. Si les fonctions composantes de f dans unebase sont intégrables, on dira alors que f est intégrable.
68 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
2. Soit B = (e1, · · · , en) une base de E et (f1, · · · , fn) les composantes de f dans B. Alorsla quantité :
n∑i=1
∫I
(fi(t)dt) ei
ne dépend pas de la base choisie et est notée∫If(t)dt.
Préparer la preuve de cette proposition : bien écrire le changement de base.Désormais l’espace E = Mn,1(K) est muni d’une norme et Mn(K) est muni de la norme
matricielle associée.
Proposition 3.17 Soient :
A : I −→ Mn(K)t 7−→ A(t)
,B : I −→ Mn(K)
t 7−→ B(t)
etX : I −→ Mn,1(K)
t 7−→ X(t)
trois fonctions dérivables sur I. Alors les fonctions :
AB : I −→ Mn(K)t 7−→ A(t)B(t)
,AX : I −→ Mn,1(K)
t 7−→ A(t)X(t)
sont dérivables et :
(AB)′(t) = A′(t)B(t) +A(t)B′(t) et (AX)′(t) = A′(t)X(t) +A(t)X ′(t)
Preuve: Soit t, h ∈ R tels que [t− h, t+ h] ⊂ I. Comme A et B sont dérivables en t, on a
A(t+ h) = A(t) + hA′(t) + o(h)B(t+ h) = B(t) + hB′(t) + o(h)
On en déduit que A(t+ h)B(t+ h) = A(t)B(t) + h(A(t)B′(t) +A′(t)B(t)) + o(h). Ainsi, AB estdérivable en t et (AB)′(t) = A(t)B′(t) +A′(t)B(t).
3.1.4 Exponentielle d’une matrice
Proposition et définition 3.18 Pour tout A ∈Mn(K), la série∑k>0
1
k!Ak est convergente. Sa
somme notée eA ou exp(A) s’appelle l’exponentielle de A. De plus :
‖|eA‖| 6 e‖|A‖|
3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 69
Preuve:∥∥∥∥∣∣∣∣ 1
k!Ak∥∥∥∥∣∣∣∣ 6
1
k!‖|Ak‖| 6 1
k!‖|A‖|k. Or la série
∑k>0
1
k!‖|A‖|k est convergente donc
∑k>0
1
k!Ak est convergente. Posons sk =
k∑i=0
1
i!Ai. Comme :
∥∥∥∥∥∣∣∣∣∣k∑i=0
1
i!Ai
∥∥∥∥∥∣∣∣∣∣ 6
k∑i=0
∥∥∥∥∣∣∣∣ 1i!Ai∥∥∥∥∣∣∣∣ 6 k∑
i=0
1
i!‖|A‖|i 6 e‖|A‖|,
on a ‖|sk‖| ≤ e‖|A‖| pour tout k. Soit ε > 0 et soit k0 tel que ‖|eA−sk‖| ≤ ε pour tout k ≥ k0 : onen déduit que ‖|eA‖| ≤ ‖|sk + (eA− sk)‖| ≤ ‖|sk‖|+ ‖|eA− sk‖| ≤ eA + ε. Comme cette inégalitéest vraie pour tout ε, on a ‖|eA‖| 6 e‖|A‖|.Fin de la séance du 30/11/2018
Proposition 3.19 1. Soit A ∈Mn(K) et P ∈ GLn(K). Alors :
eP−1AP = P−1eAP
2. Soit (A,B) ∈Mn(K)2. Si AB = BA alors :
eAeB = eA+B = eBeA
etBeA = eAB
3. Soit A ∈Mn(K), alors eA est toujours inversible et :
(eA)−1 = e−A
Preuve:
1. Soit A ∈Mn(K) et P ∈ GLn(K). Alors :
P−1
(k∑i=0
1
i!Ai
)P =
k∑i=0
1
i!P−1AiP =
k∑i=0
1
i!(P−1AP )i
Or l’application X 7−→ P−1XP est un endomorphisme de Mn(K) qui est de dimensionfinie, donc elle est continue et :
P−1eAP = P−1
( ∞∑k=0
1
k!Ak
)P = lim
n−→∞P−1
(n∑k=0
1
k!Ak
)P = eP
−1AP
2. Pour montrer le point 2. nous avons besoin du lemme suivant :
Lemme 3.20 Soient A =∑k>0
Ak et B =∑k>0
Bk deux séries absolument convergentes de
Mn(K). Alors la série C =∑k>0
(k∑l=0
AkBk−l
)est absolument convergente et C = AB.
70 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Ce lemme est conséquence de la remarque suivante :
∑Nk=0
(∑kl=0 ‖|AkBk−l‖|
)≤
∑Ni=0
∑Nj=0 ‖|Ai‖| ‖|Bj‖|
≤(∑N
i=0 ‖|Ai‖|) (∑N
j=0 ‖|Bj‖|)
≤ (∑∞
i=0 ‖|Ai‖|)(∑∞
j=0 ‖|Bj‖|),
de sorte que cette somme est effectivement absolument convergente.Notons a =
∑k>0 ‖|Ak‖| et b =
∑k>0 ‖|Bk‖|. Pour montrer que C = AB, on fixe ε > 0
et on montre que ‖|C−AB‖| ≤ 2ε+ aε+ bε+ ε2. Soit N tel que ∀n ≥ N,∑
k>n ‖|Ak‖| <ε ,∑
k>n ‖|Bk‖| < ε, et∑
k>n
(∑kl=0 ‖|AkBk−l‖|
)< ε. On a : ‖|C−
∑nk=0
∑kl=0AkBk−l‖| ≤∑
k>n
(∑kl=0 ‖|AkBk−l‖|
)< ε. Par ailleurs, ‖|
∑nk=0
∑kl=0AkBk−l−
∑nk=0
∑nl=0AkBl‖| <
ε, d’où ‖|C−∑n
k=0
∑nl=0AkBl‖| < 2ε. Ecrivons maintenant A = A′+A′′ et B = B′+B′′
avec A′ =∑n
k=0Ak et B′ =∑n
k=0Bk : on a ‖|AB − A′B′‖| ≤ ‖|A′B′′‖| + ‖|A′′B′‖| +‖|B′B′′‖| ≤ aε+ bε+ ε2. On obtient donc que ‖|C −AB‖| ≤ 2ε+ aε+ bε+ ε2.
Montrons maintenant le point 2. Comme A et B commutent on peut appliquer la formuledu binôme de Newton :
1
k!(A+B)k =
1
k!
k∑i=0
(ki
)AiBk−i
=1
k!
k∑i=0
k!
i!(k − i)!AiBk−i
=k∑i=0
(1
i!Ai)(
1
(k − i)!Bk−i
)
Comme∑k>0
1
k!Ak et
∑k>0
1
k!Bk sont absolument convergentes, d’après le lemme la série
∑k>0
1
k!(A+B)k est absolument convergente et :
∞∑k=0
1
k!(A+B)k =
∞∑k=0
k∑i=0
(1
i!Ai)(
1
(k − i)!Bk−i
)=
( ∞∑k=0
1
k!Ak
)( ∞∑k=0
1
k!Bk
)
d’où le résultat.
deriv Proposition 3.21 Soit A ∈Mn(K). Alors l’application R −→Mn(K) , t 7−→ etA est de classeC∞ et (etA)′ = AetA.
3.1. EXPONENTIELLE D’UNE MATRICE OU D’UN ENDOMORPHISME 71
Preuve: Montrons d’abord que t 7−→ etA est dérivable :∥∥∥∥∣∣∣∣1h(e(t+h)A − etA)−AetA∣∣∣∣∥∥∥∥ =
∥∥∥∥∣∣∣∣etA(1
h(ehA − I)−A
)∣∣∣∣∥∥∥∥=
∥∥∥∥∥∣∣∣∣∣etA
( ∞∑k=2
hk−1
k!Ak
)∣∣∣∣∣∥∥∥∥∥
= |h|
∥∥∥∥∥∣∣∣∣∣etA
( ∞∑k=2
hk−2
k!Ak
)∣∣∣∣∣∥∥∥∥∥
Supposons |h| 6 1. Donc :∥∥∥∥∣∣∣∣1h(e(t+h)A − etA)−AetA∣∣∣∣∥∥∥∥ 6 |h|‖|etA|‖
∞∑k=2
1
k!‖|A|‖k
6 |h|‖|etA|‖e‖|A|‖ −→ 0
quand h −→ 0. Ceci montre que t 7→ etA est dérivable de dérivée t 7→ AetA.
expodiag Proposition 3.22 Soit D =
λ1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 λn
une matrice diagonale. Alors :
eD =
eλ1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 eλn
En particulier pour tout λ ∈ K, on a eλIn = eλIn.
Preuve: eD = limN−→+∞
(N∑k=0
1
k!Dk
). Or :
N∑k=0
1
k!Dk =
N∑k=0
1
k!
λk1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 λkn
=
N∑k=0
1
k!λk1 0 · · · 0
0. . . . . .
......
. . . . . . 0
0 · · · 0
N∑k=0
1
k!λkn
72 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
NotonsN∑k=0
1
k!Dk = (xNij )16i,j6n et eD = (xij)16i,j6n. Pour tout i, j ∈ {1, · · · , n}, notons Eij la
matrice dont tous les coefficients sont nuls sauf celui de la ligne i et de la colonne j qui est égalà 1.
Les coefficients deN∑k=0
1
k!Dk et eD ne sont rien d’autre que les coordonnées respectivement
deN∑k=0
1
k!Dk et de eD dans la base {Eij}16i,j6n. Comme lim
N−→+∞
(N∑k=0
1
k!Dk
)= eD, xNij −→ xij
ce qui prouve que :
eD =
+∞∑k=0
1
k!λk1 0 · · · 0
0. . . . . .
......
. . . . . . 0
0 · · · 0
+∞∑k=0
1
k!λkn
=
eλ1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 eλn
3.2 Calcul pratique de l’exponentielle d’une matrice
De manière générale si A ∈Mn(K) et si son polynôme caractéristique est scindé, alors d’aprèsla décomposition de Dunford, il existe une matrice D diagonalisable et une matrice N nilpotentetelles que :
1. A = D +N .2. DN = ND.
Donc comme D et N commutent :
eA = eD+N = eDeN
Comme D est diagonalisable il existe P ∈ GLn(K) telle que :
P−1DP =
µ1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 µn
D’autre part N est nilpotente donc il existe un entier p 6 n tel que Np = 0. Donc :
eA = P
eµ1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 eµn
P−1(In +N +
1
2!N2 + · · ·+ 1
(p− 1)!Np−1
)
3.2. CALCUL PRATIQUE DE L’EXPONENTIELLE D’UNE MATRICE 73
En fait on n’a pas besoin de calculer D et N . En effet soient λ1, · · · , λr les valeurs propresde A et pour tout i ∈ {1, · · · , r}, Cλi = Ker(A − λiIn)αi les sous-espaces caractéristiques deA. Pour tout i ∈ {1, · · · , r} on construit une base Bi de chacun des sous-espaces Cλi . Comme
Mn,1(K) =r⊕i=1
Cλi , B =r⋃i=1
Bi est une base de Mn,1(K). Soit P la matrice de B. Comme les
sous-espaces caractéristiques sont stables on a :
A′ = P−1AP =
A1 O. . .
O Ar
où les matrices Ai ∈Mαi(K). Dans cette base D est diagonale, c’est-à-dire que
P−1DP =
λ1Iα1 O. . .
O λrIαr
Posons N ′ = P−1NP alors :
N ′ = P−1NP = P−1(A−D)P = A′ −
λ1Iα1 O. . .
O λrIαr
et :
eA = P
eλ1Iα1 0 · · · 0
0. . . . . .
......
. . . . . . 00 · · · 0 eλrIαr
(In +N ′ +
1
2!N ′2 + · · ·+ 1
(p− 1)!N ′p−1
)P−1
On peut encore raffiner les choses. De manière similaire à la preuve de la propositionexpodiag3.22 on
peut montrer que :
eA = ePA′P−1
= PeA′P−1 = P
eA1 O
. . .O eAr
P−1
Calculons eAi pour tout i ∈ {1, · · · , r}. Alors :
eAi = e(Ai−λiIαi )+λiIαi = eλie(Ai−λiIαi )
Or :
N ′ = A′ −
λ1Iα1 O. . .
O λrIαr
=
A1 − λ1Iα1 O. . .
O Ar − λrIαr
74 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
On a donc pour tout i ∈ {1, · · · , r}, (Ai − λiIαi)p = 0 et même (Ai − λiIαi)βi = 0 où βi estl’indice de Ai − λiIαi :
eAi = eλi(Iαi +N ′i +
1
2!N ′2i + · · ·+ 1
(βi − 1)!N ′βi−1i
)où N ′i = Ai − λiIαi .
Remarque 3.23 On a vu dans la propositionnormalg3.12 que l’on pouvait munir L(E) de la norme
d’algèbre ‖| ‖|. De la même manière que pour les matrices on peut définir l’exponentielle d’unendomorphisme et tous les énoncés précédents sont transposables dans le cadre des endomor-phismes.
3.3 Systèmes différentiels linéaires à coefficients constants
K = R ou C et I désigne un intervalle non vide de R. À partir de maintenant on identifieMn,1(K) et Kn.
Définition 3.24 Soit n ∈ N?. Pour tout i ∈ {1, · · · , n}, soit bi : I −→ K une fonction continueet pour tout (i, j) ∈ {1, · · · , n}2 soit aij ∈ K.
1. Le système :
(SL)
y′1 = a11y1+ · · · +a1nyn + b1...
......
y′n = an1y1+ · · · +annyn + bn
s’appelle système différentiel linéaire d’ordre 1 à coefficients constants.2. Le système :
(SH)
y′1 = a11y1+ · · · +a1nyn...
......
y′n = an1y1+ · · · +annyn
s’appelle système différentiel linéaire homogène associé à (SL).
Résoudre (SL) ou (SH) revient à trouver un intervalle non vide J ⊂ I et des fonctions y1, · · · , yn
dérivables sur J et vérifiant le système considéré. Si on note A = (aij)16i,j6n, Y =
y1...yn
et
B =
b1...bn
alors :
(SL)⇐⇒ (L) Y ′ = AY +B
et(SH)⇐⇒ (H) Y ′ = AY
Résoudre (L) ou (H) revient à trouver un intervalle non vide J ⊂ I et une fonction Y : J −→ Kndérivable sur J et vérifiant respectivement (L) ou (H).Fin de la séance du 07/12/2018
3.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 75
3.3.1 Système différentiel linéaire homogène
Notons C(I,Kn) l’espace vectoriel des fonctions continues de I dans Kn.
Théorème 3.25 L’ensemble SH des solutions sur R de H : Y ′ = AY est un sous-espace vectorielde C(R,Kn) de dimension n formé de fonctions de classe C∞.
Plus précisément :SH := {t 7−→ etAC où C ∈ Kn}
De plus pour tout (t0, Y0) ∈ R×Kn il existe une unique solution Y de H telle que Y (t0) = Y0.
Preuve: Il est immédiat que la fonction nulle appartient à SH et que si (Y1, Y2) ∈ S2H alors
pour tout (λ1, λ2) ∈ K2 :λ1Y1 + λ2Y2 ∈ SH
Donc SH est un sous-espace vectoriel de C(R,Kn).Maintenant soit Y ∈ SH et soit Z(t) = e−tAY (t). Alors :
Z ′(t) = −Ae−tAY (t) + e−tAY ′(t) = −Ae−tAY (t) + e−tAAY (t)
Or A et e−tA commutent donc Z ′(t) = 0 pour tout t ∈ R. Donc il existe C ∈ Kn tel que Z(t) = Cpour tout t ∈ R et Y (t) = etAC.
Réciproquement on vérifie facilement que pour tout C ∈ Kn, la fonction t 7→ Y (t) = etACest solution de SH.
D’autre part soit (t0, Y0) ∈ R×Kn. Alors :
Y (t0) = Y0 ⇐⇒ et0AC = Y0 ⇐⇒ C = e−t0AY0
CalculSol Théorème 3.26 Soit A ∈Mn(K) telle que χA est scindé. Notons µ1, · · · , µn les valeurs propresde A comptées avec multiplicité et soit (U1, · · · , Un) une base de Kn constituée de vecteurs ap-partenant aux sous-espaces caractéristiques. Plus précisément on suppose que :
∀i ∈ {1, · · · , n} , Ui ∈ Cµi(A)
Alors :
SH =
t 7−→n∑i=1
cieµit
(βi−1∑k=0
tk
k!(A− µiIn)kUi
)où
c1...cn
∈ Kn
où βi est la multiplicité de µi dans µA.En particulier si A est diagonalisable alors :
SH =
t 7−→n∑i=1
cieµitUi où
c1...cn
∈ Kn
Et dans ce cas (U1, · · · , Un) est une base de Kn constituée de vecteurs propres de A.
76 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Preuve: Le polynôme caractéristique χA étant scindé on a :
χA(λ) = (−1)nr∏i=1
(λi − λ)αi
et comme Kn =r⊕i=1
Cλi(A), on choisit une base B = (U1, · · · , Un) de E telle que B =r⋃i=1
Bi où
pour tout i ∈ {1, · · · , r}, Bi est une base de Cλi(A).Y est une solution de H : Y ′ = AY sur R si et seulement si Y (t) = etAC où C ∈ Kn. Notons
(c1, · · · , cn) les coordonnées de C dans la base B. Alors C =n∑i=1
ciUi. Pour tout i ∈ {1, · · · , n},
Ui ∈ Cµi(A) où µ1, · · · , µn sont les valeurs propres de A comptées avec multiplicité. Donc :
Y (t) =
n∑i=1
cietAUi =
n∑i=1
cieµitIn+t(A−µiIn)Ui
=n∑i=1
cieµitInet(A−µiIn)Ui =
n∑i=1
cieµitet(A−µiIn)Ui
D’autre part on a vu que si γi désigne la multiplicité de µi dans le polynôme minimal de A,alors :
Ker(A− µiIn)γi−1 Ker(A− µiIn)γi = Cµi(A)
De plus comme Ui ∈ Cµi(A), pour tout k > γi, (A− µiIn)kUi = 0 et il s’ensuit que :
Y (t) =
n∑i=1
cieµit
(γi−1∑k=0
tk
k!(A− µiIn)kUi
)
Remarque 3.27 1. Les formules du théorème donnent un calcul implicite de etA. En effet,en vertu de la formule de changement de coordonnées, et comme Y (0) = C =
∑ciUi,
on a
c1...cn
= P−1C où P est la matrice de passage de la base canonique de Kn à B.
Autrement dit les colonnes de P sont U1, · · · , Un et
Y (t) = etAP
c1...cn
ce qui permet de déduire que les colonnes de etAP sont respectivement :
eµ1t
(γ1−1∑k=0
tk
k!(A− µ1In)kU1
), · · · , eµnt
(γn−1∑k=0
tk
k!(A− µnIn)kUn
)
3.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 77
2. On peut remarquer d’autre part que si N est la matrice nilpotente de la décomposition deJordan de A, alors en utilisant la forme de N apparaissant dans la preuve du théorèmeDunford2.75 du chapitre 2 on a pour tout i ∈ {1, · · · , n} :
etNUi =
(γi−1∑k=0
tk
k!(A− µiIn)kUi
)
3.3.2 Système différentiel linéaire non homogène
Soient I un intervalle de R, B : I −→ Kn une fonction continue et A ∈Mn(K).
Théorème 3.28 On suppose que l’ensemble SL des solutions de L : Y ′ = AY +B est non vide.Soit ϕ0 ∈ SL. Alors :
SL := {I −→ Kn, t 7−→ etAC + ϕ0(t) où C ∈ Kn}
Preuve: Soit Y une solution de L sur I. Alors :
(Y − ϕ0)′(t) = Y ′(t)− ϕ′0(t) = (AY (t) +B(t))− (Aϕ0(t) +B(t)) = A(Y (t)− ϕ0(t))
Donc Y − ϕ0 est solution de l’équation homogène H : Y ′ = AY . Donc Y (t) = etAC + ϕ0(t) oùC ∈ Kn.
Réciproquement, on vérifie facilement que toutes les fonctions de la forme Y (t) = etAC+ϕ0(t)pour tout t ∈ I sont solutions.
Théorème 3.29 (Méthode de la variation de la constante) L’ensemble SL est non vide.Plus précisément pour tout t0 ∈ I :
ϕ0 : I −→ Kn
t 7−→ ϕ0(t) :=
∫ t
t0
e(t−x)AB(x)dx
est une solution de L.
Preuve: Soit pour tout t ∈ I, la fonction ϕ0(t) :=
∫ t
t0
e(t−x)AB(x)dx. Montrons que ϕ0 est
solution de L.Remarquons d’abord que puisque tA et −xA commutent alors e(t−x)A = etAe−xA et ϕ0(t) =
etA∫ t
t0
e−xAB(x)dx. De plus :
ϕ′0(t) = AetA∫ t
t0
e−xAB(x)dx+ etAe−tAB(t) = Aϕ0(t) +B(t)
D’où le résultat.
78 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Remarque 3.30 — Les solutions de H : Y ′ = AY s’écrivent Y (t) = etAC avec C ∈ Kn. Sil’on cherche une fonction dérivable C : I −→ Kn telle que ϕ0(t) = etAC(t) soit solutionde L on a :
0 = ϕ′0(t)− (Aϕ0(t) +B(t)) = AetAC(t) + etAC ′(t)− (AetAC(t) +B(t))= etAC ′(t) +B(t).
Donc C ′(t) = e−tAB(t) et on retrouve l’expression donnée dans le théorème. Cette façonde trouver une solution de L explique l’expression de "Méthode de la variation de laconstante".
— Pour résoudre L il suffit tout simplement de trouver une solution particulière ϕ0 de L ettoutes les autres solutions s’écrivent comme la somme de ϕ0 et d’une solution de H.
3.4 Équations différentielles linéaires à coefficients constants
K = R ou C et I désigne un intervalle non vide de R.
Définition 3.31 Soient n > 1, (a0, · · · , an−1) ∈ Kn et b : I −→ K continue.1. L’équation :
(L) y(n) + an−1y(n−1) + · · ·+ a1y
′ + a0y = b
s’appelle équation différentielle linéaire à coefficients constants.2. L’équation :
(H) y(n) + an−1y(n−1) + · · ·+ a1y
′ + a0y = 0
s’appelle équation différentielle linéaire homogène associée à L.
Résoudre (L) ou (H) revient à trouver un intervalle non vide J ⊂ I et une fonction y dérivablesur J vérifiant (L) ou (H).
Définition 3.32 Soient n > 1, (a0, · · · , an−1) ∈ Kn et b : I −→ K continue. On appelle équa-tion caractéristique de l’équation différentielle :
(L) y(n) + an−1y(n−1) + · · ·+ a1y
′ + a0y = b
l’équation :xn + an−1x
n−1 + · · ·+ a1x+ a0 = 0
Théorème 3.33 On suppose que K = C. Soient n > 1, (a0, · · · , an−1) ∈ Kn. Considéronsl’équation homogène :
(H) y(n) + an−1y(n−1) + · · ·+ a1y
′ + a0y = 0
Supposons que les racines de l’équation caractéristique soient λ1, · · · , λr de multiplicité respectivesα1, · · · , αr. Alors l’ensemble des solutions SH définies sur R de (H) est un sous-espace vectorielde C(R,C). Plus précisément :
SH := {y ∈ C∞(R,C) ; ∃(P1, · · · , Pr) ∈ Cα1−1[X]× · · · × Cαr−1[X] ; y(t) =
r∑i=1
eλitPi(t)}
3.4. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES 79
Preuve: Posons Y =
y(n−1)
...y′
y
. Alors :
Y ′ =
−an−1 −an−2 · · · · · · −a0
1 0 · · · · · · 0
0 1. . .
......
. . . . . . . . ....
0 · · · 0 1 0
Y
Notons A la matrice du système différentiel obtenu. Les solutions de ce système sont de la forme :
Y (t) = etAC
où C ∈ Cn. Calculons le polynôme caractéristique de A. Alors :
χA(λ) = (−1)n(λn + an−1λ
n−1 + · · ·+ a1λ+ a0)
et les racines de χA sont exactement les racines de l’équation caractéristique. Donc
χA(X) = (−1)nr∏i=1
(X − λi)αi
Comme Cn =r⊕i=1
Cλi(A), il existe (U1, · · · , Ur) ∈r∏i=1
Cλi(A) tel que C =r∑i=1
Ui. Donc par un
raisonnement similaire à la preuve du théorèmeCalculSol3.26 :
Y (t) =
r∑i=1
etAUi =
r∑i=1
eλitIn+t(A−λiIn)Ui =r∑i=1
eλitet(A−λiIn)Ui =r∑i=1
eλitαi−1∑k=0
tk
k!(A− λiIn)kUi
Il s’ensuit que la dernière coordonnée de Y (t) qui n’est rien d’autre que y(t) vérifie :
y(t) =
r∑i=1
eλitαi−1∑k=0
αkitk =
r∑i=1
eλitPi(t)
où Pi est un polynôme de degré au plus αi − 1.Réciproquement, l’espace des solutions SH est donc inclus dans l’espace S ′ des éléments de
la forme y(t) =∑r
i=1 eλitPi(t) avec chaque Pi de degré au plus αi − 1. Comme S ′ a comme
famille génératrice les éléments eλittm avec 0 ≤ m ≤ αi − 1, qui sont en nombre∑αi = n, on a
dimS ′ ≤ n.Par ailleurs le K-espace vectoriel des y(t) vérifiant (H) et le K-espace vectoriel des Y (t)
vérifiant Y ′ = AY sont isomorphes. En effet, à y on peut associer le vecteur Y = (y(n−1), . . . , y′, y)
80 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES
et à Y = (y1, . . . , yn) on peut associer yn : ce sont des isomorphismes inverses l’un de l’autre. Onen déduit que dimSH = n. Comme SH ⊂ S ′, on obtient S = S ′.
Deuxième preuve de la réciproque, plus explicite :
Réciproquement il faut vérifier que si y(t) =
r∑i=1
eλitPi(t) où Pi est un polynôme de degré au
plus αi − 1 alors y est solution de (H). Considérons l’endomorphisme suivant :
p : E −→ Ey 7−→ p(y) = y′
où E = C∞(R,C). Alors si y ∈ SH, on a :
y(n)+an−1y(n−1)+· · ·+a1y′+a0y = (pn+an−1p
(n−1)+· · ·+a1p′+a0p)(y) =r∏i=0
(p−λiIdE)αi(y) = 0
On va alors montrer le lemme suivant :
Lemme 3.34 Soit λ ∈ C et α > 1 un entier. Alors :
(p− λIdE )α(tα−1eλt) = 0
Preuve: On a :
(p− λIdE )(tα−1eλt) = p(tα−1eλt)− λtα−1eλt
= (α− 1)tα−2eλt + λtα−1eλt − λtα−1eλt
= (α− 1)tα−2eλt
Soit j ∈ {1, . . . , α− 1}. Pour j = 1, on vient de montrer que :
(p− λIdE )j(tα−1eλt) = (α− 1)tα−1−jeλt
Pour j > 2, supposons que :
(p− λIdE )j(tα−1eλt) = (α− 1)(α− 2) . . . (α− j)tα−1−jeλt
et montrons que cette relation reste vraie au rang j + 1.
(p− λIdE )j+1(tα−1eλt) = (p− λIdE )((α− 1)(α− 2) . . . (α− j)tα−1−jeλt)= (α− 1)(α− 2) . . . (α− j)(p(tα−1−jeλt)− λtα−1−jeλt)= (α− 1)(α− 2) . . . (α− j)(α− 1− j)tα−1−(j+1)eλt
La relation est donc vraie au rang j + 1 et on conclut qu’elle est vraie pour tout j ∈ {1, . . . , α}.En prenant j = α, on obtient la relation désirée.
De ce lemme on déduit immédiatement que pour tout Pi ∈ Cαi−1[X], la fonction t 7−→eλitPi(t) ∈ SH.