Chargement en cours
Si vous cliquez sur une référence, la définition ou le théorème apparaitra ici
Chapitre 6 : Réduction

Motivation

Matrices diagonales

Les produits et puissances de matrices sont beaucoup plus aisés sur les matrices diagonales.

Endomorphismes

Nous avons constaté que certains endomorphismes ont une matrice diagonale pour un bon choix de base B .

Traduction sur la base

Soit E un K -espace vectoriel de dimension 3.
Soit fL(E) et B=(u,v,w) une base de E . On suppose que MatB(f)=(200010003) .
Traduisons cette hypothèse : f(u)=2u,f(v)=v et f(w)=3w .

Noyaux

Poursuivons notre analyse de la situation précédente.
On a u qui vérifie f(u)2u=0E ie (f2IdE)(u)=0E . Or u fait partie d'une famille libre donc est non nul. Ainsi ker(f2IdE){0E} , ou encore l'endomorphisme f2IdE n'est pas bijectif.
De même f+IdE et f3IdE ne sont pas bijectifs.

I Elements propres

I.1 Valeurs et vecteurs propres

Les deux définitions suivantes sont équivalentes
I.1.1 Définition (Valeur propre et vecteur propre)

Soit E un K -espace vectoriel et fL(E) .
Soit λK . On dit que λ est une valeur propre de f ssi il existe un xE non nul tel que f(x)=λx . Un tel x non nul est appelé un vecteur propre de f associé à la valeur propre λ .
L'ensemble des valeurs propres de f est appelé le spectre de f et noté Sp(f) .
I.1.2 Définition (Vecteur propre et valeur propre)
Soit E un K -espace vectoriel et fL(E) .
Soit xE . On dit que x est un vecteur propre de f ssi {x0EλKf(x)=λx On dit que x est un vecteur propre de f associé à la valeur propre λ .
I.1.3 Exemple
On prend E=C(R,R) et D:ffL(E) . Trouvons les valeurs propres de D . Soit λR . On se demande s'il existe une fonction f qui n'est pas la fonction nulle telle que D(f)=λf ou encore f=λf .
La réponse est oui, par exemple teλt . On connaît même toutes les solutions : tKeλtKR .
Conclusion : tout réel est valeur propre de D ou encore Sp(D)=R
I.1.4 Proposition
Soit E un K -espace vectoriel et fL(E) .
Soit λK . Alors on a λ est une valeur propre de fker(fλIdE){0E}
Preuve
Pour xE on a f(x)=λxf(x)λx=0Exker(fλIdE)=ker(λIdEf) .
Ainsi il existe un tel x non nul ssi ker(fλIdE){0E}
I.1.5 Définition
Soit AMn(K) .
Soit λK . On dit que λ est une valeur propre de A ssi il existe un XKn non nul tel que AX=λX . Un tel X non nul est appelé un vecteur propre de A associé à la valeur propre λ .
En résumé : les valeurs propres et vecteurs propres de A sont les valeurs propres et vecteurs propres de l'application linéaire canoniquement associée à A , fA:{KnKnXAX .
On note Sp(A)=Sp(fA) le spectre de A (l'ensemble de ses valeurs propres)
I.1.6 Exemple

Soit A=(2112) .
Trouver les valeurs propres de A . Soit λR . On cherche s'il y a une solution non nulle XR2AX=λX . Posons X=(xy) .
AX=λX{2x+y=λxx+2y=λy{(2λ)x+y=0x+(2λ)y=0 .
Un système linéaire homogène possède une solution non nulle ssi sa matrice n'est pas inversible. Ainsi λ est une valeur propre ssi |2λ112λ|=0 ssi |3λ13λ2λ|=0 ssi (3λ)|1112λ|=0 ssi (3λ)(1λ)=0 .
Finalement, les valeurs propres de A sont 1 et 3 , Sp(A)={1,3}
I.1.7 Remarque
Pour AMn(K) et λK , on a λSp(A)ker(AλIn){0Kn}

I.2 Espaces propres

I.2.1 Définition
  1. Soit fL(E) et λK une valeur propre de f . L'espace propre associée à λ est l'espace Eλ(f)=ker(fλIdE)=ker(λIdEf){0E} .
  2. Il s'agit de l'ensemble composé du vecteur nul et de tous les vecteurs propres associés à λ . On le note parfois aussi Eλ .
  3. Soit AMn(K) et λK une valeur propre de A .
    L'espace propre associée à λ est l'espace Eλ(A)=ker(AλIn)=ker(λInA){0Kn} .
I.2.2 Éléments propres
Les éléments propres d'un endomorphisme ou d'une matrice sont : ses valeurs propres et les espaces propres associés.
I.2.3 Noyau
f est injective ssi 0 n'est pas valeur propre de f . De manière plus générale, λ est valeur propre de f ssi fλIdE n'est pas injective.
I.2.4 Exemple
On reprend l'exemple I.1.6 . Calculons E1(A) et E3(A) .
D'après notre analyse, XE1(A)AX=X . On trouve le système x+y=0 dont l'ensemble des solutions est Vect(11) . Ainsi E1(A)=Vect(11) .
On résout de même AX=3X . On obtient le système x+y=0 . Ainsi E3(A)=Vect(11) .
Remarquons que B=((11),(11)) est une base de R2 (famille libre de 2 vecteurs. Elle est en plus orthogonale et indirecte).
Notons f:{R2R2XAX l'endomorphisme canoniquement associé à A . Alors MatB(f)=(1003) est une matrice diagonale.
Ici, l'endomorphisme est canoniquement associé donc on a E1(A)=E1(f), E3(A)=E3(f) .
I.2.5 Remarque
Si λ est une valeur propre de A , alors dim(Eλ)=nrg(λInA)=nrg(AλIn) .
I.2.6 Exemple
Vérifier que 0 est une valeur propre de A=(15913261014371115481216) et calculer E0(A) .
On montre facilement que le rang de A est 2 (retrancher C1 à chaque autre colonne pour commencer). Ainsi on trouve un espace propre E0(A) de dimension dim(E0(A))=4rg(A0I4)=2
I.2.7 Inversibilité
AMn(K) est inversible ssi rg(A)=n ssi 0 n'est pas valeur propre de A .
I.2.8 Théorème

Soit fL(E) et λ1,λp des valeurs propres 2 à 2 distinctes de f . Pour i1,p on pose vi un vecteur propre associé à λi (il est donc non nul).
La famille (v1,,vp) est libre.
Preuve
  • Le cas p=1 est évident (une famille de 1 vecteur est libre ssi le vecteur est non nul)
  • Supposons le théorème vrai pour p valeurs propres distinctes.
    Prenons p+1 vecteurs propres associés à des valeurs propres 2 à 2 distinctes.
    Soient α1,,αp+1K tels que
    (1)i=1p+1αivi=0E
    En composant par f on obtient
    (2)i=1p+1αiλivi=0E
    En calculant (1)λp+1(2) on obtient i=1pαi(λiλp+1)vi=0E .
    Or, par hypothèse de récurrence, la famille (v1,,vp) est libre. Ainsi pour i1,p on a αi(λiλp+1)=0 .
    Comme λiλp+1 , on a αi=0 .
    Il reste à voir que αp+1vp+1=0E avec vp+10E (la moindre des choses pour un vecteur propre !).
    Finalement, la famille (v1,,vp+1) est libre.
  • Par récurrence, pour tout pN{0} , p vecteurs propres associés à p valeurs propres distinctes deux à deux forment une famille libre.
I.2.9 Exemple
La famille (teλt)λR est libre car toute sous famille finie est libre.
I.2.10 Exercice
Montrer que (cos(n.))nN est libre.
I.2.11 En dimension finie
Si dim(E)=n , un endomorphisme de E ne peut pas avoir plus de n valeurs propres distinctes.
I.2.12 Théorème

Soit fL(E) et λ1,λk des valeurs propres 2 à 2 distinctes de f .
La somme i=1kEλi(f) est directe ie i=1kEλi=i=1kEλi
Preuve
Soient (u1,u2,uk)i=1kEλi . On suppose que i=1nui=0E . On doit montrer que tous les ui sont nuls. Or des vecteurs propres associés à des valeurs propres distinctes forment une famille libre d'après le résultat précédent. Ainsi une somme de vecteurs propres associés à des valeurs propres distinctes ne peut être nulle. On en déduit qu'aucun des ui n'est un vecteur propre et qu'ils sont donc tous nuls.
I.2.13 Exemple
Soit F un plan de R3 et D une droite non contenue dans F . Alors FD=R3 .
Soit p le projecteur sur F parallèlement à D . On a F=Im(p)=ker(pId)=E1 et G=ker(p)=E0 et on a bien E1E0=E1+E0 .

I.3 Stabilité ( )

I.3.1 Proposition
Soit fL(E) .
Si D est une droite de Estable par f , alors D est dirigée par un vecteur propre de f .
Preuve
Supposons qu'on ait f(D)D pour une droite D ie. que la droite D est stable par f .
Notons D=Vect(u) pour un u0E (qui dirige D ). Alors f(u)D donc f(u)=λu pour un certain λK . Ainsi u est un vecteur propre de f associé à la valeur propre λ . On a même DEλ(f) .
I.3.2 Proposition

Soit fL(E) et λK une valeur propre de f . Alors Eλ(f) est stable par f .
Preuve
Soit xEλ(f) . Alors f(x)=λx par définition et donc f(x)Eλ(f) (stabilité par produit par un scalaire).
I.3.3 Endomorphisme induit
Dans le cadre de la proposition, on note g:{Eλ(f)Eλ(f)xf(x) .La restriction de l'ensemble d'arrivé a du sens d'après la proposition précédente.
Pour tout xEλ(f) on a g(x)=f(x)=λx . Ainsi g=λIdEλ(f) .
En résumé : la restriction d'une application linéaire à un espace propre est une homothétie.
Si E est de dimension finie, on peut trouver F un supplémentaire de Eλ et la matrice de f est alors de la forme (λIp?0?)
I.3.4 Proposition

Soient f,gL(E) tels que fg=gf .
  1. ker(f) et Im(f) sont stables par g .
  2. Tout espace propre de f est stable par g .
Evidemment, on peut échanger les rôles de f et g dans ces résultats.
Preuve
  1. Soit xker(f) . Montrons que g(x)ker(f) .
    Or f(g(x))=g(f(x))=g(0E)=0E . Donc g(x)ker(f) .
    Soit yIm(f) . Notons y=f(x) . Alors g(y)=g(f(x))=f(g(x))Im(f) .
  2. Pour λK , g(fλIdE)=(fλIdE)g donc ker(fλIdE) est stable par g d'après le point précédent.
I.3.5 Proposition
Soient f,gL(E) . On suppose fg=gf .
Toute droite propre de f est aussi une droite propre pour g et toute droite propre pour g est une droite propre pour f .

II En dimension finie

Dans toute la suite du chapitre, E désigne un K -espace vectoriel de dimension nN{0} .

II.1 Rappels sur la bijectivité et l'inversibilité

II.1.1 Proposition
Soit E un K -espace vectoriel de dimension n0 et fL(E) .
On a les équivalences suivantes


fGL(E)l'image par f d'une base de E est une base de Ef est surjectiveIm(f)=Erg(f)=nf est injective ker(f)={0E}gL(E)gf=IdEdet(f)0

II.1.2 Proposition
Soit AMn(K) . Notons C1,Cn les colonnes de A et L1,,Ln ses lignes.
On a les équivalences suivantes


AGLn(K)(C1,Cn) est une base de Mn,1(K)(L1,Ln) est une base de M1,n(K)rg(A)=nIm(A)=KnYKn!XKn AX=Yker(A)={0Kn}BMn(K)AB=Indet(A)=≠0

II.2 Polynôme caractéristique

II.2.1 Définition-proposition

Soit AMn(K) . Le polynôme caractéristique de A est le polynôme χA associée à la fonction χA:{KKxdet(xInA) .
χA est un polynôme unitaire (son coefficient dominant est 1) de degré n , la taille de A .
Preuve
On doit prouver que xdet(xInA) est polynomiale de degré n et unitaire. Notons E1,En les colonnes de In
Pour p1,n , on pose Pp la propriété : pour C1,,CnKn , fp:xdet(xE1C1,,xEpCp,Cp+1,,Cn) est une fonction polynomiale de degré au plus p et le coefficient de xp est det(E1,,Ep,Cp+1,,Cn) .
Pour nos calculs, fixons xK
  • f1(x)=det(xE1C1,C2,,Cn)=xdet(E1,C2,,Cn)+det(A) qui est bien degré au plus 1 et le coefficient de x1 est det(E1,C2,,Cn) .
  • Supposons Pp vérifiée pour un p1,n1 .
    Alors


    fp+1(x)=xdet(xE1C1,,xEPCp,Ep+1,Cp+2,Cn)g(x)+det(xE1C1,,xEPCp,Cp+1,,Cn)h(x).


    On peut appliquer l'hypothèse de récurrence à chacun des deux déterminants (avec deux familles de colonnes différentes) : g et h sont polynomiale de degré au plus p donc fp+1 est de degré au plus p+1 et le coefficient de xp+1 est le coefficient de xp dans g(x) , ie det(E1,,Ep,Ep+1,Cp+2,,Cn) (toujours par hypothèse de récurrence).
  • Par récurrence, Pp est vraie pour tout p1,n .
En appliquant le résultat précédent aux colonnes de A , on trouve que χA est polynomiale de degré au plus n et le coefficient de xn est det(E1,,En)=1 .
II.2.2 Exemple
Calculer sous forme factorisée le polynôme caractéristique de A=(010001111) .
Pour xK , χA(x)=|x100x111x1|=|x110x1x1x11x1|=(x1)|1101x111x1| . On a sommé toutes les colonnes dans C1 .
Ainsi χA(x)=(x1)|1100x+1100x1|=(x+1)(x1)2 .
II.2.3 Proposition

Soit AMn(K) . Le coefficient constant de χA est (1)ndet(A) et le coefficient de Xn1 est Tr(A) . Ainsi χA(X)=XnTr(A)Xn1++(1)ndet(A)
Ce résultat est également valable pour les endomorphismes.
Preuve
On a en effet χA(0)=det(0InA)=det(A)=(1)ndet(A) qui est bien le coefficient constant.
Pour la trace, voir la fin du chapitre.
II.2.4 Exemple
Si AM2(K) alors χA(X)=X2Tr(A)X+det(A) .
II.2.5 Matrices semblables
Soient A,BMn(K) deux matrices semblables. Posons PGLn(K) telle que A=P1BP . Soit également λK
Alors λInA=λP1PP1BP=P1(λInA)P . Ainsi λInA et λInB sont semblables et ont donc le même déterminant, ie χA=χB
II.2.6 Définition

Soit fL(E) , où E est de dimension n . Le polynôme caractéristique χf de f est le polynôme associé à l'application xdet(xIdEf) . C'est un polynôme unitaire de degré n .
Si A est la matrice de f dans une base B quelconque de E alors χf=χA .
II.2.7 Exemple
On considère f:{R3[X]R3[X]PP+P . Calculer χf . On trouve immédiatement (X1)4 .

II.3 Lien avec les valeurs propres

II.3.1 Théorème

Soit fL(E) et AMn(K) . Soit λK
  1. λ est une valeur propre de f ssi χf(λ)=0 ie λ est une racine de χf .
  2. λ est une valeur propre de A ssi χA(λ)=0 ie λ est une racine de χA .
Preuve
Les deux énoncés sont équivalents. Prouvons le premier.


λSp(f)xE{0} f(x)=λxxE{0} xker(λIdEf)λIdEfGL(E)det(λIdEf)=0

II.3.2 Cas des matrices triangulaires ou diagonales
Rappelons qu'un déterminant triangulaire se calcul par produit des éléments diagonaux.
On en déduit que pour une matrice triangulaire (et donc pour une diagonale), les valeurs propres se lisent sur la diagonale.
II.3.3 Exemple
Donner les éléments propres de A=(1102)
II.3.4 Déterminer les éléments propres
On procède comme suit :
  1. Calculer le polynôme caractéristique
  2. Trouver les racines dudit polynôme
  3. Calculer les espaces propres qui correspondent.
II.3.5 Exemple
Trouver les éléments propres de A=(1111)Mn(C) .
On a χA=X22X+2 donc les valeurs propres de A sont 1±i .
  • Calcul de Ei+i . Soit X=(xy)C2 . XE1+i ssi AX=(1+i)X ssi {xy=(1+i)xx+y=(1+i)y ssi ixy=0 (on remarque que la deuxième ligne est forcément proportionnelle à la première car 1+i est valeur propre donc E1+i{0} . Ici le facteur est i ).
    Ainsi E1+i=Vect(1i) .
  • Calcul de E1i . On trouve E1i=Vect(1i) .
II.3.6 Théorème (Rappel : d'Alembert-Gauss)
Soit PC[X] .
  • Si P est non constant, alors P possède un moins une racine dans C .
  • Si P est non nul, il possède exactement autant de racine dans C (comptées avec multiplicités) que son degré. On dit que P est scindé .

Conséquence ici : Toute matrice AMn(C) possède au moins une valeur propre.
Preuve
Admis, comme en sup.
II.3.7 Proposition (Déterminant triangulaire par bloc)

Soit MMn(K) de la forme M=(AB0C)A,C sont des matrices carrées (de tailles quelconques, y compris 1). Alors det(M)=det(A)det(C) .
Preuve
Notons AMp(K) (ie notons p la taille de A ).
  • Si p=1 , alors le résultat est simplement l'application du développement par rapport à la première colonne.
  • Supposons le théorème vrai pour les matrices A de taille p1 . Montrons le pour A de taille p+1
    1. Si la première colonne de A est nulle alors det(A)=det(M)=0 et la formule est vérifiée.
    2. Si a1,10 alors on élimine tous les termes de la première colonne de A par opérations élémentaires sans changer ni la valeur de det(A) ni celle de det(M) .
      Notons AMp(K) la matrice obtenue après opérations puis en retirant les premières lignes et colonnes de A .
      On a alors det(A)=a1,1det(A) et det(M)=a1,1|A?0C|=a1,1det(A)det(C)=det(A)det(C) . par hypothèse de récurrence.
    3. Si a1,1=0 , on échange deux lignes dans M (et dans A ) pour placer un coefficient non nul en position 1,1 .
      Ceci oppose à la fois det(A) et det(M) . On est maintenant revenu au cas précédent, sauf que l'on calcule det(M)=(det(A))det(C) .

  • Par récurrence, le théorème est vrai pour toute taille de la matrice A .
II.3.8 Théorème

Soit fL(E) et λSp(f) . Notons μ(λ) la multiplicité de λ comme racine de χf (on appelle cette quantité la multiplicité de la valeur propre λ ). 1dim(Eλ(f))μ(λ)
Preuve
  • λ est une valeur propre de f donc Eλ{0E} et donc 1dim(Eλ) .
  • Soient (e1,,ep) une base de Eλ . On complète cette base en B=(e1,,en) une base de E .
    Alors MatB(f)=(λIpB0C)0,B,C sont des matrices. Ainsi, pour xK , χf(x)=|(xλ)IpB0xInpC|=det((xλ)Ip))det(xInpC)=(xλ)pχC(x) .
  • Ainsi λ est racine de multiplicité au moins p de χf .
II.3.9 Corollaire
Si λ est une racine simple de χA ou χf , alors Eλ est une droite.
II.3.10 Exemple
Reprendre II.2.2 et calculer les espaces propres. On trouve E1=Vect(111) et E1=Vect(111)
II.3.11 Exemple
Trouver un exemple où dim(Eλ)=μ(λ)>1 . Prendre une matrice diagonale, ou une projection.

III Diagonalisation

Rappel : E est toujours un K -espace vectoriel de dimension finie n1 .

III.1 Diagonalisabilité

III.1.1 Définition
  1. Soit fL(E) . On dit que f est diagonalisable ssi il existe une base B de E telle que MatB(f) est diagonale.
  2. Soit AMn(K) . On dit que A est diagonalisable ssi A est semblable à une matrice diagonale (il existe une matrice inversible P et une matrice diagonale D telles que D=P1AP et A=PDP1 .)
III.1.2 Exemple
Les projecteurs et symétries.
III.1.3 Proposition

Soit fL(E) . f est diagonalisable ssi il existe une base B de E composée de vecteurs propres de f .
Dans ce cas MatB(f) est diagonale et sa diagonale est composée des valeurs propres de f associées aux vecteurs propres de B ( les valeurs propres sont dans l'ordre des vecteurs de B ).
Preuve
Simple traduction.
III.1.4 Proposition
Soit AMn(R) .
A est diagonalisable ssi il existe une base B composée de vecteurs propres de A . En notant Bc la base canonique de Kn et P=MatBcB la matrice dont les colonnes sont les vecteurs propres de A on a D=P1AP est diagonale  et la diagonale de D est composée des valeurs propres de A associées respectivement aux vecteurs propres de B (dans le même ordre).
On a alors A=PDP1 .
Preuve
Il s'agit de la traduction sur fA:XAX du théorème précédent.
III.1.5 Influence de K
Comme on l'a vu en pratique, il peut être insuffisant de chercher à diagonaliser un R -endomorphisme sur R . On peut parfois considérer E comme un C -espace vectoriel (polynôme, matrices, colonnes) si cela est autorisé par l'énoncé.
III.1.6 Exemple
  1. La matrice de II.2.2 n'est pas diagonalisable. En effet les seuls vecteurs propres de A sont dans E1 ou E1 . Si on prend 3 vecteurs propres, au moins deux appartiennent à l'une des deux droites E1 ou E1 donc la famille est liée.
  2. La matrice de II.3.5 est diagonalisable dans M2(C) mais pas dans M2(R) .
    Si e1E1i et e2E1+i et P=MatBc(e1,e2) alors P1AP=D=(1i001+i) .
  3. Remarquez qu'on a A=PDP1 .
III.1.7 Théorème
Soit fL(E) . f est diagonalisable ssi λSp(f)Eλ=E .
Preuve
On sait déjà qu'une somme d'espace propres est directe et donc a priori λSp(f)EλE .
  • Supposons λSp(f)Eλ=E .
    Alors la concaténation de bases des Eλ est une base de E qui est composée de vecteurs propres (des vecteurs non nuls des Eλ car ils se trouvent dans des familles libres).
  • Réciproquement, supposons fdiagonalisable.
    Soit B=(e1,,en) une base dans laquelle MatB(f) est diagonale. Elle est composée de vecteurs propres par définition des vecteurs propres (encore une fois, des vecteurs d'une famille libre sont forcément non nuls).
    Ainsi pour tout k1,n , eiλSp(f)Eλ (il est dans l'un des espaces de la somme).
    λSp(f)Eλ contient donc une base de E donc EλSp(f)Eλ ce qui prouve l'égalité de ces ensembles.
III.1.8 Théorème

Soit fL(E) .
f est diagonalisable sur K ssi χf est scindé sur K et pour tout λSp(f) on a dim(Eλ)=μ(λ) (la multiplicité de λ en tant que racine de χf ).
Preuve
  • Supposons fdiagonalisable. Alors λSp(f)Eλ=E , ainsi λSp(f)dim(Eλ)=dim(E) .
    Or on a également λSp(f)dim(Eλ)λSp(f)μ(λ)n (un polynôme de degré n ne peut pas avoir plus de n racines dans K ).
    Ainsi χf est scindé. De plus, λSp(f)(μ(λ)dim(Eλ))0=0 et donc tous les nombres de cette somme sont nuls.
  • Réciproquement, supposons χf scindé et Eλ de dimension maximale pour tout λSp(f) .
    Alors λSp(f)EλE et dim(λSp(f)Eλ)=λSp(K)dim(Eλ)=n ce qui prouve l'égalité de ces deux espaces vectoriels et donc la diagonalisabilité de f d'après le théorème III.1.7
III.1.9 Remarque
On a prouvé au passage que f est diagonalisable ssi la somme des dimensions des espaces propres vaut n .
III.1.10 Exemple
  1. Montrer que fL(R3) canoniquement associée à A=(111111111) est diagonalisable.
  2. On calcule χf(x) pour xR et on trouve χf(x)=x2(x3) . Ainsi χf est scindé sur R et ses racines sont 0 (racine double) et 3 (racine simple).
    Alors on a forcément 1E3(f)μ(3)=1 et donc dim(E3(f))=μ(3) .
    De plus, après résolution de l'équation AX=0X d'inconnue XR3 , on trouve E0(f)=ker(f)=Vect((110),(101)) qui est un espace de dimension 2=μ(0) .
    Finalement, f est bien diagonalisable.
  3. Montrer que f:(xy)(2x+y2xy) est diagonalisable.
    On trouve immédiatement que χf(x)=x2Tr(f)x+det(f)=x2x=x(x2) . Ainsi χf est scindé et ses deux racines sont 0 et 2 et sont simples.
    Or pour une racine simple λ on a forcément 1dim(Eλ)μ(λ)=1 et donc dim(Eλ)=μ(λ) et finalement f est bien diagonalisable.
III.1.11 Proposition

Soit fL(E) . SI χf est scindé sur K et à racines simples ALORS f est diagonalisable.
Preuve
Il s'agit du raisonnement finissant l'exemple précédent.
III.1.12 Remarque
Cette condition n'est absolument pas nécessaire : prendre une projection sur un plan de R3 .
III.1.13 Traduction sur les matrices
Elle est immédiate. Soit AMn(K)
  1. A est diagonalisable ssi il existe une base B de Kn composée de vecteurs propres de A . Si on note P la matrice de passage de la base canonique à B alors P1AP est diagonale.
  2. A est diagonalisable ssi λSp(A)Eλ=Kn .
  3. A est diagonalisable sur K ssi χA est scindé sur K et pour tout λSp(A) dim(Eλ)=μ(λ) .
  4. SI χA est scindé sur K et à racines simples ALORS A est diagonalisable.

III.2 Applications

III.2.1 Calcul de puissances
Soit fL(E) et AMn(K)
  1. Si x est un vecteur propre de f associée au scalaire λ alors f(x)=λx et kN fk(x)=λkx.
  2. Si A est diagonalisable sous la forme A=PDP1 alors kN A=PDkP1 .
III.2.2 Matrices particulières
  1. Soit NMn(K) une matrice nilpotente d'ordre p>0 .
    Soit λ une valeur propre complexe de N et XEλ(N) .
    Alors pour kN , NkX=λkX en particulier pour k=p , 0=λpX donc λp=0 et finalement λ=0 .
    La seuls valeur propre possible de N est 0 et donc N ne peut pas être diagonalisable (Sinon N=P×0×P1=0 ).
  2. Soit AMn(K) une matrice n'ayant qu'une seule valeur propre λ et diagonalisable.
    Alors pour une certaine matrice P , A=PλInP1=λIn .
III.2.3 Une suite d'ordre 3
Soit (un)nN une suite de réels vérifiant nN un+3=4un+2un+16un .
Pour nN , on note Xn=(unun+1un+2) . Alors Xn+1=(un+1un+24un+2un+16un)=(010001614)Xn
Par une récurrence immédiate, Xn=AnX0 . Calculons An en la diagonalisant si possible. On a χA(X)=X34X2+X+6=(X+1)(X2)(X3) . Ainsi A est diagonalisable et D=(100020003) est une matrice diagonale associée via une matrice de passage P ( que l'on a pas besoin de calculer pour la suite ).
On a alors Xn=PDnP1X0 . Les coefficients de PDnP1X0 sont des combinaisons linéaires de (1)n,2n et 3n . Ainsi nN un=α(1)n+β2n+γ3n avec α,βγR à déterminer grâce aux valeurs de u0,u1,u2 .
III.2.4 Théorème

Soit (un)KN une suite et p1 . On suppose qu'il existe a0,,ap1K tels que nN un+p=k=0p1akun+k .
  1. Le polynôme P=k=0p1akXk+Xp est appelé polynôme caractéristique de (un) .
  2. Si P est scindé à racines simples, notées λ1,,λp alors il existe des scalaires α1,αp tels que
    nN un=k=1pαkλkn .
Preuve
Reprenons la trame de l'exemple précédent.
La matrice est maintenant A(a0,,ap1)=(01000010001a0ap1) . Cette matrice est appelée matrice compagnon de l'équation définissant la suite.
Soit xK .


χA(x)=|x1000x100x1a0xap1|=x|x10x1a1xap1|+(1)p+1(a0)|100x10x1|=xdet(xIp1A(a1,,ap1))a0


On peut donc procéder par récurrence, si det(xIp1A(a1,,ap1))=xp1k=0p2ak+1xk (remarquer le changement d'indice pour a , le premier des coefficients dans la matrice est a1 ) alors χA(x)=x(xp1k=0p2ak+1xk)a0=xpk=0p1akxk en changeant d'indice et en incorporant a0 à la somme.
Si χA est scindé à racines simples, alors A est diagonalisable et on peut conclure comme dans l'exemple précédent.
III.2.5 Espaces propres des matrices compagnons
Dans le cas général, montrer que les espaces propres de A(a0,,ap1) sont des droites et donc que A(a0,,ap1) est diagonalisable ssi χ est scindé à racines simples.
On trouve : pour une valeur propre λ d'une matrice compagnon, Eλ=Vect(λ0λn1) .

IV Trigonalisation

IV.1 Théorie

IV.1.1 Théorème

Soit fL(E) . χf est scindé sur K ssi il existe une base B telle que MatB(f) est triangulaire supérieure (on dit que f est trigonalisable).
La diagonale est constituée de toutes les racines de χf , avec multiplicité (une racine de multiplicité r apparaît r fois sur cette diagonale).
Preuve
Hors programme.
Remarquons d'abord que s'il existe une base B dans laquelle la matrice de f est triangulaire supérieure, alors χf(x)=det(xInMatB(f)) est scindé et ses racines sont les coefficients diagonaux.
  • Traitons d'abord le cas dim(E)=2 (le cas dim(E)=1 est trivial : tous les polynômes caractéristiques sont scindé et toutes les matrices diagonales donc triangulaires)
    Supposons χf scindé sur K et notons λ une racine (éventuellement double). Alors on peut poser u un vecteur propre associé à λ et compléter (u) (qui est libre car u0 ) en une base B=(u,v) . En observant la première colonne, MatB(f) est triangulaire supérieure et alors les racines de χf sont bien les coefficients diagonaux (d'après le raisonnement précédent).
  • Soit n1 fixé, supposons que lorsque dim(E)=n , tout endomorphisme dont le polynôme est scindé sur K est trigonalisable.
    Supposons que dim(E)=n+1 et prenons fL(E) tel que χf est scindé sur K .
    Comme dans le cas n=2 , on considère une valeur propre λ et un vecteur propre associé u1 que l'on complète en une base B=(u1,un+1) de E ( rien ne dit que les autres vecteurs sont des vecteurs propres ).
    Alors, en notation par bloc M=MatB(f)=(λ0A) est une ligne de taille n ( qui ne nous intéresse pas ) et AMn(K) . Posons g l'endomorphisme de Kn canoniquement associé à A . On a χf(x)=det(xIdf)=|xλ0xInA|=(xλ)χg(x) par déterminant triangulaire par bloc. Ainsi, χg est scindé sur K (ses racines sont les mêmes que celle de χf , en enlevant une occurrence de λ ) et donc, par hypothèse de récurrence, g est trigonalisable et on peut poser PGLn(K) et TMn(K) telles que T est triangulaire supérieure et T=P1AP .
  • Maintenant, considérons P2=(100P)Mn+1(K) . Alors P2 est inversible (son déterminant est le même que celui de P ) et P21MP2=(λ0P1AP) en évaluant le produit matriciel colonne par colonne. Ainsi f est bien trigonalisable (dans la base B2 telle que MatB(B2)=P2 ).
  • Finalement, par récurrence, quelque soit la dimension de E , dès que χf est scindé sur K il existe une base dans laquelle la matrice de f est trigonalisable.
IV.1.2 Corollaire
  1. Soit AMn(R) . A est semblable à une matrice triangulaire supérieure réelle ssi χA est scindé sur R .
  2. Soit AMn(K) . Alors A est trigonalisable dans C ie il existe PGLn(C) telle que T=P1APMn(C) est triangulaire supérieure.
Preuve
Tout polynôme non nul de C[X] est scindé !
IV.1.3 Exemple
On reprend la matrice du II.2.2 . A n'est pas diagonalisable car dim(E1)=1<2=μ(1) .
On note u=(111) et v=(111) . Alors Au=u et AV=v .
Trouver w tel que Aw=w+v . Le système à résoudre est


{x+y=1y+z=1x+y=1{x=y1=z2y=z1

On prend w=(012) . Dans la base B=(u,v,w) la matrice de l'endomorphisme canoniquement associé à A est (100011001) qui est bien triangulaire.

IV.2 Conséquences pratiques

IV.2.1 Proposition

Soit fL(E) et λ1,,λn les racines (complexes) de χf non nécessairement distinctes.
  1. Tr(f)=k=1nλk
  2. det(f)=k=1nλk
Le même résultat vaut pour les matrices.
Preuve
Notons AMn(K) l'une des matrices de f .
On peut alors trigonaliser A en posant TMn(C) et PGLn(C) avec T triangulaire et telles que A=PTP1 .
On a alors Tr(f)=Tr(A)=Tr(T)=k=1nλk . De même pour le déterminant.
IV.2.2 Remarque
On retrouve le fait que f est bijective (ou A est inversible) ssi 0 n'est pas valeur propre de f .

IV.3 Deviner la dernière valeur propre

Remarquons que 1 est valeur propre au moins double de A=(211121112) car rg(A1×I3)=1 et donc dim(ker(AI3))=2 .
Comme Tr(A)=6 , la dernière valeur propre complexe λ vérifie 1+1+λ=6 et donc λ=4 . On a calculé la trace d'une matrice triangulaire semblable à A .