Chargement en cours
Si vous cliquez sur une référence, la définition ou le théorème apparaitra ici
Chapitre 8 : Théorème spectral

Dans tout le chapitre, on s'intéresse exclusivement aux espaces Rnn est un entier naturel supérieur ou égal à 2.

I Produit scalaire et norme

I.1 Produit scalaire

I.1.1 Définition-proposition
Le produit scalaire canonique de deux vecteurs X=(x1xn),Y=(y1yn)Rn est défini par (X|Y)=X,Y=k=1nxkyk=XT×Y Il possède les propriétés suivantes :
  1. Bilinéaire : λ,μRu,v,wRn (λu+μv|w)=λ(u|w)+μ(v|w) et (u|λv+μw)=λ(u|v)+μ(u|w) .
  2. Symétrique : u,vRn (u|v)=(v|u) .
  3. Positive : (u|u)0R .
  4. Définie : (u|u)=0Ru=0Rn .
Notations : le produit scalaire canonique est noté au choix (u|v),u,v, ou uv .
Preuve
La bilinéarité est évidente par la formule de produit matriciel.
De plus, XTY est un nombre donc (XTY)T=YTX=Y,X .
Remarquer que X,X=k=1nxk2 est une somme de réels positifs donc est forcément positive, et elle ne vaut 0 que si tous les termes sont nuls.
I.1.2 Exemple


Les vecteurs (1121) et (0222) sont de produit scalaire nuls dans R4 .

I.2 Norme et distance

I.2.1 Définition
  1. On appelle norme (euclidienne) d'un vecteur uRn le réel positif u=(u|u) .
  2. On appelle distance (euclidienne) entre deux vecteurs u,vRn le réel positif d(u,v)=vu=uv .
I.2.2 Proposition

Soient u,vRn et λR
  1. u=0Ru=0Rn
  2. λu=|λ|u ( Attention à la valeur absolue )
  3. u+v2=u2+2(u|v)+v2
  4. u+v2+uv2=2(u2+v2) (identité du parallélogramme)
  5. (x|y)=u+v2u2v22=u+v2uv24
Preuve
  1. Il s'agit de la traduciton de la dernière propriété du produit scalaire.
  2. On a directement λu2=λ2u2 par double linéarité.
  3. Par définition on a
    u+v2=u+v,u+v=u,u+v+v,u+v=u,u+u,v+v,u+v,v
    et il suffit de regrouper en utilisant la symétrie.
  4. Changer v en v dans la formule précédente puis sommer (en utilisant la linéarité du produit scalaire)
  5. Simple transformation de formules.
I.2.3 Théorème (Inégalité de Cauchy-Schwarz)
Soient u,vRn .
  1. |u,v|u×v
  2. u,v=uv ssi u et v sont colinéaires et de même sens.
Preuve
Soient u,vRn fixés. On considère l'application f:{RRt(u+tv|u+tv)=u+tv2 . Alors f0 par positivité du produit scalaire. De plus, pour tR on a


f(t)=(u+tv|u+tv)=(u|u+tv)+t(v|u+tv)=(u|u)+t(u|v)+t(v|u)+t2(v|v)=u2+2t(u|v)+t2v2

Ainsi f est une fonction polynomiale de degré au plus 2.
  • Si v0 (ie v0 ), alors f est polynomiale de degré 2 et positive. Donc son discriminant est négatif : Δ=4(u|v)24u2v20 , ce qui est l'inégalité de Cauchy-Schwartz.
  • Si v=0 , alors (u|v)=0 et donc l'inégalité est vérifiée.
Dans le cas, v0 , l'inégalité est une égalité ssi Δ=0 ssi f s'annule une fois ssi tR u+tv=0Rn (norme nulle). Ainsi u et v sont colinéaires Dans le cas v=0 , l'égalité est tout le temps vérifié, tout comme le fait d'être colinéaire à 0.
I.2.4 Exemple
k=1nkkn(n+1)22n+13 en prenant X=(1n) et Y=(1n) .
I.2.5 Corollaire (Minkowski)
Soient u,vRn .
  1. u+vu+v avec égalité ssi u et v sont colinéaires de même sens (positivement proportionnels).
  2. |uv|uv
Preuve
On a immédiatement, d'après Cauchy-Schwarz u+v2=u2+2(u|v)+v2u2+2uv+v2=(u+v)2 Comme la fonction racine carré est croissante sur R+ , on a l'inégalité voulue. Il y a égalité ssi (u|v)=uv . Dans ce cas, on a d'après le théorème I.2.3 , u=λv ou v=0 et donc λv2=|λ|v2 , ie v=0 ou λ0 . Dans les deux cas, u et v sont colinéaires de même sens. La réciproque est immédiate par le même calcul.
Pour le deuxième point, on applique l'inégalité triangulaire à (uv)+v et à (vu)+u . Rappelons que |x|a ssi xa et xa pour x,aR .
I.2.6 Remarque
Faire un dessin : inégalité triangulaire.

II Orthogonalité

II.1 Familles orthogonales

II.1.1 Définition
Soient u,v,u1,,upRn .
  1. On dit que u est unitaire (ou normé) ssi u=1=u2 .
  2. u et v sont dits orthogonaux ssi u,v=0 . On note uv .
  3. (u1,,up) est une famille orthogonale ssi les ui sont orthogonaux deux à deux.
  4. (u1,,up) est une famille orthonormale ssi elle est orthogonale et tous les ui sont unitaires. Autrement dit (i,j)1,p2 ui,uj=δi,j .
Explication
La notion d'orthogonalité repose maintenant sur le produit scalaire, contrairement à nos habitudes de 1ère année. On a pas du tout de notion d'angle.
II.1.2 Exemple
Montrer que la base canonique de Rn est orthonormale pour le produit scalaire canonique.
II.1.3 Passer à une famille orthonormale
Soit (e1,,ep) une famille de vecteurs orthogonaux tous non nuls. Alors (eiei)i1,n est une famille orthonormale.
II.1.4 Proposition

Soit (ui)i1,p une famille de vecteurs de Rnorthogonaux deux à deux et tous non nuls . Alors (ui)i1,p est libre.
En particulier, toute famille orthonormale est libre.
Preuve
Supposons que i=1pλiui=0E . Alors en effectuant le produit scalaire par uj on obtient λjuj2=0 ( tous les autres termes sont nuls ), d'où λj=0 .
II.1.5 Théorème (Pythagore)

Soit (u1,,up) une famille orthogonale de Rn . i=1pui2=i=1pui2
Preuve
On calcule cette fois i=1nui,j=1nuj (noter le choix des indices muets différents, pour permettre le calcul de bilinéarité).
Il s'agit simplement de développer les deux sommes et identifier les termes nuls (tous, sauf lorsque les deux vecteurs concernés sont égaux).

II.2 Bases orthonormées

II.2.1 Théorème
Soit B=(e1,,en) une base orthonormale de Rn . Soient u,vE .
  1. u=i=1n(u|ei)ei , c'est à dire que la coordonnée 1 de u sur le vecteur ei est (u|ei) .
  2. On note (x1,,xn) les coordonnées de u dans B et (y1,,yn) les coordonnées de v dans B . Alors (u|v)=x1y1+x2y2++xnyn et u2=i=1nxi2=i=1n(x|ei)2
  3. Si on note X=MatB(u) et Y=MatB(v) (les colonnes des coordonnées), (u|v)=XTY .
Preuve
  1. On a u=x1e1++xnen . Ainsi
    (u|e1)=x1(e1|e1)+x2(e2|e1)+xn(en|e1)=x1
    (par linéarité du produit scalaire et orthogonalité de la famille).
  2. On a par le même calcul (u|v)=i=1nyi(x|ei)=i=1nxiyi .
II.2.2 Exemple
Montrer que la famille (1232),(3212) est une base orthonormale directe de R2 (pour le produit scalaire canonique). Donner les coordonnées de u=(xy) dans cette base. Faire le lien avec les matrices de passage.
II.2.3 Corollaire
Soit B=(e1,,en) une base orthonormée de Rn . Soit fL(Rn) . On note A=(ai,j)i,j1,n=MatB(f) .
Alors (i,j)1,n2 ai,j=(f(ej)|ei) .
Preuve
On a en effet, pour un j1,n fixé f(ej)=i=1n(f(ej)|ei)ei d'après le théorème précédent.
II.2.4 Mnémotechnie
Pour calculer la matrice de f dans B , a priori on calcule les coordonnée de f(ej) pour trouver la j ème colonne. Utile pour se souvenir sur quel indice porte l'application de f .

II.3 Orthogonal d'un sev

II.3.1 Définition
Soient F,G deux sous-espaces de Rn .
  1. On dit que uRn est orthogonal à F ssi uFF u,uF=0 . On le note uF
  2. F et G sont dits orthogonaux ssi (uF,uG)F×G uF,uG=0 . On note FG
II.3.2 Exemple
Trouver un exemple dans R2 . Preuve avec les bases, avec les équations.
II.3.3 Remarque
Si FG alors F+G=FG car le seul vecteur orthogonal à lui même est le vecteur nul.
II.3.4 Proposition
Soient F,G deux sous-espaces de Rn . On suppose que F=Vect(f1,,fr) et G=Vect(g1,,gs) .
  1. Soit uE , uF ssi i1,r ufi .
  2. FG ssi i1,rj1,s figj .
Il suffit de vérifier l'orthogonalité sur une famille génératrice pour prouver l'orthogonalité à un espace.
Preuve
  1. Si xFF alors xF=i=1rαifi et on a (u|xF)=i=1rαi(u|fi) .
    Ceci prouve facilement la seule implication non triviale.
  2. est triviale. Pour la réciproque, on a d'après le point précédent fiG pour tout i . Par linéarité du produit scalaire, tout uFF est alors perpendiculaire à G , par le même calcul qu'au point précédent.
II.3.5 Définition
Soit F un sous-espace vectoriel de Rn . L'orthogonal de F est F={xE| xFF (xF|x)=0} . F est l'ensemble des vecteurs orthogonaux à tous les éléments de F .
II.3.6 Remarque
Si on a GF pour deux espaces alors, par définition de F , GF .
II.3.7 Exemple
  1. {0}=E , E={0} .
  2. Calculer l'orthogonal de la droite d'équation y=x dans R2 .
II.3.8 Attention
On considère D une droite de l'espace et F un sev de R3 . On peut avoir DF sans que F=D . En particulier deux droites peuvent être orthogonales, mais l'orthogonal de D est un plan.
II.3.9 Proposition
Soit F un sev de Rn .
  1. F est un sous-espace de Rn .
  2. FF=Rn ie F et F sont supplémentaires dans Rn .
  3. F est le seul supplémentaire de F qui lui soit orthogonal. On l'appelle le supplémentaire orthogonal de F .
Preuve
Le seul vecteur orthogonal à lui même est 0Rn et donc FF={0Rn} .
Montrons que F est un sous-espace de Rn et que dim(F)=ndim(F) . Soit BF=(u1,,ur) une base de F et f:{RnRru(u,u1u,ur) .
Par linéarité de chaque coordonnées, fL(Rn,Rr) et F=ker(f) d'après II.3.4 . Ainsi F est un sous-espace de Rn .
Considérons Bn la base canonique de Rn et Br la base canonique de Rr . Notons M=MatBn,Br(f) . Alors les lignes de M sont les coordonnées des ui , notées en lignes (ou encore, MT=MatBn(u1,,ur) ). Ainsi elles forment une famille libre et rg(M)=rg(f)=r .
D'après le théorème du rang, rg(f)=ndim(ker(f)) et donc dim(F)=nr comme voulu.
Ainsi FF=Rn .
Finalement, si G est un supplémentaire de F tel que GF alors GF par définition de F et dim(G)=dim(F) ( en tant que supplémentaires d'un même espace F ) et donc G=F ce qui prouve l'unicité voulue.
II.3.10 Exemple
  1. Calculer le supplémentaire orthogonal de D:2xy=0 (dans R2 ).
  2. Dans R3 , même question avec D=Vect(123) et P:2x+z=0 .
II.3.11 Exemple
Projection et symétrie dans le cas où G=F : illustration et traduction des conditions géométriques pour calculer p .

III Matrices particulières

III.1 Matrices orthogonales

III.1.1 Définition
Soit MMn(R) . On dit que M est orthogonale ssi MTM=In . On a alors MMT=In et donc MGLn(R) et M1=MT .
On note O(n) ou On(R) l'ensemble des matrices orthogonale de taille n .
III.1.2 Produit matriciel et produit scalaire
Soient A,BMn(R) . Notons C=AB et ai,j,bi,j,ci,j les coefficients de A,B et C respectivement.
Alors, pour i,j1,n , on a ci,j=k=1nai,kbk,j .
Notons de plus L1,,Ln les colonnes de A et C1,,Cn les lignes de B . Alors Li=(ai,1 ai2  ain) et Cj=(b1,jbn,j) . Ainsi ci,j=LiCj=LiT,Cj .
III.1.3 Théorème
Soit MMn(R) . Alors les propositions suivantes sont équivalentes :
  1. MOn(R) .
  2. MTOn(R) .
  3. Les colonnes de M sont une BON de Mn,1(R) pour le produit scalaire canonique.
  4. Les lignes de M sont une BON de M1,n(R) pour le produit scalaire canonique.
  5. Pour toutes colonnes X,YRn on a MX,MY=X,Y .
  6. Pour toute colonne XRn on a MX=X
Preuve
  • On a clairement 1)2) .
  • D'après le point précédent, MTM=In ssi Ci,Cj=δi,j (symbole de Kronecker) en notant C1,,Cn les colonnes de M . Ainsi 13) .
  • Grâce à 1)2) on a 3)4) immédiatement.
  • Soient X,YRn . A priori MX,MY=(MX)TMY=XTMTMY .
    Ainsi, si MOn(R) on a bien MX,MY=X,Y .
    Réciproquement, supposons que MX,MY=X,Y pour toute colonne X,Y . En notant E1,En la base canonique de Rn (sous forme de colonnes) on a EiT(MTM)Ej=δi,j (car la base canonique est orthonormée).
    Or pour une matrice A=(ai,j) , EiTAEj=ai,j par calcul direct. Ainsi MTM=In .
    On a bien 1)5) .
  • 5)6) est trivial. La réciproque est la conséquence directe de l'identité de polarisation X,Y=X+Y2X2Y22
III.1.4 Remarque
Pour toute matrice carrée M , on a (MMT)T=MMT (transposer chaque terme, et inverser l'ordre) et donc MMT est une matrice symétrique.
Ainsi, si on veut évaluer ses coefficients, on en calcule seulement la "moitié" (précisément, n(n+1)2 pour une matrice de taille n ).
III.1.5 Exemple
  1. InOn(R) .
  2. Montrer que A=17(632263326) est une matrice orthogonale.
  3. A=(cosθsinθsinθcosθ) . Calculer A1 .
III.1.6 Piège de vocabulaire
La matrice M est dite orthogonale ssi ses colonnes forment une famille orthonormale .
III.1.7 Proposition
Soit B une base de Rn . On note Bc la base canonique de Rn .
B est une base orthonormée ssi P=MatBc(B) ( la matrice de passage ) est orthogonale.
Preuve
Simple traduction du théorème précédent.
III.1.8 Changement de bases orthonormales
Soit B une BON de Rn et P=MatBc(B) la matrice de passage de Bc à B .
Pour XRn , on note X=MatB(X) sa colonne de coordonnées dans B . Alors X=PX ie. X=P1X=PTX
III.1.9 Proposition
L'inverse d'une matrice orthogonale est orthogonale et le produit de deux matrices orthogonales est orthogonal.
On(R) est stable par produit matriciel et par passage à l'inverse.
Preuve
Si AOn(R) alors AT=A1On(R) . Si on a également BOn(R) alors AB(AB)T=ABBTAT=AInAT=In et donc AB est orthogonale.
III.1.10 Interprétation géométrique
Si MOn(R) alors M est la matrice d'une BON dans la base canonique qui est orthonormale. Ainsi M1 est la matrice de la base canonique dans une BON et c'est une matrice orthogonale.
III.1.11 Théorème

Soit MOn(R) . Alors det(M)=±1
Preuve
On a det(M)=det(MT) et MT=M1 . Ainsi det(M)=1det(M) et finalement det(M)=±1
III.1.12 Définition
SOn(R) (aussi noté SO(n) ) est l'ensemble {MO(n)| det(M)=1} . On l'appelle groupe spécial orthogonal .
III.1.13 Exercice
Montrer que SO(n) est stable par produit et passage à l'inverse.
III.1.14 Définition
Soit B une base de Rn . On dit que cette base est directe ssi son déterminant dans la base canonique est strictement positif (c'est à dire vaut 1 dans le cas d'une base orthonormée).
On dit qu'elle est indirecte sinon.
III.1.15 Proposition

Effectuer un changement de base entre deux bases orthonormées directes ne modifie pas les déterminants (des familles ni des applications linéaires).
On retrouve ici la notion de produit mixte vu en géométrie de 1ère année. On peut calculer le déterminant d'une famille dans n'importe quelle base orthonormée directe et obtenir toujours la même valeur.
Preuve
SI M est la matrice d'une famille dans une première BOND, la matrice dans la nouvelle BOND est M=PM . Comme det(P)=1 , det(M)=det(P)det(M)=det(M) .

III.2 Matrices symétriques réelles


Rappel : Pour X,YRn , le produit scalaire canonique peut se calculer par X,Y=XTY .
III.2.1 Définition
Une matrice AMn(R) est dite symétrique ssi AT=A . L'ensemble des matrices symétriques de taille n est noté Sn(R) . C'est un espace vectoriel de dimension n(n+1)2 .
III.2.2 Exercice
Soit AMn(R) et POn(R) . Montrer que A est symétrique ssi PTAP est symétrique.
III.2.3 Proposition
Soit AMn(R) . ASn(R) ssi pour tous X,YRn , AX,Y=X,AY .
Preuve
  1. Si A est symétrique, alors AX,Y=(AX)TY=XTATY=XTAY=X,AY pour tout (X,Y)(Rn)2 .
  2. Réciproquement, supposons que pour tous X,YRn , AX,Y=X,AY ie XTATY=XTAY
    Montrons que AT=A .
    On a, pour tout X,Y , XT(ATA)Y=0 ou encore X,ATA)Y=0 .
    Ainsi, pour Y fixé, (ATA)Y est orthogonal à tout vecteur de Rn donc est nul.
    On a donc YRn (ATA)Y=0 et donc (ATA) est d'image nulle.
    C'est la matrice nulle.
On a prouvé de manière plus générale que AX,Y=ATX,Y et AX,Y=X,ATY .
III.2.4 Théorème

Soit ASn(R) .
  1. Les valeurs propres de A sont réelles.
  2. Si X1,X2 sont des vecteurs propres associés à deux valeurs propres distinctes, alors X1X2 .
    Autrement dit, les sous espaces propres de A sont orthogonaux deux à deux.
Preuve
  1. Hors programme. Soit λC une valeur propre de A (c'est possible dès que n1 d'après le théorème de d'Alembert-Gauss).
    Soit X=(z1zn) un vecteur propre associé. Alors AX=λX .
    Alors AX¯=λ¯X¯ car A est à coefficients réels (reprendre la formule de produit matriciel, et conjuguer chaque terme).
    On a alors (AX)TX¯=λXX¯=λi=1n|zi|2 .
    De plus, (AX)TX¯=XTAX¯=λ¯XTX¯=λ¯i=1n|zi|2 .
    Comme i=1n|zi|2>0 on a bien λ¯=λ .
  2. Calculons (AX1|X2) de deux manières. On a d'une part (AX1|X2)=λ1(X1|X2) et d'autre part (AX1|X2)=(X1|AX2)=λ2(X1|X2) . Ainsi (λ1λ2)(X1|X2)=0 et comme λ1λ2 , (X1|X2)=0 .

III.3 Théorème spectral

III.3.1 Théorème

Soit ASn(R) une matrice symétrique réelle.
  • Les sous-espace propres de A sont orthogonaux deux à deux.
  • A est diagonalisable (dans Mn(R) ) dans une base orthonormée, c'est à dire qu'il existe une matrice diagonale D et une matrice orthogonalePOn(R) telles que A=PDP1=PDPT .
Preuve

Hors programme.
Le polynôme χA est scindé sur R car les valeurs propres de A sont réelles. Notons T une matrice triangulaire supérieure semblable à A via la matrice de passage P : T=P1AP . Toutes les matrices sont à coefficients réels.
On applique le procédé de Gram-Schmidt à la base B des colonnes de P pour obtenir une famille orthonormale B de matrice O dans la base canonique. Alors MatBc(B)=P=MatB(B)MatBc(B)=ΔOΔ est triangulaire supérieure et O orthogonale.
On obtient T=Δ1O1AOΔ ie ΔTΔ1=OTAO est à la fois une matrice symétrique et triangulaire supérieure. Elle est donc diagonale et A est semblable à une matrice diagonale !
III.3.2 Remarque
Si A est symétrique et f est son endomorphisme canoniquement associé, il existe une BON dans laquelle la matrice de f est diagonale.
III.3.3 Exemple
Montrer que A=(1224) est diagonalisable et la diagonaliser (dans une BON).
A est symétrique réelle donc est diagonalisable
  • Remarquons que rg(A)=1 et donc, d'après le théorème du rang, dim(ker(A))=1 et donc 0 est racine simple de χA .
  • De plus, la somme (avec multiplicité) des racines de χA vaut Tr(A)=5 et donc l'autre valeur propre est 5. On peut observer que χA est scindé sur R et à racines simples, et on retrouve le fait que A est bien diagonalisable
  • Après calcul, E0(A)=ker(A)=Vect(21) .
  • Les espaces propres de A sont orthogonaux car A est symétrique réelle. Donc E5(A)=Vect(12) .
on en déduit qu'une base orthonormée de vecteur propre de A est (15(21),15(12)) et en posant P=15(2112) et D=(0005) on a A=PDP1=PDPT car P est une matrice orthogonale.

III.4 Trouver une base orthonormée

III.4.1 Produit vectoriel
Diagonaliser dans une BON la matrice A=(211121112) .
la méthode du malin : rg(AI3)=2 donc 1 est valeur propre doubleA est symétrique réelle donc diagonalisable. Pour xR , χA(x)=(x1)2(x4) (après calcul).
  • L'espace propre associé à 1 est le plan P:x+y+z=0 dont une base est ((110),(101))=(u1,u2) .
  • Comme les espaces propres de A sont orthogonaux, E4(A)=Vect(111)v (un vecteur normal au plan P ).
Nous avons un problème. On a bien u1v et u2v mais u1,u2 ne sont pas orthogonaux.
Posons u3=u1v ; Alors u3v et donc u3P et sera à la fois orthogonal à u1 et v .
Ainsi ((110),(112),(111)) est une base orthogonale de vecteurs propres de A , qu'il suffit de normer pour trouver une base orthonormale.
III.4.2 Théorème (Orthogonalisation de Gram-Schmidt)

Soit F un sous-espace de Rn et (e1,,ep) une base de F . Alors il existe une base (u1,,up) de F vérifiant
  • (u1,,up) est orthogonale
  • k1,n Vect(u1,,uk)=Vect(e1,,ek) .
On peut imposer ui=1 , c'est à dire que la famille (u1,,up) soit orthonormale (il suffit de diviser ui par ui0 ). Si on impose de plus que (ek|uk)>0 pour tout k , alors la famille obtenue est unique.
Preuve
Dessin
On note Fk= Vect (e1,,ek) pour k1,n et on pose Pk: ``il existe une famille orthogonale (u1,,uk) telle que Vect(u1,,uk)=Fk ''
  • P1 est clairement vraie, il suffit de poser u1=e1 . (ou e1e1 ). Il existe clairement un seul vecteur de Vect(e1) de norme 1 et tel que (u1|e1)>0 , et c'est e1e1 (et on a (e1|u1)=e1>0 ).
  • Soit k1,n1 , on suppose que Pk est vraie. On remarque d'abord que ek+1Fk , d'après la liberté de la famille (ei)i . On cherche uk+1 sous la forme ek+1x , avec xFk=Vect(e1,,ek)=Vect(u1,,uk) . On écrit donc x=i=1kαikui . On veut maintenant i1,k (ek+1x|ui)=0 ie i1,k(ek+1|ui)αikui2=0 On pose donc uk+1=ek+1i=1k(ek+1|ui)ui2fi0 car ek+1Fk . C'est un vecteur de Fk+1 mais pas de Fk , donc Vect(u1,,uk+1)=Fk+1 . Tout vecteur de Vect(e1,,ek+1) qui n'est pas dans Vect(e1,ek) s'écrit λek+1x avec λR et xFk . Ainsi d'après le calcul précédent tout vecteur orthogonal à tous les ui pour i1,k est de la forme λuk+1 . Il existe un seul vecteur de norme 1 et tel que (u|ek+1)>0 dans Rfk+1 , c'est le vecteur ±uk+1uk+1 (le signe étant choisi pour garder le produit scalaire positif).
  • Par récurrence, une base orthogonale de F existe.
III.4.3 Exemple
On considère U=(1112) et A=UUT . Diagonaliser A .
On trouve que 0 est valeur propre associée à un espace de dimension 3, E0(A)=ker(A)=Vect((1100),(1010),(2001)) .
Comme Tr(A)=7 est également la somme des racines du polynôme caractéristique, 7 est racine. Nous savons que E7(A) est l'orthogonal de E0(A):xyz2t=0 et donc E7(A)=Vect(U) .
Trouvons une base orthogonale de A . On note u1,u2,u3 les 3 vecteurs trouvés et on cherche une base v1,v2,v3 orthogonale de F=E0(A) .
On pose déjà v1=u1 . On cherche maintenant v2E0(A) orthogonal à v1 . On le cherche sous la forme v2=u2αv1 . Alors v2v1v2,v1=0u2,v1αv1,v1=012α=0α=12 .
Ainsi v2=u2v12=(121210) convient.
On cherche maintenant v3 orthogonal à la fois à v1 et v2 sous la forme v3=u3av1bv2 . Le même raisonnement donne u3,v1av1,v1=0 ou encore 22a=0 ie. a=1 . De même v3v2u3,v2bv2,v2=0132b=0b=23 . Finalement v3=u3v123v2=(1101)23(121210)=(2323231)
  1. ce résultat est très utile en physique