Chargement en cours
Si vous cliquez sur une référence, la définition ou le théorème apparaitra ici
Chapitre 10 : Théorème spectral

Dans tout le chapitre, on s'intéresse exclusivement aux espaces Rnn est un entier naturel supérieur ou égal à 2.

I Produit scalaire et norme

I.1 Produit scalaire

I.1.1 Définition-proposition
Le produit scalaire canonique de deux vecteurs X=(x1xn),Y=(y1yn)Rn est défini par (X|Y)=X,Y=k=1nxkyk=tXY Il possède les propriétés suivantes :
  1. Bilinéaire : λ,μRu,v,wRn (λu+μv|w)=λ(u|w)+μ(v|w) et (u|λv+μw)=λ(u|v)+μ(u|w) .
  2. Symétrique : u,vRn (u|v)=(v|u) .
  3. Positive : (u|u)0R .
  4. Définie : (u|u)=0Ru=0Rn .
Notations : le produit scalaire canonique est noté au choix (u|v),u,v, ou uv .
Preuve
La bilinéarité est évidente par la formule de produit matriciel.
De plus, tXY est un nombre donc t(tXY)=tYX=Y,X .
Remarquer que X,X=k=1nxk2 est une somme de réels positifs donc est forcément positive, et elle ne vaut 0 que si tous les termes sont nuls.
I.1.2 Exemple


Les vecteurs (1121) et (0222) sont de produit scalaire nuls dans R4 .

I.2 Norme et distance

I.2.1 Définition
  1. On appelle norme (euclidienne) d'un vecteur uRn le réel positif u=(u|u) .
  2. On appelle distance (euclidienne) entre deux vecteurs u,vRn le réel positif d(u,v)=vu=uv .
I.2.2 Proposition

Soient u,vRn
  1. u+v2=u2+2(u|v)+v2
  2. u+v2+uv2=2(u2+v2) (identité du parallélogramme)
  3. (x|y)=u+v2u2v22=u+v2uv24
Preuve
  1. Par définition on a
    u+v2=u+v,u+v=u,u+v+v,u+v=u,u+u,v+v,u+v,v
    et il suffit de regrouper.
  2. Changer v en v dans la formule précédente puis sommer (en utilisant la linéarité du produit scalaire)
  3. Simple transformation de formules.
I.2.3 Théorème (Inégalité de Cauchy-Schwarz)
Soient u,vRn . |(u|v)|uv Il y a égalité si et seulement si u et v sont colinéaires.
Preuve
Soient u,vRn fixés. On considère l'application f:{RRt(u+tv|u+tv) . Alors f0 par positivité du produit scalaire. De plus, pour tR on a


f(t)=(u+tv|u+tv)=(u|u+tv)+t(v|u+tv)=(u|u)+t(u|v)+t(v|u)+t2(v|v)=u2+2t(u|v)+t2v2

Ainsi f est une fonction polynomiale de degré au plus 2.
  • Si v0 (ie v0 ), alors f est polynomiale de degré 2 et positive. Donc son discriminant est négatif : Δ=4(u|v)24u2v20 , ce qui est l'inégalité de Cauchy-Schwartz.
  • Si v=0 , alors (u|v)=0 et donc l'inégalité est vérifiée.
Dans le cas, v0 , l'inégalité est une égalité ssi Δ=0 ssi f s'annule une fois ssi tR u+tv=0Rn (norme nulle). Ainsi u et v sont colinéaires Dans le cas v=0 , l'égalité est tout le temps vérifié, tout comme le fait d'être colinéaire à 0.
I.2.4 Exemple
k=1nkkn(n+1)22n+13 en prenant X=(1n) et Y=(1n) .
I.2.5 Corollaire (Minkowski)
Soient u,vRn .
  1. u+vu+v avec égalité ssi u et v sont colinéaires de même sens (positivement proportionnels).
  2. |uv|uv
Preuve
On a immédiatement, d'après Cauchy-Schwarz u+v2=u2+2(u|v)+v2u2+2uv+v2=(u+v)2 Comme la fonction racine carré est croissante sur R+ , on a l'inégalité voulue. Il y a égalité ssi (u|v)=uv . Dans ce cas, on a d'après le théorème I.2.3 , u=λv ou v=0 et donc λv2=|λ|v2 , ie v=0 ou λ0 . Dans les deux cas, u et v sont colinéaires de même sens. La réciproque est immédiate par le même calcul.
Pour le deuxième point, on applique l'inégalité triangulaire à (uv)+v et à (vu)+u .
I.2.6 Remarque
Faire un dessin : inégalité triangulaire.
I.2.7 Proposition (Propriétés de la norme)
Soit u,vRn et λR .
  1. u=0Ru=0Rn
  2. λu=|λ|u
  3. u+vu+v

II Orthogonalité

II.1 Familles orthogonales

II.1.1 Définition
Soit E un R -espace vectoriel muni d'un produit scalaire. Soient u,v,u1,,unE
  1. On dit que u est unitaire, ou normé ssi u=1 .
  2. u et v sont dits orthogonaux ssi (u|v)=0 . On note uv .
  3. (u1,,un) est dite orthogonale ssi les ui sont orthogonaux deux à deux.
  4. (u1,,un) est dite orthonormale ssi elle est orthogonale et tous les ui sont unitaires. Autrement dit (i,j)1,n2 (ui|uj)=δi,j .
Explication
La notion d'orthogonalité repose maintenant sur le produit scalaire, contrairement à nos habitudes de 1ère année. On a pas du tout de notion d'angle.
II.1.2 Exemple
Montrer que la base canonique de Rn est orthonormale pour le produit scalaire canonique.
II.1.3 Passer à une famille orthonormale
Soit (e1,,ep) une famille de vecteurs orthogonaux tous non nuls. Alors (e1e1,,epep) est une famille orthonormale.
II.1.4 Proposition

Soit (ui)i1,p une famille de vecteurs de Rnorthogonaux deux à deux et tous non nuls . Alors (ui)i1,p est libre.
Preuve
Supposons que i=1pλiui=0E . Alors en effectuant le produit scalaire par ui on obtient λiui2=0 ( tous les autres termes sont nuls ), d'où λi=0 .
II.1.5 Théorème (Pythagore)

Soit (u1,,up) une famille orthogonale de Rn . i=1pui2=i=1pui2
Preuve
On calcule cette fois i=1nui,j=1nuj (noter le choix des indices muets différents, pour permettre le calcul de bilinéarité).
Il s'agit simplement de développer les deux sommes et identifier les termes nuls (tous, sauf lorsque les deux vecteurs concernés sont égaux).

II.2 Bases orthonormées

II.2.1 Théorème
Soit B=(e1,,en) une base orthonormale de Rn . Soient u,vE .
  1. u=i=1n(u|ei)ei , c'est à dire que la coordonnée 1 de u sur le vecteur ei est (u|ei) .
  2. On note (x1,,xn) les coordonnées de u dans B et (y1,,yn) les coordonnées de v dans B . Alors (u|v)=x1y1+x2y2++xnyn et u2=i=1nxi2=i=1n(x|ei)2
  3. Si on note X=MatB(u) et Y=MatB(v) (les colonnes des coordonnées), (u|v)=tXY .
Preuve
  1. On a u=x1e1++xnen . Ainsi (u|e1)=x1(e1|e1)+x2(e2|e1)+xn(en|e1)=x1 (par linéarité du produit scalaire et orthogonalité de la famille).
  2. On a par le même calcul (u|v)=i=1nyi(x|ei)=i=1nxiyi .
II.2.2 Exemple
Montrer que la famille (1232),(3212) est une base orthonormale directe de R2 (pour le produit scalaire canonique). Donner les coordonnées de u=(xy) dans cette base. Faire le lien avec les matrices de passage.
II.2.3 Corollaire
Soit B=(e1,,en) une base orthonormée de Rn . Soit fL(Rn) . On note A=(ai,j)i,j1,n=MatB(f) .
Alors (i,j)1,n2 ai,j=(f(ej)|ei) .
Preuve
On a en effet, pour un j1,n fixé f(ej)=i=1n(f(ej)|ei)ei d'après le théorème précédent.
II.2.4 Mnémotechnie
Pour calculer la matrice de f dans B , a priori on calcule les coordonnée de f(ej) pour trouver la j ème colonne. Utile pour se souvenir sur quel indice porte l'application de f .

II.3 Orthogonal d'un sev

II.3.1 Définition
Soient F,G deux sous-espaces de Rn .
  1. On dit que uE est orthogonal à F ssi uFF (u|uF)=0
  2. F et G sont dits orthogonaux ssi (uF,uG)F×G (uF|uG)=0 .
II.3.2 Exemple
Trouver un exemple dans R2 muni du produit scalaire canonique. Preuve avec les bases, avec les équations.
II.3.3 Remarque
Si FG alors F+G=FG car le seul vecteur orthogonal à lui même est le vecteur nul.
II.3.4 Proposition
Soient F,G deux sous-espaces de Rn . On suppose que F=Vect(f1,,fr) et G=Vect(g1,,gs) .
  1. Soit uE , uF ssi i1,r ufi .
  2. FG ssi i1,rj1,s figj .
Il suffit de vérifier l'orthogonalité sur une famille génératrice pour prouver l'orthogonalité à un espace.
Preuve
  1. Si xFF alors xF=i=1rαifi et on a (u|xF)=i=1rαi(u|fi) .
    Ceci prouve facilement la seule implication non triviale.
  2. est triviale. Pour la réciproque, on a d'après le point précédent fiG pour tout i . Par linéarité du produit scalaire, tout uFF est alors perpendiculaire à G , par le même calcul qu'au point précédent.
II.3.5 Définition
Soit F un sev de Rn . L'orthogonal de F est F={xE| xFF (xF|x)=0} . F est l'ensemble des vecteurs orthogonaux à tous les éléments de F .
II.3.6 Remarque
Si on a GF pour deux espaces alors, par définition de F , GF .
II.3.7 Exemple
  1. {0}=E , E={0} .
  2. Calculer l'orthogonal de la droite d'équation y=x dans R2 .
II.3.8 Attention
On considère D une droite de l'espace et F un sev de R3 . On peut avoir DF sans que F=D . En particulier deux droites peuvent être orthogonales, mais l'orthogonal de D est un plan.
II.3.9 Proposition
Soit F un sev de Rn .
  1. F est un sous-espace de Rn .
  2. FF=E ie F et F sont supplémentaires dans E .
  3. F est le seul supplémentaire de F qui lui soit orthogonal. On l'appelle le supplémentaire orthogonal de F .
Preuve
Le seul vecteur orthogonal à lui même est 0Rn et donc FF={0Rn} .
Montrons que F est un sous-espace de Rn et que dim(F)=ndim(F) . Soit BF=(e1,,er) une base de F et f:{RnRru(u,e1u,er) .
Par linéarité de chaque coordonnées, fL(Rn,Rr) et F=ker(f) d'après II.3.4 . Ainsi F est un sous-espace de Rn .
Considérons Bn la base canonique de Rn et Br la base canonique de Rr . Notons M=MatBn,Br(f) . Alors les lignes de M sont les coordonnées des ei , notées en lignes. Ainsi elles forment une famille libre et rg(M)=rg(f)=r .
D'après le théorème du rang, rg(f)=ndim(ker(f)) et donc dim(F)=nr comme voulu.
Ainsi FF=Rn .
Finalement, si G est un supplémentaire de F tel que GF alors GF par définition de F et dim(G)=dim(F) ( en tant que supplémentaires d'un même espace F ) et donc G=F ce qui prouve l'unicité voulue.
II.3.10 Exemple
  1. Calculer le supplémentaire orthogonal de D:2xy=0 (dans R2 ).
  2. Dans R3 , même question avec D=Vect(123) et P:2x+z=0 .
II.3.11 Exemple
Projection et symétrie dans le cas où G=F : illustration et traduction des conditions géométriques pour calculer p .

III Matrices particulières

III.1 Matrices orthogonales

III.1.1 Définition
Soit MMn(R) . On dit que M est orthogonale ssi MtM=In . On a alors tMM=In et donc MGLn(R) et M1=tM . On note O(n) ou On(R) l'ensemble des matrices orthogonale de taille n .
III.1.2 Produit matriciel et produit scalaire
Soient A,BMn(R) . Notons C=AB et ai,j,bi,j,ci,j les coefficients de A,B et C respectivement.
Alors, pour i,j1,n , on a ci,j=k=1nai,kbk,j .
Notons de plus L1,,Ln les colonnes de A et C1,,Cn les lignes de B . Alors Li=(ai,1 ai2  ain) et Cj=(b1,jbn,j) . Ainsi ci,j=LiCj=tLi,Cj .
III.1.3 Théorème
Soit MMn(R) . Alors les propositions suivantes sont équivalentes :
  1. MOn(R) .
  2. tMOn(R) .
  3. Les colonnes de M sont une BON de Mn,1(R) pour le produit scalaire canonique.
  4. Les lignes de M sont une BON de M1,n(R) pour le produit scalaire canonique.
  5. Pour toutes colonnes X,YRn on a MX,MY=X,Y .
  6. Pour toute colonne XRn on a MX=X
Preuve
  • On a clairement 1)2) .
  • D'après le point précédent, tMM=In ssi Ci,Cj=δi,j (symbole de Kronecker) en notant C1,,Cn les colonnes de M . Ainsi 13) .
  • Grâce à 1)2) on a 3)4) immédiatement.
  • Soient X,YRn . A priori MX,MY=t(MX)MY=tXtMMY .
    Ainsi, si MOn(R) on a bien MX,MY=X,Y .
    Réciproquement, supposons que MX,MY=X,Y pour toute colonne X,Y . En notant E1,En la base canonique de Rn (sous forme de colonnes) on a tEi(tMM)Ej=δi,j (car la base canonique est orthonormée).
    Or pour une matrice A=(ai,j) , tEiAEj=ai,j par calcul direct. Ainsi tMM=In .
    On a bien 1)5) .
  • 5)6) est trivial. La réciproque est la conséquence directe de l'identité de polarisation X,Y=X+Y2X2Y22
III.1.4 Exemple
  1. In , A=(cosθsinθsinθcosθ) . Calculer A1 .
  2. 17(632263326)
  3. Quelle est la méthode la plus efficace pour vérifier qu'une matrices est orthogonale ?
III.1.5 Proposition
Soit B une base de Rn . On note Bc la base canonique de Rn .
B est une base orthonormée ssi P=MatBc(B) ( la matrice de passage ) est orthogonale.
Preuve
Simple traduction du théorème précédent.
III.1.6 Changement de bases orthonormales
Soit B une BON de Rn et P=MatBc(B) la matrice de passage de Bc à B .
Pour XRn , on note X=MatB(X) sa colonne de coordonnées dans B . Alors X=PX ie. X=P1X=tPX
III.1.7 Proposition

L'inverse d'une matrice orthogonale est orthogonale et le produit de deux matrices orthogonales est orthogonal.
Preuve
Si AOn(R) alors tA=A1On(R) . Si on a également BOn(R) alors ABt(AB)=ABtBtA=AIntA=In de donc AB est orthogonale.
III.1.8 Interprétation géométrique
Si MOn(R) alors M est la matrice d'une BON dans la base canonique qui est orthonormale. Ainsi M1 est la matrice de la base canonique dans une BON et c'est une matrice orthogonale.
III.1.9 Théorème

Soit MOn(R) . Alors det(M)=±1
Preuve
On a det(M)=det(tM) et tM=M1 . Ainsi det(M)=1det(M) et finalement det(M)=±1
III.1.10 Définition
SOn(R) (aussi noté SO(n) ) est l'ensemble {MO(n)| det(M)=1} . On l'appelle groupe spécial orthogonal .
III.1.11 Exercice
Montrer que SO(n) est stable par produit et passage à l'inverse.
III.1.12 Définition

Soit B une base de Rn . On dit que cette base est directe ssi son déterminant dans la base canonique est strictement positif (c'est à dire vaut 1 dans le cas d'une base orthonormée). On dit qu'elle est indirecte sinon.
III.1.13 Proposition

Effectuer un changement de base entre deux bases orthonormées directes ne modifie pas les déterminants (des familles ni des applications linéaires).
On retrouve ici la notion de produit mixte vu en géométrie de 1ère année. On peut calculer le déterminant d'une famille dans n'importe quelle base orthonormée directe et obtenir toujours la même valeur.
Preuve
SI M est la matrice d'une famille dans une première BOND, la matrice dans la nouvelle BOND est M=PM . Comme det(P)=1 , det(M)=det(M) .

III.2 Matrices symétriques réelles


Rappel : Pour X,YRn , le produit scalaire canonique peut se calculer par (X|Y)=tXY .
III.2.1 Définition

Une matrice AMn(R) est dite symétrique ssi tA=A . L'ensemble des matrices symétriques de taille n est noté Sn(R) . C'est un espace vectoriel de dimension n(n+1)2 .
III.2.2 Exercice
Soit AMn(R) et POn(R) . Montrer que A est symétrique ssi tPAP est symétrique.
III.2.3 Proposition
Soit AMn(R) . ASn(R) ssi pour tous X,YRn , (AX|Y)=(X|AY) (pour le produit scalaire canonique).
Preuve
  1. Si A est symétrique, alors (AX|Y)=t(AX)Y=tXtAY=tXAY=(X|AY) pour tout (X,Y)(Rn)2 .
  2. Réciproquement, supposons que pour tous X,YRn , (AX|Y)=(X|AY) ie tXtAY=tXAY
    Montrons que tA=A .
    On a, pour tout X,Y , tX(tAA)Y=0 ou encore (X|(tAA)Y)=0 . Ainsi, pour Y fixé, (tAA)Y est orthogonal à tout vecteur de Rn donc est nul. On a donc YRn (tAA)Y=0 et donc (tAA) est d'image nulle. C'est la matrice nulle.
On a prouvé de manière plus générale que (X|AY)=(tAX|Y) et (AX|Y)=(X|tAY) .
III.2.4 Théorème

Soit ASn(R) .
  1. Les valeurs propres de A sont réelles.
  2. Si X1,X2 sont des vecteurs propres associés à deux valeurs propres distinctes, alors X1X2 .
    Autrement dit, les sous espaces propres de A sont orthogonaux deux à deux.
Preuve
  1. Hors programme. Soit λC une valeur propre de A (c'est possible dès que n1 d'après le théorème de d'Alembert-Gauss).
    Soit X=(z1zn) un vecteur propre associé. Alors AX=λX .
    Alors AX¯=λ¯X¯ car A est à coefficients réels (reprendre la formule de produit matriciel, et conjuguer chaque terme).
    On a alors t(AX)X¯=λXX¯=λi=1n|zi|2 .
    De plus, t(AX)X¯=tXAX¯=λ¯tXX¯=λ¯i=1n|zi|2 .
    Comme i=1n|zi|2>0 on a bien λ¯=λ .
  2. Calculons (AX1|X2) de deux manières. On a d'une part (AX1|X2)=λ1(X1|X2) et d'autre part (AX1|X2)=(X1|AX2)=λ2(X1|X2) . Ainsi (λ1λ2)(X1|X2)=0 et comme λ1λ2 , (X1|X2)=0 .

III.3 Théorème spectral

III.3.1 Théorème

Soit ASn(R) une matrice symétrique réelle.
  • Les sous-espace propres de A sont orthogonaux.
  • A est diagonalisable (dans Mn(R) ) dans une base orthonormée, c'est à dire qu'il existe une matrice diagonale D et une matrice orthogonalePOn(R) telles que A=PDP1=PDtP .
Preuve

Hors programme.
Le polynôme χA est scindé sur R car les valeurs propres de A sont réelles. Notons T une matrice triangulaire supérieure semblable à A via la matrice de passage P : T=P1AP . Toutes les matrices sont à coefficients réels.
On applique le procédé de Gram-Schmidt à la base B des colonnes de P pour obtenir une famille orthonormale B de matrice O dans la base canonique. Alors MatBc(B)=P=MatB(B)MatBc(B)=ΔOΔ est triangulaire supérieure et O orthogonale.
On obtient T=Δ1O1AOΔ ie ΔTΔ1=tOAO est à la fois une matrice symétrique et triangulaire supérieure. Elle est donc diagonale et A est semblable à une matrice diagonale !
III.3.2 Remarque
Si A est symétrique et f est son endomorphisme canoniquement associé, il existe une BON dans laquelle la matrice de f est diagonale.
III.3.3 Exemple
Montrer que A=(1224) est diagonalisable et la diagonaliser (dans une BON).
A est symétrique réelle donc est diagonalisable
  • Remarquons que rg(A)=1 et donc, d'après le théorème du rang, dim(ker(A))=1 et donc 0 est racine simple de χA .
  • De plus, la somme (avec multiplicité) des racines de χA vaut Tr(A)=5 et donc l'autre valeur propre est 5. On peut observer que χA est scindé sur R et à racines simples, et on retrouve le fait que A est bien diagonalisable
  • Après calcul, E0(A)=ker(A)=Vect(21) .
  • Les espaces propres de A sont orthogonaux car A est symétrique réelle. Donc E5(A)=Vect(12) .
on en déduit qu'une base orthonormée de vecteur propre de A est (15(21,)15(12)) et en posant P=15(2112) et D=(0005) on a A=PDP1=PDtP car P est une matrice orthogonale.

III.4 Trouver une base orthonormée

III.4.1 Produit vectoriel
Diagonaliser dans une BON la matrice A=(211121112) .
la méthode du malin : rg(AI3)=2 donc 1 est valeur propre doubleA est symétrique réelle donc diagonalisable. Pour xR , χA(x)=(x1)2(x4) (après calcul).
  • L'espace propre associé à 1 est le plan P:x+y+z=0 dont une base est ((110),(101))=(u1,u2) .
  • Comme les espaces propres de A sont orthogonaux, E4(A)=Vect(111)v (un vecteur normal au plan P ).
Nous avons un problème. On a bien u1v et u2v mais u1,u2 ne sont pas orthogonaux.
Posons u3=u1v ; Alors u3v et donc u3P et sera à la fois orthogonal à u1 et v .
Ainsi ((110),(112),(111)) est une base orthogonale de vecteurs propres de A , qu'il suffit de normer pour trouver une base orthonormale.
III.4.2 Théorème (Orthogonalisation de Gram-Schmidt)

Soit F un sous-espace de Rn et (e1,,ep) une base de F . Alors il existe une base (u1,,up) de F vérifiant
  • (u1,,up) est orthogonale
  • k1,n Vect(u1,,uk)=Vect(e1,,ek) .
On peut imposer ui=1 , c'est à dire que la famille (u1,,up) soit orthonormale (il suffit de diviser ui par ui0 ). Si on impose de plus que (ek|uk)>0 pour tout k , alors la famille obtenue est unique.
Preuve
Dessin
On note Fk= Vect (e1,,ek) pour k1,n et on pose Pk: ``il existe une famille orthogonale (u1,,uk) telle que Vect(u1,,uk)=Fk ''
  • P1 est clairement vraie, il suffit de poser u1=e1 . (ou e1e1 ). Il existe clairement un seul vecteur de Vect(e1) de norme 1 et tel que (u1|e1)>0 , et c'est e1e1 (et on a (e1|u1)=e1>0 ).
  • Soit k1,n1 , on suppose que Pk est vraie. On remarque d'abord que ek+1Fk , d'après la liberté de la famille (ei)i . On cherche uk+1 sous la forme ek+1x , avec xFk=Vect(e1,,ek)=Vect(u1,,uk) . On écrit donc x=i=1kαikui . On veut maintenant i1,k (ek+1x|ui)=0 ie i1,k(ek+1|ui)αikui2=0 On pose donc uk+1=ek+1i=1k(ek+1|ui)ui2fi0 car ek+1Fk . C'est un vecteur de Fk+1 mais pas de Fk , donc Vect(u1,,uk+1)=Fk+1 . Tout vecteur de Vect(e1,,ek+1) qui n'est pas dans Vect(e1,ek) s'écrit λek+1x avec λR et xFk . Ainsi d'après le calcul précédent tout vecteur orthogonal à tous les ui pour i1,k est de la forme λuk+1 . Il existe un seul vecteur de norme 1 et tel que (u|ek+1)>0 dans Rfk+1 , c'est le vecteur ±uk+1uk+1 (le signe étant choisi pour garder le produit scalaire positif).
  • Par récurrence, une base orthogonale de F existe.
III.4.3 Exemple
On considère U=(1112) et A=UtU . Diagonaliser A .
On trouve que 0 est valeur propre associée à un espace de dimension 3, E0(A)=ker(A)=Vect((1100),(1010),(2001)) .
Comme Tr(A)=7 est également la somme des racines du polynôme caractéristique, 7 est racine. Nous savons que E7(A) est l'orthogonal de E0(A):xyz2t=0 et donc E7(A)=Vect(U) .
Trouvons une base orthogonale de A . On note u1,u2,u3 les 3 vecteurs trouvés et on cherche une base v1,v2,v3 orthogonale de F=E0(A) .
On pose déjà v1=u1 . On cherche maintenant v2E0(A) orthogonal à v1 . On le cherche sous la forme v2=u2αv1 . Alors v2v1v2,v1=0u2,v1αv1,v1=012α=0α=12 .
Ainsi v2=u2v12=(121210) convient.
On cherche maintenant v3 orthogonal à la fois à v1 et v2 sous la forme v3=u3av1bv2 . Le même raisonnement donne u3,v1av1,v1=0 ou encore 22a=0 ie. a=1 . De même v3v2u3,v2bv2,v2=0132b=0b=23 . Finalement v3=u3v123v2=(1101)23(121210)=(2323231)

IV Coniques

Changement de repère, rappel
On se place dans R2 (par exemple) et on considère une base B=(u,v) Ainsi que P=MatBc(B) la matrice de passage de la base canonique à B ( dont les colonnes sont u et v si ces vecteurs étaient notés sous forme de colonne ).
Notons X=(xy) et X=(xy) les coordonnées de X dans le repère (O,u,v) .
Alors X=PX et X=P1X

IV.1 Forme réduite

IV.1.1 Définition

Une conique de R2 est l'ensemble des points M:(x,y) vérifiant une équation de la forme ax2+bxy+cy2+dx+ey+f=0(a,b,c)R3{(0,0,0)} et d,e,fR .
IV.1.2 Exemple
Les cercles sont des cas particuliers de coniques.
IV.1.3 Définition

Soient a,b,p>0 . On appelle équation réduite de conique les équations suivantes :
  • x2a2+y2b2=1 (ellipse)
  • x2a2y2b2=1 (hyperbole)
  • y2=2px (parabole)

IV.2 Tracés des formes réduites

IV.2.1 Ellipse
On souhaite tracer dans le repère canonique l'ellipse d'équation réduite E:x2a2+y2b2=1 pour a,b>0 donnés.
Remarquons que pour un point M:(xy)R2 , on a MC(xa)2+(yb)2=1 ssi il existe un θ dans [π,π] tel que x=acosθ et y=bsinθ .
On étudie donc la courbe paramétrée fE:{[π,π]R2t(acostbsint) . Notons M(t) le point de paramètre t . On trouve directement que M(t) est le symétrique de M(t) par rapport à (Ox) et que M(πt) est le symétrique de M(t) par rapport à (Oy) .
Finalement on étudie f sur [0,π2] . Les deux fonctions coordonnées, notées x et y encore, ( on a changé la signification des notations ici. Avant x,y étaient des nombres, maintenant ce sont des fonctions ) sont C1 et leurs variations sont du cours
t0π2
x(t)0
x(t)a0
y(t)0b
y(t)+0
On observe ainsi une tangente verticale en t=0 ( dirigée par f(0)=(x(0)y(0)) ) et une tangente horizontale en t=π2
Il n'y a pas de limites infinies dans la tableau de variations, donc aucune étude de branche infinie n'est nécessaire.
On trace d'abord un premier quart d'ellipse, et le reste du tracé est assez évident par les deux symétries exhibées qui ne modifient pas les directions des tangentes, mais seulement les points où on les trace.
Ellipse d'équation x2a2+y2b2=1
IV.2.2 Hyperbole
On s'intéresse cette fois à H:x2a2y2b2=1 . On ne donnera par de paramétrisation complète de cette hyperbole.
Par contre, remarquons que H est symétrique par rapport à (Oy) car M=(xy)H(xy)H .
Ainsi, on va paramétrer la moitié de H donnée par H+:x2a2y2b2=1 et x0 . Comme remarque préliminaire à notre paramétrage, remarquons que sh:RR est une bijection ( de R dans R ). Ainsi tout réel donné peut se mettre sous la forme sh(t) pour un t bien choisi (et unique).
Posons M=(xy)R2 . Alors MH+tR yb=sh(t) et (xa)2sh2(t)=1 ssi tR y=bsh(t) et (xa)2=ch2(t) . Comme les points de H+ ont une abscisse positive, on peut donc écrire MH+tR{x=achty=bsht .
Dans la ligne du point précédent, on note f la courbe paramétrée correspondante et x,y deviennent les fonctions coordonnées de f . Pour tR on note maintenant M(t)=f(t) . On a M(t) qui est le symétrique de M(t) par rapport à (Ox) . f est clairement de classe C1 et on obtient très facilement les variations.
t0+
x(t)0+
x(t)a+
y(t)0+
y(t)+

On observe une tangente verticale en t=0 et nous avons une étude de branche infinie quand t+ à effectuer.
  • on a x(t)++ et y(t)++ , il faut évaluer la limite de yx
  • De plus, x(t)+aet2 car et=o+(et) et y(t)+bet2 . Ainsi y(t)x(t)+ba . On ne peut toujours pas conclure, il faut évaluer la limite de ybax .
  • Pour tR , on a y(t)bax(t)=b(sh(t)ch(t))=bet+0 .
Finalement, le support de f admet une asymptote oblique d'équation y=bax+0 ( Attention aux notations classiques ici, les lettres x,y représentent des nombres qui sont deux inconnues/variables muettes de notre équation de droite )
Remarque : comme y(t)bax(t)<0 , le support de la courbe est en fait en dessous de son asymptote .
Traçons maintenant. On remarque que l'asymptote trouvée passe par l'origine et le point de coordonnées (ab) . Ainsi, pour effectuer la première symétrie (par rapport à (Ox) ), on tracera la droite passant par l'origine et (ab) pour obtenir la deuxième asymptote. un calcul immédiat (de symétrie, sur les coordonnées des points) montre que le symétrique de H+ par rapport à (Oy) possède les deux mêmes asymptotes.
Hyperbole
IV.2.3 Exercice
Montrer que l'hyperbole d'équation x2a2y2b2=1 peut se paramétrer par x=acost,y=btant pour t dans un intervalle à préciser.
IV.2.4 Parabole
On trace ici la parabole d'équation réduite y2=2pxp>0 . Pour retrouver une équation classique, on peut se placer dans le repère (O,ȷ,ı)
On peut paramétrer par f:t(t22pt) .
Une deuxième méthode, plus rapide, consiste à effectuer le changement de repère donné par la matrice de passage P=(0110)SO2(R)Reconnaître la rotation . Ainsi en notant X=(xy) les coordonnées de M dans le repère canonique et X=(xy) les coordonnées de ce même point dans le nouveau repère, on a X=PX ou encore {x=yy=x et l'équation devient (x)2=2py ou encore y=12p(x)2 et on retrouve une parabole du cours de seconde.
Remarquons pour le tracé, que dans le repère canonique, notre parabole passe par l'origine (tangente verticale) et les deux points (p2±p)
Parabole d'équation y2=2px

IV.3 Réduction d'une conique

IV.3.1 Ecriture matricielle
Fixons les coefficients d'une équation de conique.
On pose X=(xy) et A=(ab2b2c) . Alors tXAX=ax2+bxy+cy2 . Ainsi en posant en plus L=(de) , on obtient :
ax2+bxy+cy2+dx+ey+f=0tXAX+LX+f=0 Le but est maintenant de diagonaliser A , ce qui fait disparaître le terme ``rectangle'' en xy .
D'après le théorème spectral, on peut toujours trouver une base orthonormée directe dans laquelle l'équation n'a plus de terme en xy .
IV.3.2 Après rotation
Comme A est symétrique réelle, on peut la diagonaliser dans une base orthonormée directe. Notons λ,μ ses valeurs propres. On suppose λμ (sinon, A était déjà diagonale, les homothétie ne changent pas de matrice par changement de base). Notons P la matrice de passage (qui diagonalise A ).
Posons X=P1X=tPX ie X=PX , les coordonnées de X dans la nouvelle base.
tXAX+LX+f=0t(PX)APX+LPX+f=0tXDX+(LP)X+f=0λx2+μy2+dx+ey+f=0LP=(de) .
  1. Si λ=0 et μ0 , on obtient (mise sous forme canonique) soit une parabole soit une réunion de droites.
  2. Si λ0 et μ0 , on passe sous forme canonique (pour x et y , attention à bien factoriser par λ et μ ) pour obtenir soit une équation d'ellipse soit une équation d'hyperbole (au moins pour le membre de gauche), après changement de repère par translation (la mise sous forme canonique donne les coordonnées du centre, comme pour les cercles).
    Suivant la valeur de la constante, on peut obtenir un seul point, l'ensemble vide ou deux droites sécantes.
IV.3.3 Exemple
Tracer les coniques 3x2+4xy+3y2=±1 .
On pose A=(3223) . Alors pour X=(xy)R2 on a tXAX=3x2+4xy+3y2 .
De plus, A est symétrique réelle donc est diagonalisable dans Mn(R) et ses espaces propres sont orthogonaux. Or pour xRχA(x)=x2Tr(A)x+det(A)=x26x+5 Ainsi les valeurs propres de A sont 1 et 5.
Après calcul, E1(A)=Vect(11) et comme les espaces propres de A sont orthogonaux, E5(A)=Vect(11) . Considérons la base orthonormée directe de vecteur propres de A , B=(u,v)=(12(11),12(11)) . On pose P=12(1111)SO2(R) et X=(xy) tel que X=PX , c'est à dire que X est la colonne des coordonnées de X dans la base B .
En notant D=(1005)
On a alors tXAX=tXPDPTX=t(X)DX=(x)2+5(y)2 .

Dans le repère R=(O,u,v) , l'équation étudiée devient (x)2+5(y)2=±1 . Il y a deux cas
  • L'équation (x)2+5(y)2=1 n'a pas de solution réelle, donc l'ensemble étudié est vide.
  • L'ensemble des solutions de (x)2+5(y)2=1 est une ellipse que nous allons tracer.
    On commence par tracer le nouveau repère, dont on a donné des vecteurs directeurs des axes, puis on trace l'ellipse dans ce nouveau repère. Avec les notations des équations réduites de ce cours, on a a=1 et b=15 .
    Ellipse d'équation 3x2+4xy+3y2=1
IV.3.4 Exemple
Tracer x24xy2y2+2x4y=α suivant les valeurs de α .
Posons la matrice est A=(1222) . det(A)<0 , on obtient une conique de type hyperbole (deux racines de signe stricts opposés). Les valeurs propres sont les racines de X2+X6 qui sont 2 et 3 .
E2=Vect(21) et E3=Vect(12) . On pose P=15(2112)=MatBc(u,v) . L'équation dans le nouveau repère devient 2x23y2+2(2x+y5)4x+2y5=α c'est à dire


2x23y2+85x65y=α2(x+25)2853(y+15)2+35=α2(x+325)23(y+15)2=α+1


On pose Ω de coordonnées (2515) dans le nouveau repère ( ce qui donne P(2515)=(10) dans le repère canonique ) et (u,v) les deux colonnes de la matrices P dans l'ordre. Alors dans le repère R=(Ω,u,v) (on note x,y les coordonnées) l'équation devient 2(x)23(y)2=α+1
  • Cas α=1 : l'équation devient y=±23x . La conique est en fait une réunion de deux droites.
  • Cas α>1 : l'équation devient (2α+1)2(x)2(3α+1)2(y)2=1 et on obtient une équation réduite d'hyperbole dont les asymptotes sont d'équations y=±23obtenu comme valeur de ba , les α+1 se simplifient
  • Cas α<1 : cette fois l'équation devient (3α1)2(y)2(2α1)2(x)2=1 .
    L'équation n'est pas réduite, mais il suffit d'échanger le rôle des axes pour tracer.

On obtient une hyperbole ou la réunion de deux droites suivant la valeur de α .
Cas α=0 en bleu, α=3 en rouge
Lien géogébra : pour animer les valeurs de α .
IV.3.5 Méthode
Pour réduire une équation de conique :
  1. Diagonaliser A , puis écrire l'équation dans le nouveau repère.
  2. Passer sous forme canonique en x et y (ou seulement l'un des deux).
  3. Exhiber l'éventuel centre, faire le tracé dans le nouveau repère.
  1. ce résultat est très utile en physique