Dans tout le chapitre, on s'intéresse exclusivement aux espaces
où
est un entier naturel supérieur ou égal à 2.
I Produit scalaire et norme
I.1 Produit scalaire
I.1.1 Définition-proposition
Le produit scalaire canonique de deux vecteurs
est défini par
Il possède les propriétés suivantes :
Bilinéaire
:
.
Symétrique
:
.
Positive
:
.
Définie
:
.
Notations : le produit scalaire canonique est noté au choix
.
Preuve
La bilinéarité est évidente par la formule de produit matriciel.
De plus,
est un nombre donc
.
Remarquer que
est une somme de réels positifs donc est forcément positive, et elle ne vaut 0 que si tous les termes sont nuls.
I.1.2 Exemple
Les vecteurs
sont de produit scalaire nuls dans
.
I.2 Norme et distance
I.2.1 Définition
On appelle norme (euclidienne) d'un vecteur
le réel positif
.
On appelle distance (euclidienne) entre deux vecteurs
le réel positif
.
I.2.2 Proposition
Soient
et
(
Attention à la valeur absolue
)
(identité du parallélogramme)
Preuve
Il s'agit de la traduciton de la dernière propriété du produit scalaire.
On a directement
par double linéarité.
Par définition on a et il suffit de regrouper en utilisant la symétrie.
Changer
en
dans la formule précédente puis sommer (en utilisant la linéarité du produit scalaire)
Simple transformation de formules.
I.2.3 Théorème (Inégalité de Cauchy-Schwarz)
Soient
.
ssi
sont colinéaires et de même sens.
Preuve
Soient
fixés.
On considère l'application
.
Alors
par positivité du produit scalaire. De plus, pour
on a
Ainsi
est une fonction polynomiale de degré au plus 2.
Si
(ie
), alors
est polynomiale de degré 2 et positive. Donc son discriminant est négatif :
, ce qui est l'inégalité de Cauchy-Schwartz.
Si
, alors
et donc l'inégalité est vérifiée.
Dans le cas,
, l'inégalité est une égalité ssi
ssi
s'annule une fois ssi
(norme nulle). Ainsi
sont colinéaires
Dans le cas
, l'égalité est tout le temps vérifié, tout comme le fait d'être colinéaire à 0.
I.2.4 Exemple
en prenant
et
.
I.2.5 Corollaire (Minkowski)
Soient
.
avec égalité ssi
et
sont colinéaires de même sens (positivement proportionnels).
Preuve
On a immédiatement, d'après Cauchy-Schwarz
Comme la fonction racine carré est croissante sur
, on a l'inégalité voulue.
Il y a égalité ssi
. Dans ce cas, on a d'après le théorème
I.2.3
,
ou
et donc
, ie
ou
.
Dans les deux cas,
et
sont colinéaires de même sens.
La réciproque est immédiate par le même calcul.
Pour le deuxième point, on applique l'inégalité triangulaire à
et à
.
Rappelons que
ssi
pour
.
I.2.6 Remarque
Faire un dessin : inégalité triangulaire.
II Orthogonalité
II.1 Familles orthogonales
II.1.1 Définition
Soient
.
On dit que
est unitaire (ou normé) ssi
.
et
sont dits orthogonaux ssi
. On note
.
est une famille orthogonale ssi les
sont orthogonaux deux à deux.
est une famille orthonormale ssi elle est orthogonale et tous les
sont unitaires.
Autrement dit
⟦⟧
.
Explication
La notion d'orthogonalité repose maintenant sur le produit scalaire, contrairement à nos habitudes de 1ère année. On a pas du tout de notion d'angle.
II.1.2 Exemple
Montrer que la base canonique de
est orthonormale pour le produit scalaire canonique.
II.1.3 Passer à une famille orthonormale
Soit
une famille de vecteurs orthogonaux tous non nuls.
Alors
⟦⟧
est une famille orthonormale.
II.1.4 Proposition
Soit
⟦⟧
une famille de vecteurs de
orthogonaux deux à deux et
tous non nuls
.
Alors
⟦⟧
est libre.
En particulier, toute famille orthonormale est libre.
Preuve
Supposons que
.
Alors en effectuant le produit scalaire par
on obtient
(
tous les autres termes sont nuls
), d'où
.
II.1.5 Théorème (Pythagore)
Soit
une famille orthogonale de
.
Preuve
On calcule cette fois
(noter le choix des indices muets différents, pour permettre le calcul de bilinéarité).
Il s'agit simplement de développer les deux sommes et identifier les termes nuls (tous, sauf lorsque les deux vecteurs concernés sont égaux).
II.2 Bases orthonormées
II.2.1 Théorème
Soit
une base
orthonormale
de
. Soient
.
, c'est à dire que la coordonnée
1
de
sur le vecteur
est
.
On note
les coordonnées de
dans
et
les coordonnées de
dans
. Alors
Si on note
(les colonnes des coordonnées),
.
Preuve
On a
. Ainsi (par linéarité du produit scalaire et orthogonalité de la famille).
On a par le même calcul
.
II.2.2 Exemple
Montrer que la famille
est une base orthonormale directe de
(pour le produit scalaire canonique).
Donner les coordonnées de
dans cette base. Faire le lien avec les matrices de passage.
II.2.3 Corollaire
Soit
une base
orthonormée
de
. Soit
.
On note
⟦⟧
.
Alors
⟦⟧
.
Preuve
On a en effet, pour un
⟦⟧
fixé
d'après le théorème précédent.
II.2.4 Mnémotechnie
Pour calculer la matrice de
dans
,
a priori
on calcule les coordonnée de
pour trouver la
ème colonne. Utile pour se souvenir sur quel indice porte l'application de
.
II.3 Orthogonal d'un sev
II.3.1 Définition
Soient
deux sous-espaces de
.
On dit que
est orthogonal à
ssi
. On le note
sont dits orthogonaux ssi
. On note
II.3.2 Exemple
Trouver un exemple dans
. Preuve avec les bases, avec les équations.
II.3.3 Remarque
Si
alors
car le seul vecteur orthogonal à lui même est le vecteur nul.
II.3.4 Proposition
Soient
deux sous-espaces de
. On suppose que
.
Soit
,
ssi
⟦⟧
.
ssi
⟦⟧⟦⟧
.
Il suffit de vérifier l'orthogonalité sur une famille génératrice pour prouver l'orthogonalité à un espace.
Preuve
Si
alors
et on a
. Ceci prouve facilement la seule implication non triviale.
est triviale. Pour la réciproque, on a d'après le point précédent
pour tout
. Par linéarité du produit scalaire, tout
est alors perpendiculaire à
, par le même calcul qu'au point précédent.
II.3.5 Définition
Soit
un sous-espace vectoriel de
.
L'orthogonal de
est
.
est l'ensemble des vecteurs orthogonaux à tous les éléments de
.
II.3.6 Remarque
Si on a
pour deux espaces alors, par définition de
,
.
II.3.7 Exemple
,
.
Calculer l'orthogonal de la droite d'équation
dans
.
II.3.8 Attention
On considère
une droite de l'espace et
un sev de
. On peut avoir
sans que
. En particulier deux droites peuvent être orthogonales, mais l'orthogonal de
est un plan.
II.3.9 Proposition
Soit
un sev de
.
est un sous-espace de
.
ie
sont supplémentaires dans
.
est le seul supplémentaire de
qui lui soit orthogonal. On l'appelle le supplémentaire orthogonal de
.
Preuve
Le seul vecteur orthogonal à lui même est
et donc
.
Montrons que
est un sous-espace de
et que
.
Soit
une base de
et
.
Par linéarité de chaque coordonnées,
et
d'après
II.3.4
. Ainsi
est un sous-espace de
.
Considérons
la base canonique de
et
la base canonique de
. Notons
.
Alors les lignes de
sont les coordonnées des
, notées en lignes (ou encore,
). Ainsi elles forment une famille libre et
.
D'après le théorème du rang,
et donc
comme voulu.
Ainsi
.
Finalement, si
est un supplémentaire de
tel que
alors
par définition de
et
(
en tant que supplémentaires d'un même espace
) et donc
ce qui prouve l'unicité voulue.
II.3.10 Exemple
Calculer le supplémentaire orthogonal de
(dans
).
Dans
, même question avec
et
.
II.3.11 Exemple
Projection et symétrie dans le cas où
: illustration et traduction des conditions géométriques pour calculer
.
III Matrices particulières
III.1 Matrices orthogonales
III.1.1 Définition
Soit
.
On dit que
est orthogonale ssi
. On a alors
et donc
et
.
On note
ou
l'ensemble des matrices orthogonale de taille
.
III.1.2 Produit matriciel et produit scalaire
Soient
. Notons
et
les coefficients de
respectivement.
Alors, pour
⟦⟧
, on a
.
Notons de plus
les colonnes de
et
les lignes de
.
Alors
et
. Ainsi
.
III.1.3 Théorème
Soit
. Alors les propositions suivantes sont équivalentes :
.
.
Les colonnes de
sont une BON de
pour le produit scalaire canonique.
Les lignes de
sont une BON de
pour le produit scalaire canonique.
Pour toutes colonnes
on a
.
Pour toute colonne
on a
Preuve
On a clairement
.
D'après le point précédent,
ssi
(symbole de Kronecker) en notant
les colonnes de
. Ainsi
.
Grâce à
on a
immédiatement.
Soient
. A priori
. Ainsi, si
on a bien
. Réciproquement, supposons que
pour toute colonne
. En notant
la base canonique de
(sous forme de colonnes) on a
(car la base canonique est orthonormée). Or pour une matrice
,
par calcul direct. Ainsi
. On a bien
.
est trivial. La réciproque est la conséquence directe de l'identité de polarisation
III.1.4 Remarque
Pour toute matrice carrée
, on a
(transposer chaque terme, et inverser l'ordre) et donc
est une matrice symétrique.
Ainsi, si on veut évaluer ses coefficients, on en calcule seulement la "moitié" (précisément,
pour une matrice de taille
).
III.1.5 Exemple
.
Montrer que
est une matrice orthogonale.
. Calculer
.
III.1.6 Piège de vocabulaire
La matrice
est dite orthogonale
ssi ses colonnes forment une famille orthonormale
.
III.1.7 Proposition
Soit
une base de
. On note
la base canonique de
.
est une base orthonormée ssi
(
la matrice de passage
) est orthogonale.
Preuve
Simple traduction du théorème précédent.
III.1.8 Changement de bases orthonormales
Soit
une BON de
et
la matrice de passage de
à
.
Pour
, on note
sa colonne de coordonnées dans
. Alors
III.1.9 Proposition
L'inverse d'une matrice orthogonale est orthogonale et le produit de deux matrices orthogonales est orthogonal.
est stable par produit matriciel et par passage à l'inverse.
Preuve
Si
alors
.
Si on a également
alors
et donc
est orthogonale.
III.1.10 Interprétation géométrique
Si
alors
est la matrice d'une BON dans la base canonique qui est orthonormale. Ainsi
est la matrice de la base canonique dans une BON et c'est une matrice orthogonale.
III.1.11 Théorème
Soit
. Alors
Preuve
On a
et
.
Ainsi
et finalement
III.1.12 Définition
(aussi noté
) est l'ensemble
.
On l'appelle groupe
spécial orthogonal
.
III.1.13 Exercice
Montrer que
est stable par produit et passage à l'inverse.
III.1.14 Définition
Soit
une base de
. On dit que cette base est directe ssi son déterminant dans la base canonique est strictement positif (c'est à dire vaut 1 dans le cas d'une base orthonormée).
On dit qu'elle est indirecte sinon.
III.1.15 Proposition
Effectuer un changement de base entre deux bases orthonormées directes ne modifie pas les déterminants (des familles ni des applications linéaires).
On retrouve ici la notion de produit mixte vu en géométrie de 1ère année. On peut calculer le déterminant d'une famille dans n'importe quelle base orthonormée directe et obtenir toujours la même valeur.
Preuve
SI
est la matrice d'une famille dans une première BOND, la matrice dans la nouvelle BOND est
.
Comme
,
.
III.2 Matrices symétriques réelles
Rappel : Pour
, le produit scalaire canonique peut se calculer par
.
III.2.1 Définition
Une matrice
est dite symétrique ssi
.
L'ensemble des matrices symétriques de taille
est noté
. C'est un espace vectoriel de dimension
.
III.2.2 Exercice
Soit
. Montrer que
est symétrique ssi
est symétrique.
III.2.3 Proposition
Soit
.
ssi pour tous
,
.
Preuve
Si
est symétrique, alors
pour tout
.
Réciproquement, supposons que pour tous
,
ie
Montrons que
. On a, pour tout
,
ou encore
. Ainsi, pour
fixé,
est orthogonal à tout vecteur de
donc est nul. On a donc
et donc
est d'image nulle. C'est la matrice nulle.
On a prouvé de manière plus générale que
.
III.2.4 Théorème
Soit
.
Les valeurs propres de
sont réelles.
Si
sont des vecteurs propres associés à deux valeurs propres distinctes, alors
. Autrement dit, les sous espaces propres de
sont orthogonaux deux à deux.
Preuve
Hors programme. Soit
une valeur propre de
(c'est possible dès que
d'après le théorème de d'Alembert-Gauss). Soit
un vecteur propre associé. Alors
. Alors
car
est à coefficients réels (reprendre la formule de produit matriciel, et conjuguer chaque terme). On a alors
. De plus,
. Comme
on a bien
.
Calculons
de deux manières. On a d'une part
et d'autre part
. Ainsi
et comme
,
.
III.3 Théorème spectral
III.3.1 Théorème
Soit
une matrice symétrique réelle.
Les sous-espace propres de
sont orthogonaux deux à deux.
est diagonalisable (dans
) dans une base orthonormée, c'est à dire qu'il existe une matrice diagonale
et une matrice
orthogonale
telles que
.
Preuve
Hors programme.
Le polynôme
est scindé sur
car les valeurs propres de
sont réelles. Notons
une matrice triangulaire supérieure semblable à
via la matrice de passage
:
. Toutes les matrices sont à coefficients réels.
On applique le procédé de Gram-Schmidt à la base
des colonnes de
pour obtenir une famille orthonormale
de matrice
dans la base canonique. Alors
où
est triangulaire supérieure et
orthogonale.
On obtient
ie
est à la fois une matrice symétrique et triangulaire supérieure. Elle est donc diagonale et
est semblable à une matrice diagonale !
III.3.2 Remarque
Si
est symétrique et
est son endomorphisme canoniquement associé, il existe une BON dans laquelle la matrice de
est diagonale.
III.3.3 Exemple
Montrer que
est diagonalisable et la diagonaliser (dans une BON).
est symétrique réelle donc est diagonalisable
Remarquons que
et donc, d'après le théorème du rang,
et donc
est racine simple de
.
De plus, la somme (avec multiplicité) des racines de
vaut
et donc l'autre valeur propre est 5.
On peut observer que
est scindé sur
et à racines simples, et on retrouve le fait que
est bien diagonalisable
Après calcul,
.
Les espaces propres de
sont orthogonaux car
est symétrique réelle. Donc
.
on en déduit qu'une base orthonormée de vecteur propre de
est
et en posant
et
on a
car
est une matrice orthogonale.
III.4 Trouver une base orthonormée
III.4.1 Produit vectoriel
Diagonaliser dans une BON la matrice
. la méthode du malin :
donc 1 est valeur propre double
est symétrique réelle donc diagonalisable. Pour
,
(après calcul).
L'espace propre associé à 1 est le plan
dont une base est
.
Comme les espaces propres de
sont orthogonaux,
(un vecteur normal au plan
).
Nous avons un problème. On a bien
mais
ne sont pas orthogonaux.
Posons
; Alors
et donc
et sera à la fois orthogonal à
.
Ainsi
est une base orthogonale de vecteurs propres de
, qu'il suffit de normer pour trouver une base orthonormale.
III.4.2 Théorème (Orthogonalisation de Gram-Schmidt)
Soit
un sous-espace de
et
une base de
.
Alors il existe une base
de
vérifiant
est orthogonale
⟦⟧
.
On peut imposer
, c'est à dire que la famille
soit orthonormale (il suffit de diviser
par
). Si on impose de plus que
pour tout
, alors la famille obtenue est unique.
Preuve
Dessin
On note
Vect
pour
⟦⟧
et on pose
``il existe une famille orthogonale
telle que
''
est clairement vraie, il suffit de poser
. (ou
).
Il existe clairement un seul vecteur de
de norme
et tel que
, et c'est
(et on a
).
Soit
⟦⟧
, on suppose que
est vraie.
On remarque d'abord que
, d'après la liberté de la famille
.
On cherche
sous la forme
, avec
.
On écrit donc
.
On veut maintenant
⟦⟧⟦⟧
On pose donc
car
. C'est un vecteur de
mais pas de
, donc
.
Tout vecteur de
qui n'est pas dans
s'écrit
avec
et
. Ainsi d'après le calcul précédent tout vecteur orthogonal à tous les
pour
⟦⟧
est de la forme
. Il existe un seul vecteur de norme 1 et tel que
dans
, c'est le vecteur
(le signe étant choisi pour garder le produit scalaire positif).
Par récurrence, une base orthogonale de
existe.
III.4.3 Exemple
On considère
et
. Diagonaliser
.
On trouve que 0 est valeur propre associée à un espace de dimension 3,
.
Comme
est également la somme des racines du polynôme caractéristique, 7 est racine.
Nous savons que
est l'orthogonal de
et donc
.
Trouvons une base orthogonale de
. On note
les 3 vecteurs trouvés et on cherche une base
orthogonale de
.
On pose déjà
. On cherche maintenant
orthogonal à
. On le cherche sous la forme
.
Alors
.
Ainsi
convient.
On cherche maintenant
orthogonal à la fois à
sous la forme
. Le même raisonnement donne
ou encore
ie.
. De même
.
Finalement