On dit que
est dénombrable ssi il existe une application
bijective.
En d'autre termes, on peut écrire
sans oublier un seul élément.
On dit que
est au plus dénombrable ssi
est fini ou dénombrable.
I.1.2 Fini ou dénombrable
Les ensembles finis ou dénombrables sont exactement les ensembles pour lesquels on peut numéroter les éléments, ou encore les décrire sous la forme
(quitte à prendre une infinité de fois la même valeur pour
dans le cas des ensembles finis).
I.1.3 Théorème
est dénombrable.
est dénombrable.
sont dénombrables.
Si
sont dénombrables alors
est dénombrable.
Preuve
Encore heureux !
est une bijection convenable.
Exhibons une bijection de
dans
. On pose
est une bijection. Pour le prouver on peut soit examiner l'injectivité et la surjectivité, soit exhiber sa réciproque.
cf 4.
Notons
.
L'idée ici et d'énumérer tous les éléments de
``par diagonale'' : on représente
sur l'axe des abscisses,
sur l'axe des ordonnées (un élément de chaque sur chaque entier,
situés en 0).
On énumère les éléments de
de la manière suivante : pour chaque
, on part de
(graphiquement sur l'axe des abscisses), puis on considère
.
Plus précisément, si
, on note
et alors on a déjà rempli
diagonales donc numéroté
éléments, et
est l'élément numéro
(on vient de créer la bijection...)
I.1.4 Remarque
On doit pouvoir prouver que tout ensemble inclus dans un ensemble dénombrable est fini ou dénombrable. Ainsi
doit être dénombrable, mais ce n'est pas au programme.
I.1.5 Coin culture
n'est pas dénombrable,
non plus. Il semble alors évident que
ne sont pas dénombrables (pour le dernier, considérer le sous ensemble des fonctions constantes...).
I.1.6 Objectif
On souhaite étendre la notion de variable aléatoire à ces variables à valeurs dans un ensemble dénombrable (le cas fini est traité en 1ère année).
Un des buts est de pouvoir modéliser le genre de situation suivante :
On joue à pile ou face jusqu'à ce que la pièce tombe sur pile. Quel est le nombre moyen de coup ? Le problème pour l'instant est qu'on ne peut pas borner à priori le nombre de coups à jouer et donc la variable aléatoire dont la valeur est ce nombre de coup est a priori à valeurs dans
.
I.2 Espaces probabilisable
I.2.1 Notation
Si les
sont des ensembles pour
, on note
la réunion de ces ensembles et
leur intersection.
I.2.2 Définition
Soit
un ensemble que l'on appellera univers. Une
tribu
sur
est un sous ensemble
de
(les éléments de
sont des sous ensembles de
) qui vérifie les 3 conditions :
.
Si
alors
.
Les éléments de
(qui sont des ensembles, rappelons le) sont des
événements
. Le couple
est un
espace probabilisable
.
I.2.3 En pratique
représente l'ensemble des issues possibles d'une expérience aléatoire et un événement un ensemble de résultat possibles.
Pour reprendre notre jeu de pile ou face, on peut prendre
et un événement peut être ``le jeu s'arrête en un nombre pair de coup`` qui est l'ensemble
.
Bien souvent,
n'est pas précisé et sa connaissance n'est pas indispensable au bon déroulé de l'exercice. On supposera dans ce cas qu'une bonne tribu est choisie.
I.2.4 Proposition
Soit
un espace probabilisable.
.
Si
. De plus,
Preuve
Exo !
I.3 Espace probabilisé
I.3.1 Définition
Soit
un ensemble et
une tribu sur
.
Une
probabilité
sur
est une fonction
qui associe à chaque événement
une probabilité
avec les contraintes suivantes :
Si
est une suite d'événements incompatibles deux à deux (ie disjoints deux à deux), alors
ééé
En particulier, toute série de la forme précédente doit converger vers un nombre dans
.
Le triplet
est appelé un
espace probabilisé
. Dans la suite du cours, nous utiliserons ces notations.
I.3.2 Cas fini
Si on considère une suite
d'événements telle que
pour tout
, on retrouve la définition de 1ère année.
Avec un nombre fini de
non vide, la
-additivité est une propriété démontrée en 1ère année.
I.3.3 Mais pourquoi des tribus ?
Dans le cas où
est fini ou dénombrable, on pourra prendre
sans problème. Les choses se corsent singulièrement si on prend
non dénombrable.
Par exemple, on prouve (un ``on'' qui est bien en dehors du cadre de ce cours), qu'on ne peut pas poser
et la probabilité uniforme naturelle qui vérifie
.
I.3.4 Définition
Soit
un événement.
Si
et
on dit que
est
négligeable
.
Si
et
on dit que
est presque sûr.
I.4 Propriétés des probabilités
I.4.1 Proposition (Adaptation de la 1ère année)
Soit
un espace probabilisé. Soient
deux événements et
une suite d'événements.
.
Si
alors
.
et
.
pour tout
.
Preuve
Par récurrence, en partant du cas
prouvé par le point précédent.
I.4.2 Théorème
Soit
une suite d'événements.
Si
est croissante au sens de l'inclusion
(
) alors
Si
est décroissante au sens de l'inclusion
(
) alors
Le résultat important est l'existence de ces limites.
Preuve
Le complémentaire d'une réunion étant l'intersection des complémentaires, nous
prouvons seulement le premier point.
Supposons donc
croissante au sens de l'inclusion.
Alors la suite
est croissante et majorée par 1 donc converge.
Pour
, posons
et
.
Alors les
sont disjoints deux à deux (pour imager,
est ce qu'il
manquait à
pour devenir l'ensemble
qui est ``plus grand'').
De plus,
.
Ainsi
et donc
.
La série est télescopique et converge vers
, ce qui conclut la preuve.
I.4.3 Proposition (Sous-additivité)
Soit
telle que
converge. Alors
.
Preuve
Pour
, on pose
qui est une suite croissante d'événements. Alors
et d'après le théorème précédent,
.
Ainsi
possède une limite et on peut passer à la limite l'inégalité
I.4.1
de la proposition
I.4.1
(Rappel : l'hypothèse du passage à la limite des inégalité est seulement l'existence des limites).
I.4.4 Evénements négligeables
Si tous les
sont négligeables, alors leur réunion l'est aussi.
II Calcul de probabilités
II.1 Systèmes complets
II.1.1 Proposition (Définition d'une probabilité)
Si
est une suite d'événements incompatibles deux à deux, alors
et toute série de la forme précédente (série de probabilités d'événements deux à deux incompatibles) est une série à termes positifs convergente, de limite (somme de la série) dans
II.1.2 Définition
Notons, pour
,
un événement (donc
est un sous-ensemble de
).
On dit que
est un système complet d'événements ssi
(disjoints 2 à 2) et
.
II.1.3 Proposition
Si
est un système complet d'événements, alors
Preuve
C'est une conséquence immédiate de la définition.
II.1.4 Définition
Notons, pour
,
un événement (donc
est un sous-ensemble de
).
On dit que
est un système quasi-complet d'événements ssi
(les
sont disjoints 2 à 2) et
En d'autre termes, la probabilité qu'aucun des
ne soit réalisé est nulle,
et l'un exactement des
est réalisé presque sûrement (avec une probabilité 1,
un et un seul des
est réalisé).
II.1.5 Exemple
Reprenons l'exemple du jeu de pile ou face. On pose
l'événement : le jeu s'arrête au
ième lancé, ie on a obtenu n fois face avant d'obtenir pile.
On pose en plus
l'événement : le jeu ne s'arrête pas.
Alors
est un système complet d'événements. Essayons de construire un probabilité raisonnable.
On doit avoir
. Il semble raisonnable de poser
(quelle hypothèse faisons nous sur chaque lancé, sur la pièce ?)
Alors
est la seule possibilité (calculer la somme des probabilités imposées), ce qui semble raisonnable.
Les événements
forment un système quasi-complet d'événements et on peut exclure l'événement
de notre système.
II.1.6 Proposition (Système complet d'événements)
Si
est un système (quasi)-complet d'événements et
est un événement, alors
On retrouve le cours de première année en prenant un système complet fini (tous les
sont vides sauf les quelques premiers).
Preuve
est la réunion disjointe des
et éventuellement d'un ensemble de probabilité nulle.
II.2 Probabilités conditionnelles
II.2.1 Définition-proposition
Soit
un événement tel que
.
Pour un événement
, la probabilité de
sachant
est
L'application
est une probabilité. C'est la probabilité conditionnelle sachant
.
Preuve
On doit prouver que
est une probabilité sur l'espace probabilisable
.
car
.
Soit
une suite d'événements incompatibles 2 à 2.
Évaluons
.
On a déjà
De plus, les événements
sont 2 à 2 incompatibles et donc
où on a utilisé le fait que
est une probabilité et la liéarité de la
somme de série convergente.
II.2.2 Interprétation
Tout se passe comme si on prennait pour univers l'événement
.
Ou encore que l'on suppose que
est réalisé pour évaluer la probabilité
que d'autres événements se réalisent. Il ne faut pas confondre cette notion avec
l'intersection qui représente le fait que deux événements se réalisent en
même temps.
Pour illustrer ceci, voici un exemple. On considère
que l'on lance un dé équilibré à 6 faces.
La probabilité d'obtenir un nombre pair et un 6 est de
.
La probabilité d'obtenir un 6 sachant qu'on a obtenu un nombre pair est
II.2.3 Proposition (Formule des probabilités composées)
Pour
des événements, si
alors
. Rappelons en plus que
Si
sont des événements tels que
alors
II.2.4 Exemple
Un savant fou choisi dans la salle de classe des cobaye parmi les élèves. Aucune chance de s'en sortir.
Quelle est la probabilité pour qu'il choisisse successivement un garçon, une fille puis un garçon ?
On cherche
.
II.2.5 Proposition (Probabilité totales)
Il s'agit de traduire les propriétés des probabilités vis-à-vis de l'intersection en termes de probabilités conditionnelles.
Soit
un événement ni négligeable ni presque sûr (
). Alors
forment un système complet d'événements et
pour tout événement
,
Pour
un système complet d'événements (y compris fini) et
un événement
où l'on convient que
si
.
Preuve
Immédiat.
II.2.6 Exemple
Un site internet a une audience séparée en deux types : les respectueux qui représentent 90\% des inscrits et les trolls 10\%.
Les premiers ont un probabilité de 0.1 de participer à une discussion houleuse sur une journée, les second 0.7.
Un nouvel utilisateur s'inscrit. Avec quelle probabilité participe-t-il à une discussion houleuse dès le premier jour ? Dans les deux premiers jours ?
Notons
l'événement ``le nouvel arrivant est un troll'' et
l'événement ``il participe à une discussion houleuse''.
.
Ainsi
et la réponse à la deuxième question est
On fait ici l'hypothèse que les journées sont indépendantes. Pour calculer la probabilité d'une réunion (discussion houleuse le jour 1 OU le jour 2, on calcule plutôt la probabilité de l'événement contraire qui est une intersection.)
II.2.7 Proposition (Formule de Bayes)
Soient
deux événements non négligeables (
). Alors
En pratique, on calcule souvent le dénominateur par la formule des probabilités totales.
II.2.8 Exemple
Malfaçon ou triche organisée ? Toujours est-il que sur les 100 dés à 6 faces produits aujourd'hui 25 on une probabilité de 1/2 de tomber sur 6...
On choisi un de ces dés et on le lance. Il tombe sur 6. Avec quelle probabilité est-il pipé ?
Notons
l'événement ``le dé tombe sur 6'' et
l'événement ``le dé choisi est pipé''. On cherche
.
On connaît
,
. Il nous manque
Ainsi
.
II.2.9 Cas d'application
Généralement l'énoncé donne
et
. Il faut calculer
par la formule des probabilités totales.
II.3 Evénements indépendants
II.3.1 Définition
Soient
deux événements
On dit que
sont indépendants ssi
.
II.3.2 Lien avec les probabilités conditionnelles
Si on suppose
, la condition
sont indépendants devient
.
La réalisation de
ne dépend pas de celle (préalable) de
.
II.3.3 Définition
Soient
des événements. On dit qu'ils sont indépendants ssi
⟦⟧
II.3.4 Attention
Trois événements indépendants 2 à 2 ne sont pas forcément indépendants.
II.3.5 Proposition
Si
sont indépendants, il en est de même de
. On peut généraliser ce résultat à
événements indépendants (et mettre des complémentaires ou non où bon nous semble).
II.3.6 En pratique
L'énoncé supposera très souvent que certains événements sont indépendants. On pourra alors très facile calculer des probabilités d'intersection et de réunion (1 -
) en passant au complémentaire, grâce à la remarque précédente.
III Variables aléatoires
III.1 Lois
III.1.1 Définition
Une variable aléatoire
discrète
est une fonction
où
(l'ensemble des valeurs de
) est
dénombrable ou fini.
On impose en plus que l'ensemble
est un événement (un
élément de notre tribu) pour tout
.
Si
est un ensemble de valeurs de
(on a donc
),
on note
l'événement ``
prend l'une des valeurs dans
'',
c'est à dire l'ensemble
(image réciproque par la fonction
de
l'ensemble
).
Si
est l'une des valeurs que peut prendre
(ie.
), on note
l'événement
,
c'est à dire l'événement ``
prend la valeur
''
Le première chose à préciser sur une variable aléatoire
(en théorie comme en pratique) est l'ensemble de ses valeurs
III.1.2 Théorème
Soit
une variable aléatoire discrète sur
.
Notons
l'ensemble de ses valeurs.
Alors
est un système complet d'événements.
Preuve
Si
, et
signifie que
ce qui est absurde.
Si
, notons
. Alors
.
Ces deux points prouvent que les événements
sont deux à deux
incompatibles et que leur réunion est
.
III.1.3 Exemple
Revenons à notre pile ou face. Cette fois la pièce est truquée et tombe
sur pile avec un probabilité
. On note
le numéro du lancé
ou le jeu se fini. Calculer pour
,
ainsi que
leur somme.
III.1.4 Définition
Soit
une variable aléatoire discrète.
La loi de
est l'application
Avec les notations du théorème précédent, il s'agit de donner,
, pour tout
.
III.1.5 Somme
D'après le théorème précédent, la loi de
vérifie
.
Réciproquement, on admet que si
est une suite de réels
positifs telle que
, alors on peut trouver
une probabilité
sur
et une variable aléatoire
telles
que
.
III.2 Loi usuelles
III.2.1 Répétitions
Considérons une répétition illimité de la même expérience aléatoire
(par exemple on lance deux dés), et on s'intéresse à un résultat précis
que l'on nomme succès (on considère donc une répétition d'expérience ''de Bernoulli'')
qui apparaît avec une probabilité
.
On suppose les expériences mutuellement indépendantes.
On note
le rang du premier succès. Donner la loi de
.
III.2.2 Définition
On dit qu'une variable aléatoire
suit la loi géométrique de paramètre
(on note
) ssi
L'ensemble des valeurs de
est
.
On peut interpréter
comme donnant le rang d'apparition du premier succès lors de
répétitions INDÉPENDANTES d'une expérience de probabilité de succès
.
III.2.3 Proposition
Soit
une variable aléatoire,
pour un
.
Soient
.
.
On dit que la loi géométrique est sans mémoire.
Preuve
On a au niveau des événements,
. Ainsi
.
Or
.
De même
. Ce qui conclut.
Explication
Le fait de savoir que les
premières expériences ont échoués ne présage en
rien du nombre d'échec ou de succès à venir.
III.2.4 Exemple
Soit
Trouver
tel que la série
converge et que sa somme soit 1.
C'est un simple calcul de somme d'une série exponentielle, on trouve
.
III.2.5 Définition
Soit
.
On dit qu'une variable aléatoire
à valeurs dans
suit la loi de Poisson de paramètre
(noté
) ssi
III.2.6 Cas d'utilisation
On peut utiliser cette loi pour approximer une loi binomiale de paramètre faible
(on le verra plus loin), ou pour modéliser une expérience ou les valeurs de
ont
de fortes chances d'être faible.
Nous verrons l'interprétation de
plus loin dans le chapitre.
III.3 Loi conjointe, indépendance
III.3.1 Définition
Soient
deux variables aléatoires discrètes sur
.
On note
les valeurs possibles de
respectivement.
est une variable aléatoire
.
La
loi conjointe
du couple
est la loi décrite par la donnée de
pour toutes les valeurs de
.
Il s'agit de la loi de la variable discrète
.
Les lois marginales de la loi conjointe de
sont les lois de
.
Pour
fixé tel que
,
la loi conditionnelle de
sachant
est la loi donnée par
Preuve
Il faut a priori justifier que
est une variable aléatoire.
Soit
,
où
.
Nous devons montrer que
est un événement.
Or
.
Ainsi
est une intersection d'événements donc est
un événements (car
sont supposés être des variables aléatoires).
III.3.2 Calcul de lois
Notons pour
,
.
On suppose donc la loi conjointe connue.
Pour un
fixé,
car
forment un système complet d'événements. (On retrouve la première loi marginale par somme).
De même, pour un
fixé,
.
Alors
.
Pour
fixés,
.
III.3.3 Exemple
On lance une pièce qui tombe sur pile avec une probabilité
(et donc face avec une probabilité
).
On note
le rang d'apparition du premier pile et
le rang du second.
Donner la loi conjointe.
Soient
.
Si
alors
.
Si
,
.
Vérifions que la somme vaut 1.
On re connaît la dérivée de
évalué en
.
Ainsi
et tout est bien qui fini bien.
III.3.4 Retrouver une loi marginale
Ceci se fait toujours par calcul de somme. Reprenons l'exemple précédent. on connaît la loi de
qui est géométrique de paramètre p. Donnons la loi de
.
est à valeurs dans
.
Soit
,
. On sait que
est un système complet d'événements (
on a considéré toutes les valeurs envisageables pour
). Ainsi
Or, pour les
tels que
,
et donc
Autre méthode :
on peut arriver à ce résultat par dénombrement.
En effet pour que le 2ème succès arrive au rang
, il faut que la succession des
premières expériences soit de la forme
où S représente un succès et que parmi les
premières expériences, il y ait exactement un succès.
Il y a exactement
possibilité pour écrire les premières expériences sous cette forme : le 1er succès est au rang 1, ou (exclusif) le premier succès est au rang 2 ou ...
Par indépendance des expériences élémentaires, chaque manière d'écrire les
expérience se produit avec une probabilité
(
2 succès et
échecs
). De plus, on a souligné le fait que la réunion est disjointe (les cas sont disjoints) et on obtient donc la probabilité totale par somme.
III.3.5 Définition
Soient
deux variables aléatoires discrètes sur
.
on dit qu'elles sont indépendantes ssi
ie ssi les événements
sont deux à deux indépendants pour toutes
les valeurs possibles de
.
Lorsque
sont indépendantes, on note
III.3.6 Exemple
Les variables aléatoires de l'exemple
III.3.3
ne sont pas indépendantes.
On a par exemple
III.3.7 Somme de deux lois de Poisson
A savoir refaire Soient
deux variables
,
indépendantes.
On note
. Calculer la loi de
.
Premièrement,
est à valeurs dans
, comme
.
Pour
,
Ainsi
.
III.3.8 Proposition
Soient
deux variables indépendantes et
.
Alors
Extension des notions de premières années
On admet que les résultats suivants sont encore vrais pour des variables aléatoires discrètes.
III.3.9 Proposition
Si
sont des variables aléatoires discrètes indépendantes et si on peut calculer
pour des fonctions
alors
sont des variables
aléatoires et sont indépendantes.
On peut résumer par :
.
Preuve
Montrons d'abord que
est une variable aléatoire.
Soit
. Montrons que
est un événement.
Posons
(car la composition est licite).
Alors
qui est bien un événement (par réunion).
III.3.10 Définition
Soit
des variables aléatoires discrètes sur
.
On dit qu'elles sont indépendantes ssi pour
et
,
Autrement dit, on peut calculer toute probabilité d'intersection finie par produit.
III.3.11 Avec des événements
La proposition
III.3.8
s'étend au cas de
variables indépendantes.
III.3.12 A retenir
Comme pour les événements, on supposera souvent dans l'énoncé que des variables aléatoires sont indépendantes. On pourra alors calculer des probabilités d'intersection (et) par produit.
IV Moments d'une variable aléatoire
Dans cette partie, toutes les variables aléatoires sont supposées à valeurs réelles.
IV.1 Espérance, variance
Explication
La notion d'espérance s'étend de manière naturelle aux variables aléatoires discrète. Par contre l'existence de l'espérance n'est pas garantie a priori, vu qu'il s'agit de la convergence d'une série numérique.
IV.1.1 Définition
Soit
une variable aléatoire discrète à valeurs dans
.
On dit que
est d'espérance finie ssi
converge
absolument
.
Dans ce cas, on appelle
espérance de
et on note
le réel
.
Explication
Comme pour le théorème sur le produit de Cauchy il nous faut ici supposer la convergence absolue.
La raison est hors de notre programme : la valeur de la somme ne dépend pas de l'ordre dans lequel on calcule celle-ci. En particulier ici, on peut numéroter les éléments de
comme bon nous semble sans changer l'espérance (encore heureux !).
En pratique, nos variables aléatoires sont très souvent à valeurs dans
et l'ordre de sommation est naturel (mais pas imposé).
IV.1.2 Exemple
On peut définir une loi à valeurs dans
par
car la série converge et est de limite 1.
Dans ce cas
n'est pas d'espérance finie.
IV.1.3 Proposition
Si
pour
alors
est d'espérance finie et
.
Si
pour
alors
est d'espérance finie et
.
Preuve
Il s'agit ici d'exemples de calculs d'espérance.
La série numérique
converge par comparaison de séries à termes positifs (car
) donc converge absolument.
De plus,
en dérivant terme à terme la série géométrique et en évaluant en
.
Interprétation : Si la probabilité de succès élémentaire est
, on s'attend à faire en moyenne
essais avant d'obtenir un succès.
La série
converge absolument par produit par une constante d'une série exponentielle et
.
Ainsi le paramètre
d'une loi de Poisson s'interprète comme son espérance (ou intuitivement, valeur moyenne).
IV.1.4 Proposition (Propriétés de l'espérance)
Soient
deux variables aléatoires discrètes réelles sur
,
d'espérances finies
.
Linéarité :
soient
.
est d'espérance finie et
.
Positivité : si
alors
.
Croissance :
si
(que l'on note
) alors
.
Si
sont
indépendantes
alors
est d'espérance finie et
.
Preuve
Admis. on peut appliquer le théorème de transfert à la VA
et la fonction
et utiliser le cours sur les séries absolument convergentes.
Evident : une série à termes positifs convergente a une somme positive.
Conséquence directe (et classique !) des deux propriétés précédentes.
Admis.
IV.1.5 Exemple
Ceci est tout à fait en accord avec notre calcul de la loi d'une somme de deux lois de Poisson indépendantes.
Si
est d'espérance finie, alors
est une variable
centrée
ie d'espérance nulle.
IV.1.6 Théorème (Théorème de transfert)
Soit
une variable aléatoire discrète et
une fonction définie sur
à valeurs réelles.
est d'espérance finie ssi
est absolument convergente.
Alors
.
Ainsi l'espérance de
est déterminée par la loi de
.
Preuve
Admis.
IV.2 Variance
IV.2.1 Définition-proposition
Soit
une variable aléatoire discrète. Si
est d'espérance finie alors
aussi. Dans ce cas :
on appelle
variance
de
le nombre réel positif
.
on appelle
écart-type
de
le nombre réel positif
.
Si
, on dit que
est réduite.
Preuve
On suppose
d'espérance finie ie
converge absolument. Montrons que
converge.
Remarquons que pour
,
.
Dans tous les cas
qui est la somme de deux TG de séries convergentes et positives. Par comparaison de séries à termes positifs,
est d'espérance finie.
IV.2.2 Proposition
Si
pour
alors
est de variance finie et
.
Si
pour
alors
est de variance finie et
.
Preuve
Il s'agit ici d'exemples de calculs de variance.
Soit
pour un
.
La série
converge par comparaison de séries à termes positifs car
. Donc
possède une variance
Posons
(sur
) et
.
Alors
et
.
Ainsi
(le premier terme est nul) et
.
On a donc
.
Finalement
Soit
pour un
.
La série
converge (d'Alembert, ou produit par une puissance dans une série entière, ce qui ne modifie pas le rayon de convergence).
De plus,
.
Ainsi
.
IV.2.3 Proposition
Soit
une variable aléatoire réelle de variance finie et
.
Alors
est de variance finie et
.
Preuve
Montrons que
est de variance finie c'est à dire que
est d'espérance finie.
Or
est bien d'espérance finie par combinaison linéaire.
On utilise
.
IV.3 Covariance
IV.3.1 Définition-proposition
Soient
deux variables aléatoires discrètes.
Si
admettent un moment d'ordre 2 (ie. admettent une variance finie) alors la variable
aléatoire
est d'espérance finie.
Dans ce cas on appelle covariance de
le réel
.
Preuve
Il s'agit de montrer que
est d'espérance finie (les autres VA le sont facilement quand
on développe).
Or
. Notons
,
et
.
On sait que
est d'espérance finie d'après le théorème de transfert.
En notant
, la série
converge et donc,
par comparaison de série à termes positifs,
converge absolument car
.
IV.3.2 Remarque
On a
.
IV.3.3 Proposition
Dans les conditions de la définition précédente:
.
Si
sont indépendantes
alors
.
la covariance est bilinéaire et symétrique.
Preuve
Simple utilisation de la linéarité de l'espérance, en plus de la propriété
quand
est une constante.
Le deuxième point est une conséquence directe d'un théorème du chapitre sur les probabilités.
La symétrie est évidente, la bilinéarité conséquence simple de la linéarité de l'espérance.
Notons qu'une combinaison linéaire de VA de variances finies est encore de variance finie
(c'est une conséquence de la partie proposition de la définition de la covariance).
IV.3.4 Proposition
Soit
deux variables aléatoires admettant une variance finie. Alors
est de variance finie et
Preuve
En effet,
.
IV.3.5 Exemple
Ainsi pour des variables indépendantes,
et plus généralement la variance d'une somme de variables mutuellement indépendantes est la somme des variances.
Rappelons une application importante, posons
⟦⟧
des variables aléatoires mutuellement indépendante de même loi de Bernoulli de paramètre
.
Alors
suit une loi binomiale de paramètres
et
.
Or
et donc
.
Finissons le rappel par
par linéarité de l'espérance.
IV.3.6 Théorème (Cauchy-Schwartz)
On a
Preuve
Soit
. Alors
qui est de degré 2 (si
) et positif. Le discriminant est donc négatif.
IV.3.7 Définition
Soient
deux variables aléatoires de variance finie et non nulle. Le coefficient de corrélation de
est
IV.3.8 Interprétation
L'étude du cas d'égalité dans l'inégalité de Cauchy-Schwartz précédente, permet de montrer que
ssi
pour
des réels.
De plus, si
sont indépendantes,
.
On peut ``donc'' interpréter ce coefficient comme une mesure du lien (autrement appelé corrélation) qui existe entre
.
V Fonctions et probabilités
V.1 Fonction de répartition
V.1.1 Définition
Soit
une variable aléatoire discrète. On appelle fonction de répartition de
et on note
la fonction
V.1.2 Exemple
Tracer un partie de la courbe représentative de
où
suit une loi géométrique de paramètre
.
V.1.3 Remarque
Imaginons que l'on connaisse la fonction de répartition
d'une VA
mais pas sa loi.
Notons
l'ensemble des valeurs de
où on a ordonnée les
, ie la suite
est croissante.
Alors
et pour tout
,
V.1.4 Proposition
Avec les notations de la définition, on a :
est croissante sur
.
.
.
Preuve
Il s'agit d'utiliser les propriétés de
suivantes : croissance, limite de la probabilité d'une suite décroissante d'événements et limite de la probabilité d'une suite croissante d'événements.
V.1.5 Exemple
En pratique, il est parfois plus pratique de calculer des probabilités de la forme
, ce qui revient à calculer la fonction de répartition sans le dire.
Soient par exemple
deux VA indépendantes de loi géométrique de paramètre
et
. Calculer
Pour
,
.
On en déduit facilement que
.
V.1.6 Proposition
Soit
une variable aléatoire à valeurs dans
.
est d'espérance finie ssi
converge et dans ce cas
Preuve
Remarquons d'abord que pour
on a
.
Soit maintenant
. On a
De plus,
.
Ainsi
Supposons que
est d'espérance finie.
On a alors
et le majorant trouvé est un reste de série convergente donc tend vers 0 lorsque
. Par encadrement puis par somme
converge et
Réciproquement, supposons que
converge.
Alors, par majoration de série à termes positifs,
est d'espérance finie et le calcul précédent conclut.
V.2 Fonction génératrice
V.2.1 Une série entière
Soit
une VA à valeurs dans
(son ensemble de valeurs est un sous-ensemble de
).
Considérons la série entière
. Comme cette sérieconverge absolument pour
, son rayon de convergence vaut au moins
.
V.2.2 Définition
Soit
une variable aléatoire à valeurs dans
. La fonction génératrice (ou série génératrice) de
est la fonction
est définie au moins sur le segment
,
sur
et
.
V.2.3 Remarque
Par unicité des coefficients d'une série entière de rayon de convergence non nul, la loi de
est entièrement déterminée par la fonction
.
V.2.4 Valeurs manquantes
On convient de poser
pour tous les
qui ne sont pas des valeurs de
. En particulier, pour une variable aléatoire sur un univers fini
est polynomiale !
V.2.5 Exemple
Calculons les fonctions génératrices pour les lois usuelles.
Soit
(Bernoulli,
).
Alors
.
Soit
(binomiale,
,
).
Alors
.
Soit
(où
).
La série considérée est
.
Cette série géométrique converge ssi
et donc
Remarquons que le rayon de convergence de la série est
.
Soit
(
).
Pour
,
.
V.2.6 Exercice
Déterminer la fonction génératrice d'une loi uniforme sur
⟦⟧
.
V.2.7 Interprétation en tant qu'espérance
Pour une variable aléatoire
à valeurs dans
(
on a
quitte à considérer trop de valeurs pour
qui donneront des probabilités nulles
) et
on a
V.2.8 Théorème
Si
sont deux variables aléatoires à valeurs dans
et
indépendantes
, notons
les rayons de convergence de
respectivement. Posons également
Alors
est de rayon
et
Preuve
La série produit (de Cauchy)
est de rayon
et pour
où
.
Deuxième méthode, qui s'applique si on connaît les propriétés de l'espérance.
Pour
, on pose
. Alors
sont indépendantes et donc
. Ainsi
et on a bien
.
V.2.9 Exemple
On peut utiliser ce théorème pour calculer la loi d'une somme de variables indépendantes.
Soient
et
.
Alors, pour tout
,
.
Ainsi
(car la fonction génératrice détermine la loi).
Lançons deux dés équilibrés à 6 faces et notons
les résultats obtenus pour le premier et le second dé respectivement.
Donner la loi de
(la somme des deux dés).
Ici les lois prennent un nombre fini de valeurs et donc les fonctions génératrices sont polynomiales.
Pour
,
. De plus
sont indépendantes.
Ainsi
.
On obtient
k
2
3
4
5
6
7
8
9
10
11
12
V.2.10 Théorème
Soit
une variable aléatoire à valeurs dans
et
sa fonction génératrice.
est d'espérance finie ssi
est dérivable en
et alors
.
est de variance finie ssi
est deux fois dérivable en
et alors
V.2.11 Retrouver les formules
Tout d'abord, on a
et
(théorème de transfert).
De plus, on supposant la dérivabilité terme à terme,
donc on a bien
.
De plus,
donc
.
V.2.12 Exemple
Retrouvons l'espérance et la variance des lois géométriques et de Poisson.
Soit
(où
).
des DSE sur
donc est deux fois dérivable en
.
De plus,
donc
donc
.
De même
donc
.
Ainsi
.
Soit
(
).
Cette fois
est DSE sur
donc dérivable deux fois en 1.
De plus
et
.
Ainsi
et
.
VI Etude asymptotique
VI.1 Interprétation de la loi de Poisson
VI.1.1 Proposition
Soit
.
On considère une suite
de variables aléatoires telles que
où
.
Pour
fixé, on a
.
Preuve
On cherche à estimer la limite de
.
Or
. (par produit d'un nombre fixé d'équivalents)
De plus,
(encore une fois,
est fixé).
De plus,
car
.
Comme
(avec 2
obtenus en remplaçant
par son équivalent dans le
). Ainsi
(et donc on peut transformer cette limite en équivalent).
Il n'y a plus qu'à effectuer le produit de nos équivalents..
VI.1.2 En pratique
On peut utiliser une loi de Poisson pour approximer une loi binomiale de paramètre
dans le cas où
n'est ``pas trop grand''.
VI.2 Loi des grands nombres
VI.2.1 Théorème (Inégalité de Markov)
Soit
une variable aléatoire réelle à valeurs positives, d'espérance finie.
Preuve
Notons
On a
. Comme de plus les valeurs de
sont positives
et il suffit de diviser par
.
Explication
L'idée ``grossière'' derrière ce théorème est que si l'espérance (la valeur moyenne) de
vaut
,
alors
ne prend pas des valeurs trop grande par rapport à
, ou alors avec une probabilité
très faible.
VI.2.2 Théorème (Inégalité de Bienaymé-Tchebychev)
Soit
une variable aléatoire de variance finie.
Preuve
. Il ne reste plus qu'à appliquer l'inégalité de Markov à
qui est d'espérance finie et positive.
Explication
On quantifie cette fois l'écart entre
et sa "moyenne". La variance apparaît naturellement.
VI.2.3 Exemple
On pose
la moyenne arithmétique de n variables de loi de Bernoulli indépendantes de paramètre p.
.
Exemple pratique : on dépouille une urne contenant
bulletins dans une élection à deux candidats.
est l'événement : le
-ème bulletin est pour le candidat
. Ici l'indépendance des variables n'est sûrement pas respecté dans la pratique. Tant pis, poursuivons.
Le but est d'estimer
, la proportion de votant ayant choisi le candidat
. Cette probabilité (théorique) est inconnue au moment de l'expérience.
Alors
et
.
représente la proportion votes après n dépouillements indépendants. Alors
.
On veut
. Comment choisir
?
Il faut
soit encore
.
Or
(étape obligatoire, on ne connaît pas encore
). On a donc
.
Ainsi, si on veut une approximation de
à 1\% près, on prend
soit encore
.
Attention, on à juste le résultat : la probabilité pour que la fréquence théorique s'écarte de plus de 1\% de la fréquence observée est
VI.2.4 Théorème (Loi faible des grands nombres)
Soit
une suite de variables aléatoires deux à deux indépendantes et de même loi,
admettant un moment d'ordre 2.
On pose, pour
,
et on note
l'espérance commune aux
.
Pour un
fixé, la limite est nulle.
Explication
Ce théorème est la formalisation mathématique d'une idée naturelle.
Je répète
fois la même expérience aléatoire de Bernoulli (paramètre
) sans connaître a priori le paramètre
(on cherche à estimer une fréquence de manière empirique, par exemple pour réaliser un sondage...)
Alors la fréquence moyenne de succès converge vers le paramètre théorique
.