Espérance conditionnelle et application en modélisation
agrégation : leçon 403 en option probabilité
0.Introduction
1) Filtrage de Kalman-Bucy
On dispose d'un mobile dont la trajectoire est régie par l'équation différentielle:
Cependant le mobile est soumis à desperturbations
, et l'on ne dispose que de mesures discrètes portant sur la position du mobile:
où
correpond au bruit perturbant l'appareil de mesure.
Finalement en discrétisant on obtient:
Le but va être de trouver deux estimateurs, l'un permettant de prédire
à partir des
premières
observations, et l'autre d'estimer
à l'aide des
premières observations.
2) Standard téléphonique
On suppose que le temps d'attente à un standard téléphonique
suit une loi
,
inconnue
On veut estimer
à partir de la connaissance du temps d'attente de
personnes.
On connait l'estimateur empirique
, cependant on va chercher un estimateur qui soit optimal en ce sens qu'il sera de variance inférieure.
3) Sondage stratifié
On réalise un sondage, sur un échantillon représentatif de la population, à propos d'un referendum, et l'on classe les personnes interrogées selon
classes distinctes.
Soit
et
la classe de la personne.
On peut observer que si l'on se restreint a l'une des 3 classes l'espérance de
n'est plus la même.
On peut noter
.
Et plus généralement si
et
sont deux variables aléatoires discrètes à valeurs respectives dans
et
.
Soit
un espace de probabilité.
une sous tribu.
I.Espérance conditionnelle
Définition: Soit
, on appelle espérance conditionnelle de
sachant
, la projection de
sur
et on la note
Remarque:
- L'espérance conditionnelle minimise parmi les fonctions -mesurable.
- L'espérance conditionnelle même si elle est considérée comme une variable aléatoire n'est en fait définie que presque surement.
Théorème: Soit
, alors il existe
une variable aléatoire
-mesurable vérifiant:
et
.
On note
Remarque: En particulier si
est un représentant de l'espérance conditionnelle de
sachant
,
vérifie,
Propriété: Si
est une partition de
, avec
et
.Soit
alors
.
De plus
si
et peut être choisi arbitrairement dans le cas contraire.
II.Propriétés
Premiers résultats:
- L'espérance conditionnelle possède les mêmes propriétes que l'espérance classique (linéarité, croissance monotone, lemme de Fatou, Cv dominé...)
- Si indépendante de alors
- Si est -mesurable et en particulier .
Exemple: Si
sont des va iid et
, on peut montrer que
et
.
Proposition Si
, alors
p.s.
Proposition: martingale associée à
une filtration, alors à
fixé,
.
De plus
est constant.
Exemple: Urne de Polya, si
correspond a la proportion de boule blanche à la k-ème étape.
Sachant que
, on a
qui est une martingale et
III.Filtre de Kalman-Bucy.
1) Vecteurs gaussiens
Définition: Si
et
sont deux vecteurs aléatoires on définit
.
Proposition: Si
et
sont deux vecteurs gaussiens dans leur ensemble, de moyenne
et
et de matrices de covariances
et
.
Notons
, et suppososns
positive.
Alors
.
Et la covariance de
est
.
Corollaire: Si
sont trois vecteurs gaussiens dans leur ensemble et si
et
sont non corrélés, et
ainsi que
sont positives alors:
.
2)Application au filtre de Kalman-Bucy:
Pour cela on va supposer que tous nos vecteurs aléatoires sont des vecteurs gaussiens, que
et
sont indépendants de matrices de covariances
et
connues, et que
est centré.
On pose
.
Pour prédire
à l'aide des
premières observations on va poser
et pour estimer
par les
premières observations on va poser
.
On obtient par le théorème précédent une formule assez compliqué car il faut inverser une matrice de taile de plus en plus grande ce qui peut donc devenir très fastidieux.
Il est donc très utile de donner des formules de récurrence qui permette d'alléger les calculs des prédictions et des matrices d'erreurs.
On va noter par la suite
et
On a
où
et avec les conditions initiales
Et de la même manière on peut montrer que :
où
Preuve: Posons
, par indépendance de
on obtient
(par indépendance de
)
On a
cela est évident par le fait que
est indépendant de
Ainsi par le corollaire, on obtient que
Or
Ainsi
Ainsi montrer la première partie de la récurrence revient à montrer que
Or
étant indépendant de
, on a
.
et le résultat final en découle par indépendance des 3 termes.
Ce qui permet de simplifier les calculs car les matrices à inverser sont de tailles constantes et qu'il suffit de connaitres les résultats à une étape précédente pour pouvoir calculer la suivante.
IV.Exhaustivité
Loi conditionnelle: Soit
et
deux variables aléatoires telles que
admette une densité de probabilité
.
On peut considérer la fonction
Où
Ceci nous permet de calculer des espérances conditionneles, ainsi
Application à la file d'attente: Soit
où
Alors on a
Et
Ainsi
Définition: Une sous-tribu
est dites exhaustive pour le modèle statistique
si pour toute variable aléatoire réelle positive
sur
, il existe une version de l'espérance conditionnlle
qui ne dépendent pas de
.
Une statistique
est dite exhaustive si
l'est.
Proposition: Si
est un estimateur sans biais de
de carré intégrable et si
est une statistique exhaustive alors l'estimateur
est un estimateur sans biais de
de risque quadratique plus faible que celui de de
.
Définition: est une statistique complète si pour tout
fonction telle que
Propriétés: Si
est un estimateur sans biais de
, de carré in tégrable et
une statistique exhaustive et complète, l'estimateur
est alors l'unique estimateur sans biais fonction de
et sa variance est
inférieur ou égal à la variance de
et est même plus faible que celle de tout estimater sans biais.
Il est uniformément de variance minimum parmi les estimateurs sans biais.
Application Dans le cas de la file d'attente,
est une statistique exhaustive et complète.
Donc
est un estimateur UVMB indépendant de
Bibliographie
[R]: D.Revuz "Probabilités"
[BMP]: Baldi-Mazliak-Priouret "Martingales et chaînes de Markov"
[DCD]: Dacunha Castelle Duflo "Probabilités et statistiques 1"
[W]: Williams "Probability with Martingales"
[B]: Brémaud "Introducton aux probabilités"
[S]: Saporta "Probabilité-Analyse des données et statistiques"
[Sh]: Sheldon Ross