Convergence en loi — Wikipédia

En théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. Certaines de ces notions ne sont pas spécifiques des probabilités, mais de l'analyse en général, comme la convergence presque sûre de variables aléatoires, ou encore la convergence Lp. La convergence en loi de suites de variables aléatoires est un concept appartenant plus spécifiquement à la théorie des probabilités, utilisé notamment en statistique et dans l'étude des processus stochastiques. La convergence en loi est souvent notée en ajoutant la lettre (ou pour distribution) au-dessus de la flèche de convergence :

La convergence en loi est la forme la plus faible de convergence de variables aléatoires au sens où, en général, elle n'implique pas les autres formes de convergence de variables aléatoires, alors que ces autres formes de convergence impliquent la convergence en loi. Le théorème central limite, un des résultats les plus importants de la théorie des probabilités, concerne la convergence en loi d'une suite de variables aléatoires.

Définition[modifier | modifier le code]

Soit X une variable aléatoire et soit une suite de variables aléatoires, toutes à valeurs dans le même espace métrique (E, d).

Définition — On dit que la suite converge en loi vers X si, pour toute fonction continue bornée sur E, à valeurs dans

Notons, et cela distingue la convergence en loi des autres types de convergence de variables aléatoires, que les variables aléatoires et ne sont pas nécessairement définies sur les mêmes espaces probabilisés mais peuvent être définies sur des espaces probabilisés tous différents, disons et . En effet la convergence en loi est en réalité la convergence d'une suite de mesures de probabilités, les lois de probabilités des variables aléatoires, , vers la loi de X, . En effet, en vertu du théorème de transfert, la définition peut se réécrire : pour toute fonction continue bornée sur E,

ce qui impose uniquement que l'espace d'arrivée des variables aléatoires, E, soit le même. Cette reformulation fait aussi apparaître que chaque variable aléatoire peut être remplacée par une autre sans que la convergence en loi soit affectée, pourvu que les deux variables aléatoires intervenant dans l'échange aient même loi. Cette notion de convergence est équivalente à la convergence dans la topologie faible-*.

La convergence en loi est souvent notée en ajoutant la lettre (ou pour distribution) au-dessus de la flèche de convergence :

Le théorème porte-manteau[modifier | modifier le code]

Théorème porte-manteau[1] — Les cinq assertions suivantes sont équivalentes :

1. (Xn ) converge en loi vers X ; 2. pour toute fonction bornée et uniformément continue sur E,

 ;

3. pour tout fermé F de E,

 ;

4. pour tout ouvert O de E,

 ;

5. pour tout borélien A de E dont la frontière vérifie ,

.

La propriété 5 préfigure le théorème de l'application continue (en). Par ailleurs la propriété 5 possède un cas particulier d'usage fréquent, dans le cas où E est la droite réelle (voir la prochaine section).

Cas des variables aléatoires réelles[modifier | modifier le code]

Convergence en loi et fonction de répartition[modifier | modifier le code]

Considérons une suite X1 , X2 , ... , Xn , de variables aléatoires réelles, et une autre variable aléatoire réelle X. Soient F1, F2, ..., Fn la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, ..., Xn et soit F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xnx), et F par F(x)=P(Xx). On a le théorème suivant :

Théorème —  Il y a équivalence entre les trois propositions ci-dessous :

  1. converge en loi vers  ;
  2. , dès que la fonction de répartition F de X est continue en x, ou bien, de manière équivalente, dès que  ;
  3. il existe un espace probabilisé , et, définies sur cet espace, des variables aléatoires réelles et telles que, simultanément :
    1. a même loi que ,
    2. pour chaque , a même loi que ,
    3. converge presque sûrement vers .

Une structure possible pour la démonstration est 3.⇒1.⇒2.⇒3.

Le point 2 sert souvent, dans le cas des variables aléatoires réelles, de définition de la convergence en loi. L'implication 1.⇒3. reste vraie lorsque les variables aléatoires réelles sont remplacées par des variables aléatoires à valeurs dans un espace de Lusin , i.e. un espace métrisable assez général ( et en sont des exemples). L'implication 1.⇒3. porte alors le nom de théorème de représentation de Skorokhod.

Puisque F(a) = P(Xa), le point 2 signifie que, pour n suffisamment grand, la probabilité que X appartienne à un certain intervalle est très proche de la probabilité que Xn soit dans cet intervalle.

Proposition — Si converge en loi vers , et si, pour tout x réel, alors la suite Fn converge vers F uniformément sur R.

Cette conséquence du théorème de Dini est très utile, par exemple pour démontrer le théorème central limite pour les quantiles, ou pour démontrer le théorème central limite pour les processus de renouvellement.

Convergence en loi et fonctions caractéristiques[modifier | modifier le code]

Théorème de continuité de Paul Lévy — Soit la fonction caractéristique de et celle de . Alors

Autrement dit, (Xn) converge en loi vers X si et seulement si la fonction caractéristique de la variable aléatoire réelle Xn converge simplement vers la fonction caractéristique de la variable aléatoire réelle X.

Convergence en loi et moments[modifier | modifier le code]

Les moments (quand ils existent) peuvent s'obtenir à partir des dérivées en 0 de la fonction caractéristique. Mais comme la convergence simple des fonctions caractéristiques n'implique pas la convergence des dérivées en 0, en règle générale la convergence en loi n'implique pas la convergence des moments.

Par exemple soit la suite des variables aléatoires tels que et . Alors ont pour espérance et pour variances . La suite converge en loi vers la constante , la suite des espérances converge vers , qui n'est pas l'espérance de la limite , et la suite des variances ne converge même pas, alors que la variance de la limite est .

En revanche, si les variables sont uniformément bornées () et convergent en loi vers , alors est bornée () et tous les moments convergent vers .

Exemples[modifier | modifier le code]

Théorème central limite :

La moyenne d'une suite de variables aléatoires centrées, indépendantes et de même loi, une fois renormalisée par n converge en loi vers la loi normale

Convergence de la loi de Student :

La loi de Student de paramètre converge, lorsque tend vers +∞, vers la loi de Gauss :

Dans ce cas, on peut aussi utiliser le lemme de Scheffé, qui est un critère de convergence d'une suite de variables aléatoires à densité vers une variable aléatoire à densité.

Loi dégénérée :

La suite[2] converge en loi vers une variable aléatoire X0 dite dégénérée, qui prend une seule valeur (0) avec probabilité 1 (on parle parfois de masse de Dirac en 0, notée ) :

Exemples importants[modifier | modifier le code]

Les exemples de convergence en loi sont foison, le plus célèbre étant le Théorème central limite, cité plus haut, dû à Pierre-Simon de Laplace, pour lequel l'espace métrique (E, d) considéré est tout simplement la droite réelle munie de sa distance usuelle. Donnons deux exemples importants où l'espace métrique considéré, l'espace de Banach est moins élémentaire.

Théorème de Donsker pour les marches aléatoires[modifier | modifier le code]

Soient une suite iid de variables aléatoires centrées, de carré intégrable et de variance . On interpole la marche aléatoire de manière affine par morceaux en considérant le processus défini, pour t ∈ [0,1], par

désigne la partie entière de . Considérons l'espace des fonctions à valeurs réelles et continues sur [0,1]. On munit de la tribu borélienne et de la norme infinie . Ainsi, est une variable aléatoire à valeurs dans .

Théorème (Donsker, 1951) —  La suite converge en loi vers un mouvement brownien standard quand n tend vers l'infini.

Ici B est vu comme un élément aléatoire de . Les diverses normalisations, indice comme indice terminal de la sommation, et facteur devant la somme, correspondent à un « zoom arrière » par rapport à la trajectoire de la marche aléatoire : on « s'éloigne » de la représentation graphique de la marche aléatoire, en rétrécissant sa représentation graphique par un facteur le long de l'axe horizontal et par un facteur le long de l'axe vertical, coefficients de réduction assurant, d'après le théorème central-limite, que le résultat de la réduction sera un graphe non-trivial : un coefficient de réduction vertical plus fort donnerait une trajectoire écrasée sur l'axe des abscisses, et un coefficient plus faible ferait apparaitre de fréquentes oscillations « d'amplitude infinie ». Le théorème de Donsker peut être vu comme une justification théorique de l'utilisation du mouvement brownien pour décrire la trajectoire de certaines particules, avec ses applications à l'étude du comportement thermodynamique des gaz (théorie cinétique des gaz), et du phénomène de diffusion, ou encore comme une justification théorique de l'utilisation du mouvement brownien en mathématiques financières : le mouvement brownien se comporte comme une marche aléatoire à sauts très fréquents, ces sauts étant de petite amplitude.

Théorème de Donsker pour les processus empiriques[modifier | modifier le code]

Soit une suite iid de variables aléatoires de loi uniforme sur [0,1]. On note F la fonction de répartition commune des variables . ( ) On définit la fonction de répartition empirique Fn de l'échantillon X1,X2,..., Xn par

ainsi que le processus empirique associé Wn par

Considérons l'espace des fonctions càdlàg (continues à droite et avec limites à gauche) sur [0,1] muni de la topologie de Skorokhod.

Théorème (Donsker, 1952)(conjecture de Doob, 1949) —  La suite de processus converge en loi dans l'espace vers un pont brownien quand n tend vers l'infini.

Ce théorème précise le théorème fondamental de la statistique, le Théorème de Glivenko-Cantelli, en donnant la vitesse de convergence, du processus empirique vers la fonction de répartition. Il justifie l'emploi de la distribution de Kolmogorov-Smirnov dans le test du même nom.

À voir[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. (en) Patrick Billingsley, Convergence of Probability Measures, Wiley, , 2e éd., 296 p. (ISBN 978-0-471-19745-4), p. 16
  2. Pour plus de détails sur cet exemple : voir Davidson et McKinnon (1993, chap. 4)

Références[modifier | modifier le code]

  • (en) Russell Davidson et James McKinnon, Estimation and Inference in Econometrics, New York, Oxford University Press, (ISBN 0-19-506011-3), p. 874
  • (en) Geoffrey Grimmett et D.R. Stirzaker, Probability and random processes, Oxford New York, Clarendon Press Oxford University Press, , 2e éd. (ISBN 0-19-853665-8), p. 271-285
  • (en) Adrianus Willem van der Vaart, Asymptotic Statistics, Cambridge, Cambridge University Press, (ISBN 0-521-49603-9), p. 443

Article connexe[modifier | modifier le code]

Topologie vague (en)