LES PRINCIPALES LOIS DE PROBABILITES

 

 

 

 

 

 

 

 

 

Variables aléatoires

 

 

V.a. Discrète

 

P(X = x) = p(x)

Fonction de répartition : F(x) = P(X < x)

 

V.a. Continue

 

La probabilité de X = x est nulle. P(X = x) =0  (X prend une infinité de valeur)

Fonction de répartition : F(x) = P(X < x)

                                                P(a ≤ X < b) = F(b) – F(a)

Densité de probabilité :   f(x) = F’(x)    Si F(X) est dérivable

 

f(x) = = C’est bien une densité de probabilité

 

f(x) homogène a une probabilité par unité de longueur au point considéré . 

f(x) est positif ou nul .

 Si X peut prendre toutes les valeurs de R

 

 = 1   cette intégrale est égale à P(¥ < X < +¥) qui par définition = 1

 

Si X varie entre A et B

   = 1

 

V.a. à 2 dimensions

 

Discrète :

 

Pxy  = P ( X = x et Y =y)

Distributions marginales : Px = P(X = x)  et  Py = P(Y = y)

Distributions conditionnelles : P(X = x |  Y = y ) =   et   P(Y = y | X = x) =

 

Les variables X et Y sont indépendantes si Pxy = Px . Py

Fonction de répartition : F(x,y) = P(X < x  et Y < y)

 

Continue :

 

 On définit la probabilité pour que (x,y) soit dans un rectangle P(a < X <b ,  c < Y < d) 
Si F(x,y) dérivable par rapport à x et y :

Densité de probabilité f(x,y) =

 

Espérance mathématique

 

L’espérance mathématique est une moyenne des valeurs possibles de la V.a pondérées par leur probabilité.

 

V.a. discrète E(X) = å XiPi

V.a. continue E(X) = ò xf(x)dx  (avec f(x) densité de probabilité)

 

E(X+Y) = E(X) + E(Y)

Si X et Y sont indépendantes E(XY) = E(X)E(Y)

 E(aX +b) = aE(X) + b

 

Variance

 

C’est l’espérance mathématique du carré de l’écart à l’espérance

 

V(X) = E( [ X–E(X)] 2 )

 

Ecart type =

 

Moment d’ordre q  m q = E(Xq)          å (X i )q P i   ou ò xq f(x)dx

 

V(X) = m2 – m12  

Si X et Y indépendantes  V(X + Y) = V(X) + V(Y)

Si X et Y non indépendantes : V(X + Y) = V(X) +V(Y) + 2Cov (X, Y)

Avec Cov (X , Y) = E (  [ X – E(X)][Y – E(Y)] )

 

Moment centré d’ordre q  Mq = E ( [ X – E(X) ] q )

V(X) = M2 .

 

 

 

 

 

 

 

 

 

 

La loi Binomiale

 

 

Une série de n épreuves .

Seules possibilités réussir (probabilité p) ou échouer (probabilité q = 1 – p)

Variable aléatoire discrète : en général nombre de succès ou d’échecs.

Une telle série d’épreuves obéit à la loi B(n,p)

Loi binomiale à n épreuves dont le succès a la probabilité p.

 

Exemples :

 ˜ Urne de  Bernouilli avec p boules blanches et q boules noires. n tirages avec remise.

Probabilité de tirer X blanches. On décide par exemple succès = boule blanche. Probabilité p / (p+q).

˜ n naissances dans une famille. Garçon ou fille ont la probabilité ½ .

Probabilité de mettre au monde X filles. On décide  succès = fille.

˜ n mises sur la couleur rouge à la roulette. Probabilité de gagner X fois.

Succès = la couleur rouge sort . La probabilité de rouge est 18/37. 

 

Variable de Bernouilli X

 

X = 1 si succès probabilité p

X = 0 si échec probabilité q = 1 – p

E(X) = p

V(X) = p – p2 = p(1–p) = pq

 

La variable binomiale X (qui indique le nombre de succès) est une somme de variables de Bernouilli.

Il suffit d’appeler X1 , X2 , ……Xn la variable de Bernouilli liée au résultat de chacune des n épreuve.

Le nombre X de succès sur n épreuves est X = X1+…..+Xn.

Le résultat d’une série de n épreuves peut être présenté sous la forme (X1 , X2 , ……. ;Xn)

Par exemple pour n = 7  (1101001) qui donne pour cette série  X = 4 ( 4 fois 1 et 3 fois 0)

˜ Chaque série de résultats d’épreuves est un n–uplet de { 0 ; 1 }n tel que (1, 1 , 0 , 1 , 0, 0 , 1).

˜ Ωn est l’ensemble des séries de résultats de n épreuves

              il comporte  2 X 2 X 2 x …x 2 = 2n séries possibles.

˜ L’évènement X = x est l’ensemble des séries qui comportent x fois le chiffre 1 et n–x fois le chiffre 0.

 

˜ Le nombre des séries de résultats pour lesquelles X = x

C’est  (combinaisons de n rangs x par x)

Par exemple pour 7 épreuves et X = 4    si l’on doit  dénombrer toutes les façons de situer les quatre 1 à des rangs différents dans (1, 1 , 0 , 1 , 0, 0 , 1) on va trouver .

 

˜ La probabilité d’une série de résultats pour laquelle X = x

 La probabilité d’une série comportant x succès (probabilité p) et n–x échecs probabilité (q = 1– p) est

   pxqn–x (il suffit de la considérer comme l’intersection de n évènements indépendants dont x ont la probabilité p et n – x la probabilité q ).

Par exemple pour (1, 1 , 0 , 1 , 0, 0 , 1) est aussi la conjonction suivante :

(1 à la 1ere épreuve) ET (1 à la 2e) ET (0 à la 3e) ET ….ET (1 à la 7e )

Probabilité ppqpqqp = p4q3.

 

˜ Donc la probabilité de X = x dans une série de n épreuves est

 

P(X = x) =  pxqn–x

 

Produit du nombre de résultats favorables par la probabilité de chacun d’eux.

 

Par exemple pour 4 épreuves à pile ou face (p = q = ½) on peut calculer la probabilité pour que X (nombre de piles) prenne toutes les valeurs possibles :

 

Valeurs de X

0

1

2

3

4

 

 

Probabilité

 

 

 

 

 

 

 

Fonction de répartition

 

P(X < x) =

 

Caractéristiques

 

On observe X est le nombre de tirages ayant donné lieu au même type d’évènements.

 

X = å Xi  (somme de n variables de Bernouilli) avec E(Xi) = p et V(Xi) = pq donc

 

E(X) = np

V(X) = npq

s =

 

Loi des fréquences :

 

On observe X / n la fréquence d’un type d’évènement.

 

 

 

 

Quelques exemples pour n = 5  (X varie de 0 à 5) , p variant de 0,1 à 0,5

 

Seule la loi B(5 ;  0,5) est symétrique le maximum de probabilité correspondant à X = 2 ou 3 .

Plus p diminue, plus le maximum de probabilité évolue vers les petites valeurs de X et plus la probabilité des grandes valeurs de X tend à devenir nulle rapidement.

C’est normal car les succès sont de moins en moins probables.

 

 

 

 

 

 

La loi hypergéométrique

 

 

Série de n épreuves avec pour seule alternative le succès ou l’échec (comme pour la loi binomiale)

MAIS : la probabilité du succès p(r) varie avec le rang r de l’épreuve.

Variable aléatoire discrète : en général nombre de succès ou d’échecs.

 

 

Exemple type : les tirages sans remise encore appelés tirages exhaustifs dans une population d’effectif N .  (On ne remet pas la boule tirée dans l’urne après tirage)

On peut considérer que les paramètres de la loi hypergéométriques sont

N l’effectif initial

F l’effectif initial favorable à la réussite

n le nombre de tirages

Et on parle de loi H(N , F, n)

 

˜ On utilise la même variable aléatoire X que pour la loi binomiale.

Par exemple X = nombre de boules noires tirées après n tirages dans une urne qui  contient initialement F noires et N –F blanches.

 

˜ Le dénombrement des séries de résultat pour lesquelles X = x est le même 

Je numérote les épreuves par leur rang 1, 2 , .....n et je choisis parmi ces n rangs un ensemble de x rangs qui auront donné lieu à la réussite. Combien de possibilités de choix ? .

 

˜ Toutes les séries donnant X = x ont la même probabilité Px mais celle-ci doit être évaluée une fois

 

˜ P(X = x) =  Px

 

Exemple

 

Une urne contient 5 boules noires et 10 boules rouges (en tout 15 boules) .

5 tirages (n = 5) . Probabilité de 3 noires  (X = 3) ?

Probabilité de 11010   =        

 

1er tirage il y a 5 boules noires sur 15

2e tirage il reste 4 boules noires sur 14

3e tirage il y a 10 boules rouges sur 13

4e tirage il reste 3 boules noires sur 12

5e tirage il reste 9 boules rouges sur 11.

Probabilité de 00111 =  = Probabilité de 11010

 

Pourquoi cette probabilité ne change – t – elle pas ?

Parce que les dénominateurs rendent compte de la diminution du nombre de boules dans l’urne qui va toujours passer de 15 à 11 au cours de 5 tirages.  Quant aux numérateurs, ils rendent compte de l’évolution du nombre de boules de chaque couleur. Ces nombres vont forcément évoluer de la même façon même si ce n’est pas au même moment et donc d’un numérateur à l’autre on a seulement permuté des facteurs semblables.

Dans ce cas, la probabilité de X = 3 est donc .

 

Raisonnons autrement :

 

Il revient au même de tirer les n boules une par une ou de tirer n boules et de compter parmi elles les boules noires.

Parmi les N boules, combien de séries différentes de n puis je tirer ?   Cas possibles équiprobables.

Parmi les F noires combien de séries de x noires puis je tirer ?

Pour chaque série de x noires, combien de séries de n – x blanches parmi N – F ? 

Donc parmi les cas possibles, combien sont formés de x noires et n-x  blanches ?

On peut donc dire que

 

P( X = x) =

 

 

 

Caractéristiques :

 

E(X) = np (comme pour la loi binomiale)

V(X) = npq          (N effectif total avant tirage et n nombre d’épreuves)

 

 

De la loi Hypergéométrique à la loi binomiale.

 

Si N très grand devant n et si p moyen, pas trop voisin de 0 ou 1 : On peut faire une approximation de la loi hypergéométrique par la loi binomiale. n < N / 10  ,  p=X/N

 

 

 

 

 

 

 

 

 

 

 

Loi de Poisson

 

 

 

Processus de Poisson

Apparition d’évènements aléatoires dans le temps ou dans l’espace.

˜ La probabilité de réalisation d’un évènement E au cours d’une petite période de temps Δt ou sur une petite portion d’espace ΔL , ΔS , ΔV  que nous appellerons Δz est proportionnel à Δz .

P(E)= pΔz

˜ La probabilité d’apparition de deux évènements sur Δz très petit est négligeable

 

Appels téléphoniques dans un central, pannes de machines, arrivées à un péage, particules observées avec un appareil, points répartis au hasard sur une droite, captation de rayon cosmiques.

 

˜ Variable discrète  X = nombre d’évènements observés sur Z (temps ou espace)

˜  P(X = x) =        ou          si l’on pose m = pZ

 

 

Des tables donnent la valeur de P(X = x) selon la valeur de x pour différents valeurs de m .

En voici 3 exemples.

 

La loi de poisson comme limite d’une loi binomiale

 

Prenons une loi binomiale B(n, p) avec p petit (évènement rare) et n grand (épreuves très nombreuses).

Faisons en sorte que np soit de l’ordre de quelques unités (3 ou 4)

E(X) = np donc au cours des n épreuves, l’évènement espéré se produira en moyenne 3 ou 4 fois.

Si l’on imagine la succession rapide des épreuves pendant un laps de temps relativement court , l’observateur retrouve à peu prés les conditions d’un processus de poisson de paramètre m = np.

 

A partir de B(n,p) on a

P(X=x) =

 

P(X=x) =  

 

Si n è +¥ et p è 0 de telle sorte que np è m alors  P(X = x) è

 

On procède à partir de

 z\,\in\mathbb{C} \quad e^z = \lim_{n\to\infty} \left(1+\frac{z}{n}\right)^n  

 

à la limite  est équivalent à

 

 

  =qui se comporte comme 

 

(limite 1 quand nè+¥)

 

 

De la loi binomiale à la loi de poisson

On a donc bien à la limite la loi binomiale  P(X = x) è la loi de poisson

 

On considère que c’est le cas dés que n > 50 et np < 5

 

 

 

Caractéristiques de la loi de Poisson

 

E(X) =  (on reconnaît le D.L de em)

 

E(X) = m

 

V(X) = m

 

 

 

 

 

 

 

 

 

 

Loi normale

 

 

Loi normale, loi de Laplace – Gauss , loi de Gauss.

C’est la loi suivie par une variable aléatoire continue dont  la moyenne (l’espérance mathématique)   et  la médiane coïncident avec la valeur  la plus probable (le mode).

De plus les  écarts à la moyenne doivent être  symétriques  par rapport à cette dernière et la probabilité de X doit diminuer de façon significative quand on s’écarte de la moyenne, puisque,  si s est l’écart type et M l’espérance mathématique,  la probabilité pour que X soit compris entre M-2s et M+2s doit être de l’ordre de 95%.

 

Caractéristiques de la loi normale

 

Dans ce qui suit le signe ò représente une intégration sur R :  

 

Densité de probabilité

 

f(x) =

 

 

En posant   la loi devient   f(T) =

 

 

Or nous savons que la fonction  f (T) = a une intégrale ò f (T) dT = 1 (Gauss).

 

Donc la fonction f peut être considérée comme une densité de probabilité.

Alors, il en va de même de la fonction f(X) car après changement de variable on a

ò f(x)dx = ò  = ò f (T) dT

 

 

D’ailleurs, on a f(x) = f (x) si l’on prend s = 1 et m = 0 .

 

La loi f (x) est appelée loi normale, centrée, réduite et notée N(0,1)

Normale (N (0,1) ) parce que sa densité de probabilité est de type f(x)

Centrée parce que lorsque m =  0 (N(0,1)) le graphe de la loi est symétrique par rapport à l’axe des y

Réduite parce que le choix de s = 1  (N(0,1)) et de m = 0 a simplifié son expression.

 

Voici le graphe de la loi N(0,1) en vert accompagné d’autres graphes de lois normales, centrées ( m = 0) ou non

(m=–2).

On voit que m fixe l’emplacement du maximum de la distribution tandis que s module la dispersion des valeurs autour de la moyenne.

Plus s est petit  plus la courbe est effilée vers le haut  et la population concentrée autour de la moyenne. Plus s est grand et plus la courbe est évasée et aplatie. .

 

 

 

 

 

 

Espérance mathématique de N(m , s ) = m

 

Médiane de N(m , s ) = m

 

Mode  de N(m , s ) = m   (valeur la plus fréquente)

 

Ecart type de N(m , s ) = s

 

 

 

Les tables de la loi normale

 

 

Comme le montre le dessin ci-dessous, les répartitions gaussiennes sont telles que

P(m –0,66s < x < m + 0,66s ) » 50% ce qui veut dire qu’on trouve 50% de l’aire située sous la courbe et au dessus de l’axe des x entre les droites d’équation x = m – (2/3)s et x = m + (2/3)s

P(m – 2s < x < m + 2s ) » 95% Ce qui veut dire que pour 95% de la population le caractère X se trouve entre ces deux valeurs. 

 

 

Des tables donnent P(m – q < x < m + q ) en fonction de q  pour une loi N(m , s )

Bien sûr P( X  m – q ou X ≥  m + q  ) = 1 – P(m – q < x < m + q )

Il existe aussi une table de fonction de répartition P(T < t) =  en fonction de t

 

Et il ne faut pas oublier le cas échéant le changement de variable  si l’on nous demande P(X<x)

 

 

Approximation d’une loi binomiale B(n,p) par une loi normale

 

Cette approximation est d’autant plus judicieuse que le nombre d’épreuves n est  grand et que la probabilité p n’est pas trop éloignée de ½.

 

sur ce dessin

En rouge le diagramme en bâtons de  la loi B(12, 1/3)

On calcule que :

m = np = 4 ,  V = npq = 8/3

 

Et en vert la courbe de la  loi N(4, )

 

 

 

 

 

sur ce dessin

En rouge le diagramme en bâtons de  la loi B(60, 1/3)

On calcule que :

m = np = 20 ,  V = npq = 40/3

 

Et en vert la courbe de la  loi N(20, )

 

 

 

 

 

De la loi binomiale à la loi normale

 

On considère que l’ajustement des deux lois est convenable lorsque n, p , q de la loi binomiale sont tels que   npq > 10

 

 

Somme de variables aléatoires normales

 

Soit la famille de v.a. gaussiennes : { X i de moyenne m i et de variance V i }

Alors, la variable Σ X i  est gaussienne de  moyenne Σ m i et de variance Σ V i     

 

Lois dérivées de la loi normale

 

Loi Log – normale

 

Définition : Une variable aléatoire X à valeurs dans ] 0 , + ¥ [ suit la loi Log - normale de paramètres N(m,s)  si Y=log X suit la loi N(m,s)   .

 

De f(y) =

 

 

On déduit la densité de X  après changement de variable Y = Log X : 

X admet alors une espérance et une variance

Courbe représentative de la densité :

Ex : le nombre de mots dans une phrase suit approximativement une loi log - normale.

 

La loi du c2 de Pearson (lire Khi carré) et la loi de Student sont des lois dérivées de la loi normale qui vont faire l’objet d’une étude particulière.

 

 

 

 

 

 

La loi du c2 de Pearson

 

 

 

La loi du χ² (prononcer khi-deux ou khi carré) est une loi à densité de probabilité. Cette loi est caractérisée par un paramètre dit degrés de liberté à valeur dans l'ensemble des entiers naturels (non nuls).

Soit X_1, \ldots , X_nn variables aléatoires indépendantes de même loi normale centrée et réduite, alors par définition la variable X, telle que

X:=\Sigma_{i=1}^n X_i^2            (X est souvent appelée χ² )

suit une loi du khi-2 à n degrés de liberté.

Soit X~une variable aléatoire suivant une loi du χ² à n~degrés de liberté, on notera \chi^2(n)~la loi de X~.

Alors la densité de X~notée f_X~sera:

f_X(t)=\frac{1}{2^\frac{n}{2}\Gamma(\frac{n}{2})} t^{\frac{n}{2} - 1} e^{-\frac{t}{2}}\,pour tout t positif

où Γ est la fonction Gamma d'Euler.

En mathématiques, la fonction gamma est définie dans le demi-plan complexe de partie réelle strictement positive par l'intégrale suivante:


\Gamma(s)=\int_0^{+\infty}t^{s-1}e^{-t}dt
C'est la définition la plus fréquemment utilisée dans l'enseignement moderne, mais elle a été introduite initialement par Euler par la formule:
\Gamma(s)={1 \over s} \prod_{n=1}^\infty {(1+1/n)^s \over 1 + s/n}avec s \in \mathbb{C} \setminus \mathbb{Z}^-.

 

 

L'espérance mathématique  de X vaut n sa variance vaut 2n

 

Tables : il existe des tables donnant p(X > x) selon la valeur de n .

 

De la loi du  c2 à la loi normale :

 

Lorsque n > 30 on admet que si X suit une loi du c2  alors  ¾ suit une loi normale centrée réduite

.

La somme des carrés de m variables aléatoires normales liées par p relations suit une loi du c2 à

 n = m – p degrés de libertés.

 

Test du c2

On utilise ce test pour juger

˜ De l’adéquation d’une population à une distribution type (exemple loi de poisson)

˜ De l’homogénéité de 2 populations soupçonnées de suivre une même loi

˜ De l’indépendance de deux populations

 

Emprunt à http://www.apprendre-en-ligne.net

Méthode

On répartit les valeurs de l'échantillon (de taille n) dans k classes distinctes et on calcule les effectifs de ces classes. Si l’on regroupe certaines classes pour les doter d’un effectif plus important, k diminue en conséquence.
Appelons oi (i=1,...,k) les effectifs observés et ei les effectifs théoriques.

On calcule

 

La statistique Q donne une mesure de l'écart existant entre les effectifs théoriques attendus et ceux observés dans l'échantillon. En effet, plus Q sera grand, plus le désaccord sera important. La coïncidence sera parfaite si Q=0.

 

Le degré de liberté (d) de la variable soumise au test (oi)  est obtenu en soustrayant à k le nombre de relations entre les  valeurs observées qui ont été utilisées dans le paramétrage de la loi de référence.

Par exemple si on a une relation de type Σ oi = n (loi B(n,p)) le degré de liberté devient k – 1

Si, de plus on a eu besoin de calculer la moyenne m des oi pour tester l’adéquation à la loi

B(n,p) (p déduit de m) ou P(m) (m paramètre de la loi de Poisson) le degré de liberté deviendra k – 2.

La table donne, pour d degrés de libertés,  une fonction de répartition de Q : la probabilité pour que Q soit plus grand qu’une valeur donnée q.

En situant Q dans l’échelle des valeurs de q on sait que Q a entre x% et y% de chances d’être dépassé. Plus la probabilité de Q d’être dépassé est grande, plus l’adéquation de la loi à la série est judicieuse

 

 

Pour 5 degrés de libertés

P( Q > q)

q

0.9

1,61

0.8

2,34

0.7

3

0.5

4,35

0.3

6,06

0.2

7,29

0.1

9,23

0.05

11,07

0.02

13,39

0.01

15,08

 

Exemple

On a lancé un dé 90 fois et on a obtenu les issues 1 à 6 (k=6) avec les effectifs suivants: 12, 16, 20, 11, 13, 18. Si le dé n'est pas pipé (notre hypothèse), on attend comme effectifs moyens théoriques 15 pour toutes les issues.

Pour k-1=5 degrés de liberté on trouve dans la table Q entre les valeurs

0.7

3

0.5

4,35

Ce qui signifie que la probabilité pour Q d’être dépassé est un peu supérieure à 50% . L’adéquation de la loi à la série n’est pas fameuse.


Fonction de répartition de la loi du
c2 pour 5 degrés de liberté.


 

 

 

 

La loi de  Student.

 

 

La loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ².

Soient Z une variable aléatoire de loi normale centrée et réduite et U une variable indépendante de Z et distribuée suivant la loi la loi du χ² à k degrés de liberté. Par définition la variable

 

T = \frac{Z}{\sqrt{U/k}}

suit une loi de Student à k degrés de liberté.

 

La densité de T notée ƒT est :

 

f_T(t)=\frac{1}{\sqrt{k\pi}}\frac{\Gamma(\frac{k+1}{2})}{\Gamma(\frac{k}{2})}\frac{1}{(1+\frac{t^2}{k})^{\frac{k+1}{2}}},pour k ≥ 1.

 

où Γ est la fonction Gamma d'Euler.

 

La densité ƒT associée à la variable T est symétrique, centrée sur 0, en forme de cloche.

 

 

Son espérance ne peut pas être définie pour k = 1, et est nulle pour k > 1.

Sa variance est infinie pour k ≤ 2 et vaut \frac{k}{k-2}pour k > 2.

 

 

Tables : il existe des tables donnant p( |X| > x) selon la valeur de k .

 

De la loi de student à la loi normale :

 

Lorsque n ® ¥  on admet que la loi de Student converge vers la loi N(0,1)

.

 

Application : détermination rigoureuse de l’intervalle de confiance associé à l’espérance d’une variable de loi normale de variance inconnue