Chapitre IV: Lois usuelles de probabilités Otheman Nouisser Ecole Nationale de Commerce et Gestion Kénitra
12 décembre 2011
Lois de probabilités discrètes : Schéma de Bernoulli
Définition La variable alétaoire de Bernoulli est la variable qui ne peut prendre que deux valeurs exclusives, souvent désignés par succès et + q = 1. éhec dont les probabilités respectives sont p et q avec p + 1 . On note X B (p ).
∼ ∼
La valeur de la variable de Bernoulli est 1 en cas de succès et 0 en cas d’échec. Proposition Considérons X une variable de Bernoulli, alors : E (X ) = p , et V (X ) = pq , σ (X ) =
√ pq .
Lois de probabilités discrètes : Schéma de Bernoulli
Définition La variable alétaoire de Bernoulli est la variable qui ne peut prendre que deux valeurs exclusives, souvent désignés par succès et + q = 1. éhec dont les probabilités respectives sont p et q avec p + 1 . On note X B (p ).
∼ ∼
La valeur de la variable de Bernoulli est 1 en cas de succès et 0 en cas d’échec. Proposition Considérons X une variable de Bernoulli, alors : E (X ) = p , et V (X ) = pq , σ (X ) =
√ pq .
Lois de probabilités discrètes : Schéma Binomiale
Soit une épreuve de Bernoulli dont la probabilité de réaliser un succès est égale à p à p . Cette épreuve est reproduite n reproduite n fois, fois, les répétitions étant indépendantes ( c’est à dire la probabilité de succès est égale à p à p au au cours des n des n épreuves) épreuves) . La variable aléatoire X aléatoire X étudiant le nombre de succès au cours de n de n épreuve épreuve de Bernoulli indépendan indépendantes tes est une variabl variable e aléatoire aléatoire binomiale binomiale (on dit aussi suit une loi binomiale) de paramètre n paramètre n et et p p . La variable aléatoire X aléatoire X est discrète dont les valeurs possibles sont les entiers compris entre 0 et n .
Lois de probabilités discrètes : Schéma Binomiale
Définition Une variable aléatoire X est une variable aléatoire binomiale ou bien obéit à une loi binomiale, quand la probabilité de X = k est donnée par : P [X = k ] = C n k p k (1 p )n −k = C n k p k q n −k ,
−
n : nombre des épreuves, p : la probabilité du succès, q : la probabilité de l’échec, 0 k n et p + + q = 1. 1 . On dit que X suit une loi binomiale de paramètre n , p et note X B (n ; p ).
≤ ≤ ≤ ∼ ∼
Lois de probabilités discrètes : Schéma Binomiale Remarque On peut également définir la variable aléatoire suivant la loi binomiale comme étant la somme des variables de Bernoulli indépendantes. A chaque épreuve i on associe la variable aléatoire de Bernoulli X i , alors n
X =
X i .
i =1
Exemple On tire au hasard une carte d’un jeu de 32 cartes, la carte tirée est remise dans le jeu. Cette épreuve est répétée 4 fois, on cherche la probabilité de tirer 3 coeurs . succès : tirer un coeur avec une probabilité p = 14 . X la v.a. qui désigne le nombre de coeurs obtenus : X B (4; 14 )
P [X = 3 ] = C 43 p 3 (1
∼
4 3
− p ) −
=
3 . 5 4
Lois de probabilités discrètes : Schéma Binomiale Proposition
∼ B (n ; p ), alors
Soit X
E (X ) = np
V ( X ) = npq avec q = 1
et
− p .
Preuve Soient X i , 1 i n , des variables aléatoires de Bernoulli de paramètre p qui sont indépendantes. Alors
≤ ≤
n
n
E (X ) = E ( de même,
X i ) =
i =1
i =1
n
n
V (X ) = V ( et parsuite σ(X ) =
√ npq .
X i ) =
i =1
i =1
E (X i ) = np ,
V (X i ) = npq ,
Lois de probabilités discrètes : Schéma Binomiale
Proposition Si X suit une loi binomiale B (n 1 ; p ) et si Y suit une loi binomiale B (n 2 ; p ), avec X et Y sont indépendantes mais de même probabilité p, alors X + Y suit une loi binomiale B (n 1 + n 2 ; p ) Ici puisque X est la somme de n 1 variables de Bernoulli indépendantes de paramètre p et Y est la somme de n 2 variables de Bernoulli de paramètre p et X et Y sont indépendantes, alors X + Y est la somme de n 1 + n 2 variables de Bernoulli indépendantes de paramètres p . Donc X + Y B (n 1 + n 2 ; p ).
∼
Lois de probabilités discrètes : Schéma hypergéométrique
Exemple En pratique lorsque on tire un échantillon de taille n parmi une population de taille N, le bon sens veut que l’on ne prenne pas de 2 fois le même individu. Cela signifie que le tirage se fait sans remise. Les variables aléatoires de Bernoulli associées aux différents éléments de l’échantillon et indicatrices de la présence ou l’absence d’un caractère donné, sont alors dépendantes. Le schéma binomiale n’est plus adapté. Le schéma hypergéométrique est une succession d’épreuves de Bernoulli non indépendantes.
Lois de probabilités discrètes : Schéma hypergéométrique Définition Si dans une population de taille N, on a 2 types de populations : 1 N 1 individus type 1 en proportion p = N N et N 2 individus type 2. On fait n tirages sans remise dans la population et considérons la v.a. X = nombre d’individus de type 1 dans l’échantillon Alors X obéit au schéma hypergéométrique (N ; n ; p )
H
X =
X i , avec X i des v.a de Bernoulli non indépendantes.
i
X prend toute valeur entière comprise entre 0 et min n , N 1 .
{
Loi de probabilités
∼ H(N ; n ; p ), alors Pour k ∈ X (Ω),
Si X
P [X = k ] =
n −k k C N C N 2 1 n C N
}
Lois de probabilités discrètes : Schéma hypergéométrique
Proposition
∼ H(N ; n ; p ) alors
Si X
E (X ) = np ,
V (X ) = npq
N N
− n −1
avec
q = 1
− p .
Remarque Si on remplace dans la définition, les n tirages sans remise par un tirage de n individus de type 1 simultanément, alors la variable aléatoire X est une variable hypergéométrique (N ; n ; p ).
H
Lois de probabilités discrètes : Schéma hypergéométrique Exemple A un guichet se présentent 2 femmes et 3 hommes. On choisit au hasard 2 personnes différentes pour une enquête. Soit X = nb de femmes. 1- Calculer la probabilité de choisir une femme au moins. 2- Calculer E (X ) et V (X ). (5; 2; 25 ), donc Dans ce cas on a X
∼ H
P [X
≥
C 22 C 30 C 21 C 31 7 + = . 1] = P [X = 1 ] + P [X = 2 ] = 2 2 10 C 5 C 5
et
× 25 = 45 N − n 2 3 3 9 = 2 × × × = = 0, 36. npq N − 1 5 5 4 25
E (X )
= np = 2
V (X )
=
Lois de probabilités discrètes : Loi de Poisson
Définition Soit une variable aléatoire X et λ > 0. On dit que que X suit une loi de poisson de paramètre λ et on note X P (λ) si
∼
k λ P [X = k ] = e −λ , k !
Proposition E (X ) = λ . V (X ) = λ .
√ σ(X ) = λ.
∀k ∈ N.
Lois de probabilités discrètes : Loi de Poisson Preuve
E (X )
=
∞
kP [X = k ] =
k =0
=
∞
− − ∞
k =1
k =0
λk −λ k e k !
λk = e −λ (k 1)! k =1 ∞ λk −1 −λ = λ e (k 1)! k =1 ∞ k λ = λe −λ k ! ∞
k =0
= λ.
λk −λ k e k !
Lois de probabilités discrètes : Loi de Poisson Remarque La loi de Poisson modélise les variables aléatoires qui étudient les événements où le future est indépendant du passé et les événements rares ( files d’attente, pannes, mortalité, accidents, nombres d’appels à un standard, ). En générale, son existence est fondé sur trois conditions :
···
La probabilité de réalisation de l’événement considéré au cours d’un intervalle de temps infiniment petit dt est proportionnelle à sa durée dt. Cette probabilité est indépendante du nombre de réalisation antérieures de l’événement et reste constante au cours de la période d’observation. La probabilité que l’événement se réalise plus d’une fois dans le même intervalle de temps est faible.
Lois de probabilités discrètes : Loi de Poisson Règle Le nombre X d’événements réalisés au cours d’un intervalle de temps T est une variable de poisson de paramètre λ = pn avec : T : n = dt p :
rapport de proportionnalité entreT et dt . nombre constant de réalisation au cours de l’intervalle de temps dt .
Proposition Si X suit une loi de Poisson P (λ1 ) et si Y suit une loi de Poisson P (λ2 ), avec X et Y sont indépendantes, alors X + Y suit une loi de Poisson P (λ1 + λ2 ).
Lois de probabilités discrètes : Loi de Poisson Exemple Les services d’urgences d’un hopital sont sollicités deux fois tous les quarts d’heures. Calculer les probabilités que le nombre de cas d’urgence en une heure soit 12, supérieure à 12. Désignons par X nombre des cas d’urgence présentés en une heure , p le nombre de cas présentés au cours de dt et T la période d’observation :
p = 2, T = 1 , dt =
1 T , n = = 4 . 4 dt
X est une variable de Poisson de paramètre λ = pn = 8. Ainsi 12
8 = 0 , 04813 P [X = 12 ] = e −8 12! Sur la table des probabilités cumulés (P [X > k ] ) indique : P [X > 12] = 0 , 064.
Lois de probabilités discrètes : Loi de Poisson
Exemple Le nombre moyen de taxis qui traverssent un carrefour entre 9h et 10h est de 30 véhicules et suit une loi de Poisson. 1- Calculer les probabilités pour que, sur une période de 10 minutes entre 9h et 10h traverssent : aucun taxis, trois taxis, quatre taxis, cinq taxis, au plus cinq taxis. 2- Calculer l’espérance mathématique, la variance et l’écart type du nombre de taxis qui traversent la carrefour pendant 10 minutes.
Lois de probabilités discrètes : Loi de Poisson
Solution Soit X : nombre de taxis qui traversent la carrefour pendant 10 minutes . T = 5 avec p = 30 , T = 10 et dt = 60. Donc X P (5) et on a λ = p dt
∼
0
P [X = 0 ]
=
P [X = 3 ]
=
P [X
≤ 5]
55 − = 0 , 007. e 0! 3 − 55 e = 0 , 14. 3! P [X = 0 ] + P [X = 1 ] +
= E (X ) = V (X ) = 5 .
·· · + P [X = 5]
Lois de probabilités discrètes : Loi de Poisson
Exemple Deux machines A et B fonctionnent indépendamment l’une de l’autre. Le nombre de pannes un mois donné de 30 jours pour la machine A est 25 et pour la machine B est 20. Calculer la probabilité que, pour un jour donné, il n’y ait pas de pannes.
Approximation de la loi Binomiale par la loi de Poisson
Une variable aléatoire suivant une loi binomiale B (n , p ) peut être approché par une loi de Poisson P (λ) si on a les trois conditions : - n est suffisament grand. - p est voisin de 0 (trop petit) - np n’est pas grand. Théorème
∼ B (n , p ). Alors B (n ; p ) −→ P (np ) lorsque n −→ ∞ et p −→ 0.
Soit X une variable aléatoire avec X
Preuve
∼ B (n ; p ), alors on a
Soit X
P (k ) = P [X = k ] =
C n k p k (1 p )n −k pour k 0 ailleurs,
∈ {0, 1, 2, ·· · , n },
−
∈ {1, 2, ··· , n },
et pour k
P (k ) P (k 1)
−
= = = = =
C n k p k (1 p )n −k C n k −1 p k −1 (1 p )n −k +1
− − (n − (k − 1))!(k − 1)!
n ! p k (1 p )n −k (n k )!k ! n ! p k −1 (1 p )n −k +1 (n k + 1)(n k )! (k 1)! p (n k )! k (k 1)! 1 p (n k + 1) p k 1 p (k −1) p n (k 1) np 1 n = k 1 p k 1 p
− − −
−
− − −
−
−
− −
× −−
−
− −
suite
→ +∞ et p → 0, on a lorsque n → +∞ et p → 0, Quand n
1
− ( − ) → 1, ce qui donne que 1 − p k 1 n
P (k ) P (k 1)
pn pn ⇒ P (k ) P (k − 1). − k k De proche en proche, on obtient que si n → +∞ et p → 0, on a np np np np P (k ) P (0) × × × · · · × × k k − 1 k − 2 1
(np )k P (0). k !
n
Or,
P (k ) = 1, alors
k =0
n
k
(np ) P (0) k !
n
= P (0)
(np )k = 1 . k !
suite n
Comme lim n →+∞
k =0
(np )k = e np , on trouve que k ! P (0) = e −np .
Ainsi, lorsque n
→ ∞ et p → 0, l’écriture générale de P (k ) devient :
P (k ) = P [X = k ]
(np )k e −np pour k k ! 0 ailleurs.
∈ N,
Approximation de la loi Binomiale par la loi de Poisson
En partique : Les conditions d’approximation sont les suivantes : Si n
ou
≥ 30 et P ≤ 0, 10 et np ≤ 15 Si n
≥ 50 et P ≤ 0, 10 et np ≤ 5
Alors B (n ; p ) peut être approchée par P (λ) avec λ = np .
Approximation de la loi Binomiale par la loi de Poisson
Exemple Un supermarché s’interesse aux ventes quotidiennes d’un produit frais P dont le stock est reconstitué chaque matin. Pour chaque jour ouvrable, la probabilité de rupture de stock est de 0 , 02 et les ruptures sont supposées indépendantes. 1- Calculer les probabilités pour que sur, 200 jours ouvrables, il y ait : aucune rupture, une rupture, deux ruptures, trois ruptures, quatre rupture, cinq rupture, au plus cinq rupture du produit frais P.
Approximation de la loi Binomiale par la loi de Poisson Solution Soit X la variable aléatoire : nombre de ruptures du stocks du produit frais P sur 200 jours . Donc X est la somme de 200 variables indépendants de Bernoulli ce qui implique que X B (200; 0, 02). Regardons les conditions d’approximation :
∼
n = 200
≥ 50,
p = 0 , 02
≤ 0, 1,
np = 4
≤ 5.
Ainsi, la loi B (200; 0, 02) peut être approchée par la loi P (4) et donc, en utilisant l’approximation on a : P [X = 0 ] P [X = 3 ] P [X
≤ 5]
0, 018, P [X = 1 ]
0, 073, P [X = 2] 0, 147, 0, 195, P [X = 4 ] 0, 195, P [X = 5 ] 0, 156, 0, 785
Lois de probabilités continues : Loi normale (ou loi de Gauss-Laplace) Définition Une variable aléatoire continue X obéit à une loi normale de moyenne m et d’écart type σ , notée N (m , σ), si sa fonction de densité f est définie par :
f (x ) =
avec
+∞
1 √ σ 2π
1 − e 2
2
− x
m
σ
, x
∀ ∈ R.
f (x )dx = 1 , et sa fonction de répartition est
−∞ 1
≤ x ] = σ√ 2π
F (x ) = P [X
x
1 − e 2
− t
m
σ
2
dt .
−∞
La courbe représentative de f est symétrique par rapport de la droite
Lois de probabilités continues : Loi normale centrée réduite Définition Si une variable aléatoire X suit une loi normale N (m , σ), alors la m variable T = X − suit la loi normale appelée loi normale centré σ réduite N (0, 1). La fonction de densité f de la variable T est :
f (t ) =
t 2 1 − e 2 . 2π
√
La fonction de répartition F, plus généralement notée Π , est définie par : t
F (t ) = Π(t ) = P [T
≤ t ] =
−∞
f (u )du =
1
√ 2π
t
−∞
u 2 − e 2 du .
Lois de probabilités continues : Loi normale centrée réduite
La loi de T est centrée car E (T ) = 0 et elle est réduite car V (T ) = 1. En effet, E (T ) = E (
− m ) = 1 E (X − m ) = 1 (E (X ) − m ) = 0.
X
σ
σ
σ
1 1 V (T ) = V ( V (X m ) = 2 V (X ) = 1 . σ σ2 σ La courbe représentative de f est symétrique par rapport de la droite d’équation x = 0. X
− m ) =
−
Lois de probabilités continues : Loi normale centrée réduite
Proposition
• f est paire : f (t ) = f (−t ). • f est symétrique par rapport à l’axe t = 0. • Π(−t ) = 1 − Π(t ). • P [t < T < t ] = Π(t ) − Π(t ). • P [−t < T < t ] = 2Π(t ) − 1. 1
2
1
2
1
1
1
Lois de probabilités continues : Loi normale centrée réduite Exemple Le chiffre d’affaires quotidien, exprimé en dirhams, d’un commerce suit une loi normale de moyenne 12000, et d’écart type 1500. 1- Calculer la probabilité que le chiffre d’affaires quotidien soit : a- Egale à 12000. b- Inférieur à 12000. c- Inférieur à 13000. d- Inférieur à 10000. e- comprise entre 10500 et 13500. f- supérieur à 10500. Solution Désignons par X la variable aléatoire
le chiffre daffaires quotidien 12000 . Donc X ∼ N (12000, 1500) et T = X −1500 ∼ N (0, 1). a- La variable aléatoire X est continue, donc P [X = 12000] = 0.
Lois de probabilités continues : Loi normale centrée réduite 12000 12000 b-P [X < 12000] = P [T < ] = P [T 0] = Π(0) = 0 , 5. 1500 (voir la table de répartition) 13000 12000 = P [T 0, 66] = c- P [X < 13000] = P T < 1500 Π(0, 66) = 0 , 7454. 10000 12000 = P [T d- P [X < 10000] = P T < 1, 33] = 1500 Π( 1, 33) = 1 Π(1, 33) = 0 , 0918. e- P [10500 < X < 13500] = 10500 12000 13500 12000 = P [ 1 < T < 1 ] = P T < 1500 1500 Π(1) Π( 1) = 2 Π(1) 1 = 0 , 6826. 10500 12000 = P [T f- P [X > 10500] = P T > 1] = 1500 1 P [T 1] = 1 Π( 1) = Π(1) = 0 , 8413.
−
−
−
−
− − −
≥ −
− −
−
−
−
−
≤
−
≤
≤ −
−
≥ −
Somme de variables aléatoires normales Proposition Soient X 1 et X 2 deux variables aléatoires indépendantes telles que X i N (m i , σi ), i = 1 , 2, alors
∼
∀
(X 1 + X 2 ) (X 1
− X ) 2
∼ ∼
N (m 1 + m 2 , N (m 1
− m , 2
σ12 + σ22 σ12 + σ22
Plus généralement, on a le théorème suivant Proposition
, X n , n variables aléatoires indépendantes les unes Soient X 1 , X 2 , , n . Alors la des autres telles que X i N (m i , σi ), i 1, 2, n variable aléatoire Y = i =1 X i est une variable aléatoire qui suit une loi normale N (m , σ) avec
···
∼
m = m 1 + m 2 +
∀ ∈ {
··· + m , n
σ=
··· }
σ12 + σ22 +
2 n
··· + σ .
Théorème de la centrale limite
Théorème
, X n , n variables aléatoires indépendantes entre Soient X 1 , X 2 , elles et identiquement distribuées : même loi de probabilité, même espérence m et même variance σ 2 . n Y nm Soit Y = X i , alors la loi de converge vers une loi normale n σ i =1 centré réduite N (0, 1) quand n . Autrement dit, la loi de la variable Y converge vers la loi normale N (nm , n σ ).
···
√
√ − −→ ∞
En pratique, on applique le théorème de la centrale limite si n
≥ 30.
Approximation de la loi binomiale par une loi normale D’après le théorème de la centrale limite la loi binomiale et la loi de poisson convergent vers la loi normale quand n est grand. L’intérêt de ces approximation est de simplifier les calculs. Théorème
∼ B (n , p ). Si n est grand, alors X N (np , √ npq ) Preuve. Si X ∼ B (n , p ) alors X = X + ··· + X avec X ∼ B (1; p ). D’après le théorème de la centrale limite, quand n → ∞, √ B (n ; p ) → N (np , npq ). Soit X
1
n
i
En pratique, les conditions d’approximations sont les suivantes :
Si n
≥ 30 et p et q sont proches de 0, 5 ou si np > 15 et nq > 15 ou si npq > 10 alors la loi B (n , p ) peut être approchée √ par une loi normale N (np , npq ).
Approximation de la loi de Poisson par une loi normale
Théorème
√ Soit X ∼ P (λ). Si λ est grand, alors X N (λ, λ) En pratique, les conditions d’approximations sont les suivantes :
Si λ > 15 alors la loi P (λ) peut être approchée par une loi normale N (λ, λ).
√
Correction de continuité L’approximation d’une variable aléatoire discrète (que ce soit une variable binomiale ou une variable de Poisson) par une variable aléatoire continue nécessite d’effectuer une correction de continuité. Pour une variable aléatoire continue, P (X < x i ) = P (X x i ) et P (X > x i ) = P (X x i ) puisque P (X = x i ) = 0 ce qui n’est pas le cas pour une variable aléatoire discrète. Les corrections de continuité pour approcher la loi d’une variable aléatoire discrète par une loi normale sont les suivantes :
≤
≥
v.a. discrète P [X = x i ] P [X
≥ x ] P [X ≤ x ] i i
P [X > x i ] P [X < x i ]
v.a. continue P [x i
− 0, 5 ≤ X ≤ X + 0, 5] P [X ≥ x − 0, 5] P [X ≤ x + 0, 5] i i
P [X > x i + 0, 5] P [X < x i
− 0, 5]
Correction de continuité
∼ B (n , p ) et x ∈ {1, 2, ··· , n } : x + 0, 5 − np x − 0, 5 − np et P [X < x ] Π np (1 − p ) np (1 − p ) x + 0, 5 − np x − 0, 5 − np Π . − np (1 − p ) np (1 − p )
En d’autres termes - Si X P [X
≤ x ]
P [X = x ]
Π Π
∈ √ − √ −
∼ P (λ) et x
- Si X P [X
≤ x ]
P [X = x ]
Π Π
N
:
x + 0, 5
λ x + 0, 5 λ
λ λ
− √ − − − √ − et
Π
P [X < x ]
x
0, 5
λ
x
Π
λ
0, 5
λ
.
λ
Correction de continuité Approximation d’une loi binomiale Une piece de monnaie est jetée 100 fois. X désigne le nombre de fois où pile est obtenu. Déterminer la loi de probabilité suivie par X , E (X ), V (X ), P [X > 55 et P [45 < X < 55 ]. X est une succession de 100 épreuve de Bernoulli, donc X suit une loi binomiale B (n , p ) avec n = 100, p = 1 /2, q = 1 /2. E (X ) = np = 50 , V (X ) = npq = 25 On a n = 100 > 30 et npq = 25 > 10, les conditions d’approximation sont vérifiées et donc on peut approcher la loi B (100, 1/2) par N (50; 5). Notons T = X −550 alors si X N (50; 5) on a T N (0; 1). Ainsi
∼
P [X > 55 ]
∼
55, 5 50 ] P [X > 55 + 0, 5] = P [T > 5 P [T > 1 , 1] = 1 Π(1, 1) = 0 , 1357.
−
−
Correction de continuité
Approximation d’une loi binomiale de même P [45 < X < 55 ]
P [45, 5 < X < 54, 5] 45, 5 50 54, 5 50 P [ < T < ] 5 5 P [ 0, 9 < T < 0 , 9] = 2 Π(0, 9) 1 = 0 , 6318.
−
−
−
−
Correction de continuité
Approximation d’une loi de Poisson La tour de contrôle d’un aeroport reçoit 4 demande d’atterissage toutes les 10 minutes. Quelle est la probabilité que le nombre de demandes enregistrées au terme d’une heure soit > 30?. Désignons pas X la v.a. nombre de demandes entregistées en une heure , p le nombre de demandes enregistrées au cours de dt et T la période d’observation.
p = 4 , dt = 10min , T = 60min . T = 6, et X suit une loi de Poisson de paramètre Donc, n = dt λ = pn = 24, c.à.d X P (24).
∼