oral capes math 2012 : lecon 10 - echantillonage

7
  Annex e : Leçon 10 - Éc hantillonnage Clément BOULONNE— pour la session 2012 Niveau, prérequis, références I Niveau  BTS Prérequis  Probabilités, lois discrètes et continues Références  [1, 2, 3, 4, 5] Contenu de la leçon II 1  Approximatio n de la loi binomiale Pour n  assez grand et p  « pro che » de 0 t els q ue n p (1 p ) ne s oit « pas tr op gr and » (c’est-à-dire n  > 30,  p  ≤  0,1 et  n p (1 p ) ≤  10), on peut approcher la loi binomiale Bin(n , p ) par la loi de Poisson Pois(λ) λ = n p . Pro prié tés 1 Exemple.  Dans une chaîne de fabrication , 5% des pièces sont défectue uses ; on pré lève une pièce, on examine si elle est défectueuse et on la remplace parmi les autres. On répète 120 fois cette expérience. On désigne par X la variable aléatoire qui à chaque tirage de 120 pièces associe le no mbre de pièces défectueuse. 1. On justie que X suit un e loi binomiale. P our chaque tirage, on a deux résultats pos- si ble s: ou bien la pi èce es t défectueuse avec une pr obabil ité de p  = 0,05; oubienel le ne l’est pas avec une probabilité de  q  = 1 p  = 0,95. On effectue 120 tirages de ma- ni èr e indépe ndante . On peut donc conclure que X suit la loibi nomiale Bi n (120,0.05). 2. On calcule P(  X = 5). P(  X = 5) = C 5 120 × 0,05 5 × 0,95 115 = 0,1634. 3. Onmont re qu ’une appr oximat ion dela loi bi nomi al e par une loi de Po issoncon vi ent. On a  n  > 30, p  < 0,1 et  n p (1 p ) = 5,7 < 10. On peut donc faire une approximation grâce à la loi de Poisson Pois(120 × 0,05) = Pois(6). 4. On calcule P(  X = 5) à l’aide de cette approximation. On obtient : P(  X = 5) = e 5 6 5 5!  = 0,1606. 5. LaloidePoisson donne la même va le ur à 10 2 pr ès, ce qui est une bonne appr ox ima- tion. Pour  n  « assez grabd » et pour  p  « ni proche de 0 ni de 1 » tels que  n (1 p )  ne soit « pas trop grand (on covi ent de faire cette approximation pour  n  ≥ 50, 0 < p  < 1 et  n p (1 p )  > 10), on peut approcher la loi binomiale Bin (n , p )  par la loi normale   ( m , σ)  m  = n p  et σ =  n p (1 p ). Pro priét é 2 1. Niveau, pr érequis, r éférences  1

Upload: clement-boulonne

Post on 10-Jul-2015

1.031 views

Category:

Documents


0 download

TRANSCRIPT

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 1/7

 Annexe : Leçon 10 - Échantillonnage

Clément BOULONNE— pour la session 2012

Niveau, prérequis, référencesI

Niveau BTS

Prérequis Probabilités, lois discrètes et continues

Références [1, 2, 3, 4, 5]

Contenu de la leçonII1 Approximation de la loi binomiale

Pour n assez grand et p  « proche » de 0 tels que np (1−p ) ne soit « pas trop grand »(c’est-à-dire n > 30, p ≤ 0,1 et np (1− p ) ≤ 10), on peut approcher la loi binomialeBin(n , p ) par la loi de Poisson Pois(λ) où λ= np .

Propriétés 1

Exemple. Dans une chaîne de fabrication, 5% des pièces sont défectueuses ; on prélèveune pièce, on examine si elle est défectueuse et on la remplace parmi les autres. On répète

120 fois cette expérience. On désigne par X la variable aléatoire qui à chaque tirage de 120pièces associe le nombre de pièces défectueuse.

1. On justifie que X suit une loi binomiale. Pour chaque tirage, on a deux résultats pos-sibles : ou bien la pièce est défectueuse avec une probabilité de p = 0,05; ou bien ellene l’est pas avec une probabilité de q  = 1−p  = 0,95. On effectue 120 tirages de ma-nière indépendante. On peut donc conclure que X suit la loi binomiale Bin(120,0.05).

2. On calcule P( X = 5).

P( X = 5) = C5120×0,055×0,95115 = 0,1634.

3. On montre qu’une approximation de la loi binomiale par une loi de Poisson convient.

On a n > 30, p < 0,1 et np (1−p ) = 5,7 < 10. On peut donc faire une approximationgrâce à la loi de Poisson Pois(120×0,05) = Pois(6).

4. On calcule P( X = 5) à l’aide de cette approximation. On obtient :

P( X = 5) = e−5 65

5!= 0,1606.

5. La loi de Poisson donne la même valeur à 10−2 près, ce qui est une bonne approxima-tion.

Pour n  « assez grabd » et pour p  « ni proche de 0 ni de 1 » tels que n (1− p ) nesoit « pas trop grand (on covient de faire cette approximation pour n 

≥50, 0 < p < 1

et np (1 − p ) > 10), on peut approcher la loi binomiale Bin(n , p ) par la loi normale (m ,σ) où m = np  etσ=

 np (1−p ).

Propriété 2

1. Niveau, prérequis, références 1

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 2/7

Exemple. On lance 300 fois une pièce de monnaie truquée ce qui constitue une partie. La

probabilité d’obtenir « face » est 23

. On désigne X la variable aléatoire qui à chaque partieassocie le nombre de « face » obtenus.

1. On justifie que X est une loi binomiale. Pour chaque jet, il y a deux résultats possibles :ou bien on obtient « face » avec une probabiltié de p  = 2

3, ou on obtient « pile » avec

une probabilité de q = 1−p = 13

. On lance 300 fois la pièce de manière indépendante.

On peut donc conclure que X suit la loi binomiale Bin (300; 23

).

2.P( X > 210) =

300 I=211

Ci 300×

2

3

i 1

3

300−i 

.

La calculatrice ne peut pas toujours effectuer un tel calcul.

3. On montre qu’une approximation de la loi binomiale par une loi normale se justifie.On a n ≥ 50 et p = 2

3et np (1−p ) = 66,66> 1. On peut donc faire une approximation

par la loi normale :

 

300× 2

3;

 300× 2

3× 1

3

= (200,8.16).

4. On calcule P( X > 210) à l’aide de cette approximation. On utilise le changement devariable T = X −200

8,16. T suit la loi normale (0, 1).

P( X > 210) = P(8,16T + 200> 210) = P(T> 1,22)

= 1−P(T≤ 1,22) = 1−0,8888 = 0,1112.

2 Lois limites

a) Loi faibledes grandsnombres

Soit X 1, X 2, . . . , X  n  n  variables aléatoires indépendantes ayant même espérance m et même écart-typeσ et soit X n  = X 1+ X 2+···+ X n 

n  , alors :

∀ > 0, limn →+∞

P X n −m 

<= 1.

Propriété 3

Concrètement, ce théorème signifie que plus n est grand plus la variable aléatoire X n  serapproche de l’espérance mathématique m .

Exemple. On lance un dé. Si on obtient 6, c’est gagné et on marque 1 point. Sinon, c’estperdu et on marque 0 point. Soit X i  la variable aléatoire correspondant au nombre de pointobtenur lors du i e lancer. On a donc :

P( X = 0) = 56 , P( X = 1) = 16 et E( X ) = 16 .

On répète n fois cette même expérience, les n variables aléatoires X 1, X 2, . . . , X  n  ontlamêmeloi de probabilité. Pour connaître le nombre de succès, on étudie la variable aléatoire X n  :« Fréquence des succès » avec

 X n  =Nombre de succès

Nombre d’expériences aléatoires=

 X 1 + X 2 + · · ·+ X n 

n .

Normalement, on devrait trouver X n  = 16

.

– Pour n = 3, par exemple, il y a peu de chance pour que l’on trouve X 3 = 16

.

– Pour n = 30, la probabilité de trouver X 30 = 1

6augmente sans être très forte.

– Pour n = 1000, on se rapproche de cette valeur de 16

.

Le théorème dit que plus n est grand, plus X n  se rapproche de la valeur théorique 16

.

2 A NNEXE : LEÇON 10 - ÉCHANTILLONNAGE

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 3/7

b)Théorèmede la limite centrée

Soit X 1, X 2, . . . , X  n  n  variables aléatoires indépendantes ayant même espérance m et même écart-typeσ et soit X n  =

X 1+ X 2+···+ X n 

n alors pour n suffisamment grand, X n  suit

approximativement la loi normale  

m , σ n 

.

Propriété 4

Remarque. Dans la plupart des cas, on considère que n est « suffisamment grand » lorsquen  atteint quelques dizaines, par exemple lorsque n ≥ 3, mais cela dépend de la nature, dela population et du contexte de l’étude.

3 Application : lois d’échantillonnage

En statistiques, il est en général impossible d’étudier un caractère sur toute une popu-lation de taille N élevée. La théorie d’échantillonnage se pose la question suivante : « En supposant connus les paramètres statistiques de la population, que peut-on en déduire sur les échantillons prélevés dans la population? 

On suppose que ces échantillons sont prélevés au hasard et que le tirage de ces échan-

tillons est effectué avec remise. L’ensemble de ces échantillons de taille n est appelé échan-tillonnage de taille n. On peut étudier dans ces conditions :

1. la loi d’échantillonnage des moyennes ;

2. la loi d’échantillonnage des fréquences.

a) Loi d’échantillonnagedesmoyennes

Étant donné une population de taille N et X une variable aléatoire telle que ( X ) = m et σ( X ) =σ. Pour prélever les échantillons de taille n , on a procédé à n  épréuves indéepn-dantes de variables aléatoires X 1, X 2, . . . , X  n  de même loi que X.

La variable aléatoire X n  =X 1+ X 2+···+ X n 

n associe à tout échantillon de taille n  sa moyenne.

D’après le théorème de la limite centrée, pour n assez grand, on a :

La loi d’échantillonnage de taille n  de la moyenne X n , quand n  ≥ 30, peut être

approchée par la loi normale  

m , σ n 

.

Propriété 5

Exemple. Une machine fabrique des pièces en grande série. À chaque pièce tirée au hasard,on associe sa longueur exprimée en millimètres; on définit ainsi une variable aléatoire X.On suppose que X suit la loi normale  (28.20;0.027).

Soit Mn  la variable aléatoire qui à tout échantillon de taille n  associe la moyenne des

longueurs des n pièces de l’échantillon. La propriété nous dit alors que pour n assez grand :

Mn ∼ 

28.20,0.027 

Supposons que les échantillons soient de taille 100, alors M100 suit la loi (28.20,0.0027).

b) Loi d’échantillonnage des fréquences

On étudie, dans une population de taille N, un caractère X suivant une loi de BernouilliBern(p ), c’est-à-dire que les éléments possèdent une certaine propriété de fréquence p .Dans un échantillon de taille n , on répète n  fois la même épreuve de façon indépendante.

On obtient n variables aléatoires X 1, X 2, . . . , X  n  de même loi que X.La variable aléatoire f n  = X 1+ X 2+···+ X n 

n associe à tout échantillon de taille n  la fréquence

de succès sur cet échantillon.

2. Contenu de la leçon 3

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 4/7

La loi d’échantillonnage de taille n  de la fréquence f n  pour n  « assez grand » peutêtre approchée par la loi normale

 

p ;

 p (1−p )

.

Propriété 6

On convient de dire que n est « assez grand» lorsque n ≥

50.

Remarque. Ce résultat est un cas particulier du précédent en l’appliquant à m  = p  et σ = p (1−p ).

Exemple. Une urne contient 100 boules numérotées de 1 à 100, indiscernables au toucher.Lors d’un tirage aléatoire d’une boule, la probabilité d’obtenir un nombre inférieur ou égalà 37 est p = 0,37. On appelle succès l’événement qui consiste à tirer une des boules numé-rotées de 1 à 37.

Un échantillon de taille 50 est obtenu par un tirage aléatoire, avec remise, de 50 boules.On s’intéresse à la fréquence d’apparition d’un succès lors du tirage de ces 50 boules.

Soit f 50 la variable aléatoire qui à chaque échantillon de taille 50 associe sa fréquencede succès. X i  est la variable aléatoire qui à chaque échantillon associe 1 si la i e boule ap-porte un succès, 0 sinon. Les X i  sont des variables aléatoires indépendantes et suiventla même loi de Bernoulli de paramètre p  = 0,37 d’espérance E( X i ) = 0,37 et d’écart-type

σ( X ) = 

p (1−p ) = 0,48. On a :

 f 50 =X 1 + X 2 + · · ·+ X 50

50

qui a pour espérance mathématique p = 0,37 et pour écart-type 

0,37×0,6350

= 0,068.

Exemple. Une élection a eu lieu et un candidat a eu 40% des voix. On prélève un échantillonde 100 bulletins de vote. Quelle est la probabilité que, dans l’échantillon, le candidat aitentre 35% et 45% des voix?

Ici, nous avons n = 100 et p = 0,4. La variable aléatoire F correspondant à la fréquencedes votes pour le candidat dans l’échantillon vérifie donc :

F∼ 

0.4,

 0.4× 0.6

100

0.4;

 0.24

10

.

On pose T =10(F−0.4) 

0.24ainsi T

∼ (0, 1). On obtient alors par centrage et réduction :

P(0,35≤ F≤ 0,45) = P(−1,02≤ T≤ 1,02) = 2Φ(1,02)−1.

Et par lecture directe de la table de loi normale centrée-réduite Φ(1,02) = 0,8461. D’où :

P(0,35≤ F≤ 0,45) = 0,6922.

Il y a donc environ 69% de chance que, dans un échantillon de taille n  = 100, le candidatait entre 35% et 45% des voix.

Remarque. Dans l’exemple précédent, on constate que l’on dispose des informations sur

la population (ici, l’ensemble des votes) parce que l’éléction a déjà eu lieu. On en déduitdes informations sur l’échnatillon. Mais, dans la pratique, c’est souvent le phénomène ré-ciproque que l’on étudie.

4 A NNEXE : LEÇON 10 - ÉCHANTILLONNAGE

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 5/7

ComplémentsIII

1 Démonstration de la convergence vers la loi Poisson

On décompose :Ck 

n p k q n −k  = Ck n p k (1−p )n −k .

Or

Ck n p k (1−p )n −k  =

n (n −1) · · · (n −k −1)

k !p k (1−p )n −k 

=(p n )k 

k !

1− 1

1− 2

· · ·

1− k −1

(1−p )n −k .

On se place dans la situation où np reste constant et où n tend vers l’infini (par conséquentp tend vers 0).

– Lorsque n  tend vers l’infini, les termes

1− 1n 

,

1− 2n 

, . . . ,

1− k −1

tendent vers

1. le produit des termes tend également vers 1 puisqu’ils sont en nombre fini.– On a

(1−p )n −k  = (1−p )n (1−p )−k .

– Or limp →0(1−p )−k  = 1 ;

– de plus, (1−p )n  =

1− np n 

.

On trouve donc

Ck n p k (1−p )n −k → (np )k 

k !e−np .

Il s’agit de loi de probabilité d’une loi de Poisson de paramètre λ= np .

2 Une démonstration du théorème de De Moivre-Laplace

Soit Sn  une variable aléatoire de loi Bin(n , p ) où 0 < p < 1. On note S∗n  la variable nor-malisée de Sn  :

S∗n  =Sn −E(Sn )

σ(Sn )=

Sn −np  

npq .

DeMoivre-Laplace

Soit Sn  une variable aléatoire de loi Bin(n , p ) et S∗n  définie plus en haut. Pour tousréels c < d  fixés :

limn →+∞

P(c ≤ S∗n ≤ d ) = Φ (d )−Φ(c ) =  d 

2πexp−t 2

2 dt ,

où Φ est la fonction de répartition de la loi  (0,1).

Théorème1

Comme dans le cas de l’approximation par une loi de Poisson, ce theorème permet l’ap-proximation de P(a < Sn ≤b ) pour les grandes valeurs de n . Pour cela, il suffit de remarquerque la fonction x  → (x −np )/

 npq  étant croissante, on a l’équivalence :

a < Sn (ω)≤b ⇔ a −np  

npq <

Sn (ω)−np  

npq = S∗n (ω)≤ b −np 

 npq 

.

On en déduit que pour tout n ≥

1

P(a < Sn ≤ b ) = P

a −np  

npq < S∗n <

b −np  

npq 

.

3. Compléments 5

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 6/7

Lorsque n est « grand », le théorème de De Moivre-Laplace nous dit que le second membrepeut être approché par :

P

a −np  

npq < S∗n <

b −np  

npq 

Φ

b −np  

npq 

−Φ

a −np  

npq 

.

Soit X n  une suite de variables binomiales n et p . La fonction caractéristique de X n  est :

ϕ X n (t ) = (p e + q )n ,

celle de Zn  =X n −np  

np q est :

ϕZn (t ) =

p e(it )/ 

npq  + q n 

e(−it np )/ 

npq .

On calcule le logarithme de cette fonction :

lnϕZn  = n ln

(p e(it )/ 

npq  + q )− −it np  

npq = n ln

(p (e(it )/

 npq −1) + 1)

− it np  

npq .

On développe l’exponentielle au second ordre, il vient

lnϕZn  ≈ n 

p it  

npq − p t 2

2npq +

p 2t 2

2npq 

− −it np  

npq =

t 2

2q +

pt 2

2q =

t 2

2q (p −1) =− t 2

2.

On a démontré que :

lnϕZn  ≈−t 2

2

et on en déduit queϕZN ≈ e−t 2/2.

C’est la fonction caractéristique de la loi normale centrée réduite  (0,1).Une autre démonstration plus facile et plus « instructive » peut être lu dans [4, Section

7.4].

6 A NNEXE : LEÇON 10 - ÉCHANTILLONNAGE

5/10/2018 Oral CAPES Math 2012 : Lecon 10 - Echantillonage - slidepdf.com

http://slidepdf.com/reader/full/oral-capes-math-2012-lecon-10-echantillonage 7/7

Bibliographie

[1] N. D AVAL, Échantillonnage ,BTSDomotique.URL:http://mathematiques.daval.free.fr

[2] Contributeurs de Wikipédia, Loi binomiale , Wikipédia.

[3] G. COSTANTINI, Échantillonnage - Estimation , BTS 2ème année. URL : http ://baca-maths.net.

[4] C. SUQUET, Introduction au Calcul des Probabilités , L2 2007-2008.

[5] Contributeurs de Wikipédia, Théorème de Moivre-Laplace , Wikipédia.

7