cours de statistique appliqu e -...
TRANSCRIPT
Polytech’Nice Sophia, Élec 3, 2007–2008 – 1
Statistique Appliquée
Iannis Aliferis
École Polytechnique de l’Université de Nice – Sophia AntipolisPolytech’Nice Sophia
Département d’Électronique, 3e année, 2007–2008
Introduction
H Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 2
Le cours en brefH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 3
RStatistique descriptive
Statistique inférentielle
Variables aléatoires
Probabilités
Plan du coursH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 4
H Rappels sur les probabilités
différentes définitions probabilité conditionelle indépendance
H Variables aléatoires (discrètes et continues)
fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.
H Statistique descriptive
moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches
H Statistique inférentielle
estimation intervalles de confiance tests d’hypothèse
Plan du coursH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 4
H Rappels sur les probabilités
différentes définitions probabilité conditionelle indépendance
H Variables aléatoires (discrètes et continues)
fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.
H Statistique descriptive
moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches
H Statistique inférentielle
estimation intervalles de confiance tests d’hypothèse
Plan du coursH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 4
H Rappels sur les probabilités
différentes définitions probabilité conditionelle indépendance
H Variables aléatoires (discrètes et continues)
fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.
H Statistique descriptive
moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches
H Statistique inférentielle
estimation intervalles de confiance tests d’hypothèse
Plan du coursH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 4
H Rappels sur les probabilités
différentes définitions probabilité conditionelle indépendance
H Variables aléatoires (discrètes et continues)
fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.
H Statistique descriptive
moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches
H Statistique inférentielle
estimation intervalles de confiance tests d’hypothèse
Plan du coursH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 4
H Rappels sur les probabilités
différentes définitions probabilité conditionelle indépendance
H Variables aléatoires (discrètes et continues)
fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.
H Statistique descriptive
moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches
H Statistique inférentielle
estimation intervalles de confiance tests d’hypothèse
BibliographieH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 5
H Probabilités, Variables Aléatoires :
P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006
D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002
H Statistique :
T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990
R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.
H R (livres disponibles en ligne) :
E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core
Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006
BibliographieH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 5
H Probabilités, Variables Aléatoires :
P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006
D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002
H Statistique :
T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990
R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.
H R (livres disponibles en ligne) :
E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core
Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006
BibliographieH Introduction
Le cours en bref
Plan du cours
Bibliographie
Polytech’Nice Sophia, Élec 3, 2007–2008 – 5
H Probabilités, Variables Aléatoires :
P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006
D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002
H Statistique :
T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990
R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.
H R (livres disponibles en ligne) :
E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core
Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
DéfinitionsH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 7
H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω
H Exemple :
« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
Ω
A
B
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
Ω
A
B
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
Ω
A
B
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
Ω
A
B
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
Exemple : lancer deux désH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 8
Ω
A
B
H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4
EnsemblesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 9
intersection S ∩ T union S ∪ T Sc ∩ T
Sc, T ⊂ S disjoints partition
Ω
Ω
Ω
Ω
Ω
Ω
S SS
SSS
TT
T
TT
T
U
U
V
H Disjoints :⋂
i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et
⋃
i Si = ΩH De Morgan 1 : (
⋂
i Si)c =
⋃
i Sci
H De Morgan 2 : (⋃
i Si)c =
⋂
i Sci
EnsemblesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 9
intersection S ∩ T union S ∪ T Sc ∩ T
Sc, T ⊂ S disjoints partition
Ω
Ω
Ω
Ω
Ω
Ω
S SS
SSS
TT
T
TT
T
U
U
V
H Disjoints :⋂
i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et
⋃
i Si = ΩH De Morgan 1 : (
⋂
i Si)c =
⋃
i Sci
H De Morgan 2 : (⋃
i Si)c =
⋂
i Sci
EnsemblesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 9
intersection S ∩ T union S ∪ T Sc ∩ T
Sc, T ⊂ S disjoints partition
Ω
Ω
Ω
Ω
Ω
Ω
S SS
SSS
TT
T
TT
T
U
U
V
H Disjoints :⋂
i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et
⋃
i Si = ΩH De Morgan 1 : (
⋂
i Si)c =
⋃
i Sci
H De Morgan 2 : (⋃
i Si)c =
⋂
i Sci
EnsemblesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 9
intersection S ∩ T union S ∪ T Sc ∩ T
Sc, T ⊂ S disjoints partition
Ω
Ω
Ω
Ω
Ω
Ω
S SS
SSS
TT
T
TT
T
U
U
V
H Disjoints :⋂
i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et
⋃
i Si = ΩH De Morgan 1 : (
⋂
i Si)c =
⋃
i Sci
H De Morgan 2 : (⋃
i Si)c =
⋂
i Sci
EnsemblesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 9
intersection S ∩ T union S ∪ T Sc ∩ T
Sc, T ⊂ S disjoints partition
Ω
Ω
Ω
Ω
Ω
Ω
S SS
SSS
TT
T
TT
T
U
U
V
H Disjoints :⋂
i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et
⋃
i Si = ΩH De Morgan 1 : (
⋂
i Si)c =
⋃
i Sci
H De Morgan 2 : (⋃
i Si)c =
⋂
i Sci
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
Modèle probabilisteH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 10
1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.
H Définition classique (Laplace)
P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles
H Définition intuitive (fréquence relative)
P (A) = limn→∞
Nn(A)
n
H Définition axiomatique (Kolmogorov)
1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
PropriétésH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 11
1. P (Ac) = 1 − P (A)
dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅
= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)
H Interprétation graphique :
P (A) ≤ P (B) P (A ∪ B)
A ∩ BAc ∩ B
Ω Ω
AA
B B
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
Probabilité conditionnelleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.
H Exemple : lancer deux dés
Ω
A
B
H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables
H P (A) = 536
H P (B) = 936
H P (A|B) = 29 = 2/36
9/36H
P (A|B) =P (A ∩ B)
P (B)
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =H P (Fumeurs) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654654Femmes 289 384 673
Total 629 698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673673
Total 629 698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629629 698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) =
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340340 314 654Femmes 289 384 673
Total 629 698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) =
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340340 314 654654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) = 340/654 = 0.53
H P (Fumeurs|Femmes) =
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289289 384 673673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) = 340/654 = 0.53
H P (Fumeurs|Femmes) = 289/673 = 0.43
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
Fréquences relativesFumeurs Non fumeurs Total
Hommes 0.26 0.24 0.49
Femmes 0.22 0.29 0.51
Total 0.47 0.53 1
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49
H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
Fréquences relativesFumeurs Non fumeurs Total
Hommes 0.260.26 0.24 0.49
Femmes 0.22 0.29 0.51
Total 0.47 0.53 1
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes)P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.260.26/0.49
H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
Fréquences relativesFumeurs Non fumeurs Total
Hommes 0.26 0.24 0.490.49
Femmes 0.22 0.29 0.51
Total 0.47 0.53 1
H P (Hommes)P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.490.49
H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51
[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 12
Source : INPES, baromètre santé 2000
Fréquences relativesFumeurs Non fumeurs Total
Hommes 0.26 0.24 0.49
Femmes 0.22 0.29 0.51
Total 0.47 0.53 1
H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26
H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49
H P (Fumeurs|Femmes)P (Fumeurs|Femmes) = 289/673 = 0.430.43 = 0.22/0.51
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Un nouvel Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 13
H La probabilité conditionnelle satisfait les trois axiomes :
1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω
2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)
H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)
H On peut remplacer 3. par3’. P (B|B) = P (B∩B)
P (B) = 1 (univers B)
H P (A|B) : loi de probabilité ; univers : Ω → B !
H Approche séquentielle :
P (A ∩ B) = P (B)P (A|B)
P (⋂n
i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(
An|⋂n−1
i=1 Ai
)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) =
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
H Quelle est la probabilité qu’un avion ne soit pas détecté ?
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) =
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S)
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S) = P (S)[1 − P (T |S)]
Exemple : fausse alarme
Polytech’Nice Sophia, Élec 3, 2007–2008 – 14
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095
H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S) = P (S)[1 − P (T |S)] = 0.05 · 0.01 = 0.0005
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai)
Théorème de probabilité totaleH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
Ω
B
A1
A4
A2
A3
H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)
= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)
H P (B) =n∑
i=1
P (Ai)P (B|Ai) Diviser pour régner !
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) =
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S)
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S)
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S) + [1 − P (S)]P (T |Sc)
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950= 0.1445
[Extra] Exemple : fausse alarme (suite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 15
H Système radar
Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)
H Quelle est la probabilité d’une alarme ?P (T )P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)
= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950= 0.14450.1445
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
Théorème de BayesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)
P (A|B) = P (A)P (B|A)
P (B)
H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω
P (Ai|B) = P (Ai)P (B|Ai)
P (B)
P (Ai|B) =P (Ai)P (B|Ai)
∑ni=1 P (Ai)P (B|Ai)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53/0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes)P (Hommes) = 654/1327 = 0.490.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.490.49 · 0.53/0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.530.53/0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs)P (Fumeurs) = 629/1327 = 0.470.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53/0.470.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340340 314 654654Femmes 289 384 673
Total 629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53/0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629629 698 13271327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs)P (Fumeurs) = 629/1327 = 0.470.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)P (Fumeurs)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340340 314 654Femmes 289 384 673
Total 629629 698 1327
H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs)P (Hommes|Fumeurs) = 340/629 = 0.540.54 = 0.26/0.47
= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)H P (Hommes|Fumeurs)P (Hommes|Fumeurs)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 16
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654654Femmes 289 384 673
Total 629 698 13271327
H P (Hommes)P (Hommes) = 654/1327 = 0.490.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47
= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)H P (Hommes|Fumeurs) > P (Hommes)P (Hommes)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
P (B|A3) > P (B)
Ω
B
A1
A4
A2
A3
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
P (B|A3) > P (B)
Ω
B
A1
A4
A2
A3
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
P (B|A3) > P (B)
Ω
B
A1
A4
A2
A3
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
P (B|A3) > P (B)
Ω
B
A1
A4
A2
A3
Inférence bayésienne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 17
1. P (Ai|B) = P (Ai)P (B|Ai)
P (B)
H P (Ai) : a priori
H P (Ai|B) : a posteriori
H P (Ai|B) > P (Ai)
si P (B|Ai) > P (B)
2. P (Ai|B) = P (Ai)P (B|Ai)Pn
i=1 P (Ai)P (B|Ai)
H P (Ai)P (B|Ai) = P (B ∩ Ai)
H P (Ai|B) ∝ P (B ∩ Ai)
P (B|A3) < P (B)
Ω
B
A1
A4
A2
A3
P (B|A3) > P (B)
Ω
B
A1
A4
A2
A3
P (A2|B) > P (A1|B) > P (A4|B) > P (A3|B)
Ω
B
A1
A4
A2
A3
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
IndépendanceH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
1. Entre deux événements A et B :
H P (A ∩ B) = P (A)P (B)
H si P (B) 6= 0, P (A|B) =P (A ∩ B)
P (B)= P (A)
2. Entre deux événements A et B,
conditionnés par C, (P (C) 6= 0) :
H P (A ∩ B|C) = P (A|C)P (B|C)
H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)
3. Entre plusieurs événements A1, A2, . . . , An :
H P(⋂
i∈S Ai
)=
∏
i∈S P (Ai)
pour chaque S, sous-ensemble de 1, 2, . . . , n
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53H P (Fumeurs|Hommes) 6= P (Fumeurs)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53H P (Fumeurs|Hommes) 6= P (Fumeurs)H Fumeur et Homme dépendants !
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
FréquencesFumeurs Non fumeurs Total
Hommes 340 314 654Femmes 289 384 673
Total 629 698 1327
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)H Fumeur et Homme indépendants !
[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
Source : INPES, baromètre santé 2000
Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total
Hommes 310310 344344 654Femmes 319319 354354 673
Total 629 698 1327
H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)H Fumeur et Homme indépendants !
(Comment faire pour trouver la modification ?)
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants :
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs :
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0P (A ∩ B) = 0
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0
P (A|B) = 0
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0
P (A|B) = 0 et P (B|A) = 0
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0
P (A|B) = 0 et P (B|A) = 0rappel : P (A ∪ B) = P (A) + P (B)
[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 18
H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?
Ω
A
B
H Indépendants : P (A ∩ B) = P (A)P (B)P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0
P (A|B) = 0 et P (B|A) = 0rappel : P (A ∪ B) = P (A) + P (B)P (A ∪ B) = P (A) + P (B)
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Quelques stratégiesH Rappels sur lesProbabilités
DéfinitionsExemple: lancerdeux dés
EnsemblesModèleprobabiliste
Propriétés
Probabilitéconditionnelle
Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale
Théorème deBayes
Inférencebayésienne
Indépendance
QuelquesstratégiesCompter =multiplier. . .
. . . ou diviser!
Polytech’Nice Sophia, Élec 3, 2007–2008 – 19
H Définir Ω
H . . . ou juste compter ses éléments. . .
H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)
H Approche séquentielle (+ indépendance)
H Probabilité totale (trouver une partition)
H P (B|A) −→ P (A|B) : Bayes
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objets
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2)
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . .
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi n
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2)
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . .
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)]
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!
(n − k)!
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!
(n − k)!= nCk
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!
(n − k)!= nCk k!
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!
(n − k)!= nCk k!
(nPn = n!
Compter = multiplier. . .
Polytech’Nice Sophia, Élec 3, 2007–2008 – 20
H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :
N = N1N2 . . . NM =M∏
i=1
Ni
1. Permutations de n objetsH
n(n − 1)(n − 2) . . . 2 · 1 = n!
2. Permutations de k objets choisis parmi nH
nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!
(n − k)!= nCk k!
(nPn = n! −→ 0! = 1)
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape)
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutations
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts (identiques
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons)
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!H répéter pour tous les groupes d’objets
. . . ou diviser !
Polytech’Nice Sophia, Élec 3, 2007–2008 – 21
3. Combinaisons de k objets choisis parmi n
H
nCk =
(n
k
)
=nPk
k!=
n!
k!(n − k)!
4. Repartitions de n objets dans n1, n2, . . . , nr groupes
H (n
n1, n2, . . . , nr
)
=n!
n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)
Méthode générale (par étape) :
H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!H répéter pour tous les groupes d’objets
Multiplier pour toutes les étapes.
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
DéfinitionH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 23
H Associer une valeur réelle x à chaque issue ω
d’une expérience aléatoireH Variable aléatoire discrète (VAD) :
Nombre de valeurs possibles : fini ou infini dénombrable
Ω
Rx
H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :
P ( X = x︸ ︷︷ ︸
événement ∈ Ω
)simpl.= P (X = x) , pX(x)
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoire
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN identiquement distribuées :
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN identiquement distribuées :
1. représente, chacune, la même expérience aléatoire
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN identiquement distribuées :
1. représente, chacune, la même expérience aléatoireet la même association Ω → R
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN identiquement distribuées :
1. représente, chacune, la même expérience aléatoireet la même association Ω → R
2. est, chacune, à usage unique
V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 24
1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x
H Une v.a. X :
1. représente une expérience aléatoireet une association Ω → R
2. est à usage unique : une seule expérience effectuée !
H N v.a. X1, X2, . . . , XN identiquement distribuées :
1. représente, chacune, la même expérience aléatoireet la même association Ω → R
2. est, chacune, à usage unique :la même expérience répetée N fois !
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximale
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Ω
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Ω
1 2 3 4 5 60
0.05
0.1
0.15
0.2
0.25
0.3
0.35
1 / 36
3 / 36
5 / 36
7 / 36
9 / 36
11 / 36
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Ω
1 2 3 4 5 60
0.05
0.1
0.15
0.2
0.25
0.3
0.35
1 / 36
3 / 36
5 / 36
7 / 36
9 / 36
11 / 36
H⋂
xX = x = ∅
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Ω
1 2 3 4 5 60
0.05
0.1
0.15
0.2
0.25
0.3
0.35
1 / 36
3 / 36
5 / 36
7 / 36
9 / 36
11 / 36
H⋂
xX = x = ∅H
⋃
xX = x = Ω
Une partition naturelle de l’Univers
Polytech’Nice Sophia, Élec 3, 2007–2008 – 25
H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3
36
Ω
1 2 3 4 5 60
0.05
0.1
0.15
0.2
0.25
0.3
0.35
1 / 36
3 / 36
5 / 36
7 / 36
9 / 36
11 / 36
H⋂
xX = x = ∅H
⋃
xX = x = ΩH Les événements X = x forment une partition de Ω
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x)
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x)
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω)
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
H Comment calculer pX(x) :
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
H Comment calculer pX(x) :
1. Trouver les valeurs possibles
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
H Comment calculer pX(x) :
1. Trouver les valeurs possibles ; indiquer les valeurs impossibles
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
H Comment calculer pX(x) :
1. Trouver les valeurs possibles ; indiquer les valeurs impossibles2. Répérer les issues ωi constituant l’événement X = x
Fonction de Probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 26
H Normalisation :∑
x pX(x) =∑
x P (X = x) disj.= P (
⋃
xX = x) part.= P (Ω) = 1
H P (X ∈ S) disj.=
∑
x∈S pX(x)
Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7
36
H Comment calculer pX(x) :
1. Trouver les valeurs possibles ; indiquer les valeurs impossibles2. Répérer les issues ωi constituant l’événement X = x3. Additionner les probabilités P (ωi)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|
−3 −2 −1 0 1 2 3
pX(x)
α
2α
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|
−3 −2 −1 0 1 2 3
pX(x)
α
2α
0 1 2 3
pY (y)
α
2α
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|
−3 −2 −1 0 1 2 3
pX(x)
α
2α
0 1 2 3
pY (y)
α
2α
H Normalisation :
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 27
H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)
H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y
) disj.=
∑
x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|
−3 −2 −1 0 1 2 3
pX(x)
α
2α
0 1 2 3
pY (y)
α
2α
H Normalisation : α = 1/7
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
moyenne = x1+x2+...+xnn
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
moyenne = x1+x2+...+xnn
regrouper=
x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))
n
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
moyenne = x1+x2+...+xnn
regrouper=
x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))
n
−→n→∞
x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
moyenne = x1+x2+...+xnn
regrouper=
x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))
n
−→n→∞
x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))
=∑
x xpX(x)
Espérance de X
H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 28
H v.a.d. X ; m valeurs possibles
H classement par ordre : x(1) < x(2) < . . . < x(m)
H Comment calculer une valeur « moyenne » ?
1. Répéter la même expérience n fois !
(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)
2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :
moyenne = x1+x2+...+xnn
regrouper=
x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))
n
−→n→∞
x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))
=∑
x xpX(x) , E[X]
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »
H Variancevar[X] = σ2
X = E[(X − E[X])2
]≥ 0
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »
H Variancevar[X] = σ2
X = E[(X − E[X])2
]≥ 0
H Écart-type
σX =√
var[X]
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »
H Variancevar[X] = σ2
X = E[(X − E[X])2
]≥ 0
H Écart-type
σX =√
var[X]
H n-ième moment (moment d’ordre n) : E[Xn]
Grandeurs statistiquesH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Espérance
µX = E[X] =∑
x
xpX(x)
centre de gravité de la distribution :∑
x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »
H Variancevar[X] = σ2
X = E[(X − E[X])2
]≥ 0
H Écart-type
σX =√
var[X]
H n-ième moment (moment d’ordre n) : E[Xn]H n-ième moment centré : E[(X − E[X])n]
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, F
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
E[X] = p
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
E[X] = p
(x − E[X])2
(1 − p)2
(0 − p)2
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
E[X] = p
(x − E[X])2
(1 − p)2
(0 − p)2
(x − E[X])2pX(x)
(1 − p)2pp2(1 − p)
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
E[X] = p
(x − E[X])2
(1 − p)2
(0 − p)2
(x − E[X])2pX(x)
(1 − p)2pp2(1 − p)
var[X] = p(1 − p)
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »
x
10
pX(x)
p1 − p
∑= 1
xpX(x)
p0
E[X] = p
(x − E[X])2
(1 − p)2
(0 − p)2
(x − E[X])2pX(x)
(1 − p)2pp2(1 − p)
var[X] = p(1 − p)
σX =√
p(1 − p)
[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
p : probabilité de succès à un essai
Esp
éran
ce /
écar
t−ty
pe
E[X]
σX
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
E[Y ] = 12α
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
E[Y ] = 12α
y
0123
pY (y)
α2α2α2α
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
E[Y ] = 12α
y
0123
pY (y)
α2α2α2α
∑= 1
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
E[Y ] = 12α
y
0123
pY (y)
α2α2α2α
∑= 1
ypY (y)
02α4α6α
[Etra] Espérance de g(X)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 29
H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|
x
−3−2−1
0123
pX(x)
ααααααα
∑= 1
xpX(x)
−3α−2α−1α
01α2α3α
E[X] = 0
y
3210123
ypX(x)
3α2α1α0
1α2α3α
E[Y ] = 12α
y
0123
pY (y)
α2α2α2α
∑= 1
ypY (y)
02α4α6α
E[Y ] = 12α
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Espérance de g(X)H VariableAléatoire Discrète(une seule)
DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.
Espérance de X
Grandeursstatistiques
Espérance deg(X)
Fonction linéaireCalcul de lavariance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 30
H
E[g(X)] =∑
x
g(x)pX(x)
H Y = g(X) , pY (y) =∑
x|g(x)=y pX(x)
H E[g(X)] = E[Y ]
=∑
y ypY (y)
=∑
y y∑
x|g(x)=y pX(x)
=∑
y
∑
x|g(x)=y ypX(x)
=∑
y
∑
x|g(x)=y g(x)pX(x)
=∑
x g(x)pX(x)
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x)
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b] = E[
(aX + b − E[aX + b])2]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b] = E[
(aX + b − E[aX + b])2]
= E[
(aX + b − aE[X] − b)2]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b] = E[
(aX + b − E[aX + b])2]
= E[
(aX + b − aE[X] − b)2]
= E[
(aX − aE[X])2]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b] = E[
(aX + b − E[aX + b])2]
= E[
(aX + b − aE[X] − b)2]
= E[
(aX − aE[X])2]
= a2E[
(X − E[X])2]
Fonction linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 31
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b] =∑
x (ax + b)pX(x) = a∑
x xpX(x) + b∑
x pX(x)= aE[X] + b
H var[Y ] = var[aX + b] = E[
(aX + b − E[aX + b])2]
= E[
(aX + b − aE[X] − b)2]
= E[
(aX − aE[X])2]
= a2E[
(X − E[X])2]
= a2var[X]
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
Calcul de la variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 32
H
var[X] = E[X2
]− (E[X])2 ≥ 0
H var[X] = E[(X − E[X])2
]=
∑
x (x − E[X])2pX(x)
=∑
x x2 − 2xE[X] + (E[X])2pX(x)
=∑
x x2pX(x) − 2E[X]∑
x xpX(x) + (E[X])2∑
x pX(x)
= E[X2
]− 2(E[X])2 + (E[X])2 = E
[X2
]− (E[X])2
H var[X] = E[(X − E[X]︸ ︷︷ ︸
cste
)2] = E[
X2 − 2XE[X] + (E[X])2]
= E[X2
]− 2E[X] E[X] + (E[X])2 = E
[X2
]− (E[X])2
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
E[X] = 21/6 = 3.5
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
E[X] = 21/6 = 3.5
y
123456
pY (y)
1/363/365/367/369/3611/36
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
E[X] = 21/6 = 3.5
y
123456
pY (y)
1/363/365/367/369/3611/36∑
= 1
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
E[X] = 21/6 = 3.5
y
123456
pY (y)
1/363/365/367/369/3611/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :
X : la valeur du premier déY : la valeur maximale des deux dés
x
123456
pX(x)
1/61/61/61/61/61/6
∑= 1
xpX(x)
1/62/63/64/65/66/6
E[X] = 21/6 = 3.5
y
123456
pY (y)
1/363/365/367/369/3611/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ] = 161/36 ≈ 4.47
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Variables aléatoires :X : la valeur du premier déY : la valeur maximale des deux dés
P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1
2
3
4
5
6
pY (y)∑
= 1
[Extra] Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 33
H Variables aléatoires :X : la valeur du premier déY : la valeur maximale des deux dés
P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/36 1/36 1/36 1/36 1/36 1/36 1/6
2 0 2/36 1/36 1/36 1/36 1/36 1/6
3 0 0 3/36 1/36 1/36 1/36 1/6
4 0 0 0 4/36 1/36 1/36 1/6
5 0 0 0 0 5/36 1/36 1/6
6 0 0 0 0 0 6/36 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H X, Y : V.A. associées à la même expérience aléatoire
H Fonction de probabilité conjointe :
pXY (x, y) , P ( X = x︸ ︷︷ ︸
événement ∈ Ω
∩ Y = y︸ ︷︷ ︸
événement ∈ Ω
)sim.= P (X = x, Y = y)
H P ((X, Y ) ∈ A) =∑
(x,y)∈A pXY (x, y)
H Fonctions de probabilité marginales :
pX(x) =∑
y pXY (x, y) , pY (y) =∑
x pXY (x, y)
H Z = g(X, Y ) , pZ(z) =∑
(x,y)|g(x,y)=z pXY (x, y)
E[Z] = E[g(X, Y )] =∑
x
∑
y g(x, y)pXY (x, y)
E[aX + bY + c] = aE[X] + bE[Y ] + c
H Généralisation à n variables aléatoires
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux dés
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
02/181/185/182/188/18
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
02/181/185/182/188/18
∑= 1
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
02/181/185/182/188/18
∑= 1
ypY |B(y)
04/183/18
20/1810/1848/18
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
02/181/185/182/188/18
∑= 1
ypY |B(y)
04/183/18
20/1810/1848/18
E[Y |B]≈ 4.72
[Extra] V.A. conditionnée par un évenement
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair
y
123456
pY (y)
1/363/365/367/369/36
11/36∑
= 1
ypY (y)
1/366/36
15/3628/3645/3666/36
E[Y ]≈ 4.47
pY |A(y)
1/181/184/182/187/183/18
∑= 1
ypY |A(y)
1/182/18
12/188/18
35/1818/18
E[Y |A]≈ 4.22
pY |B(y)
02/181/185/182/188/18
∑= 1
ypY |B(y)
04/183/18
20/1810/1848/18
E[Y |B]≈ 4.72
H E[Y ] = 12E[Y |A] + 1
2E[Y |B]
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
123456
pY (y)∑
= 1
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pXY (x, y) , P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/36 1/36 1/36 1/36 1/36 1/36 1/62 0 2/36 1/36 1/36 1/36 1/36 1/63 0 0 3/36 1/36 1/36 1/36 1/64 0 0 0 4/36 1/36 1/36 1/65 0 0 0 0 5/36 1/36 1/66 0 0 0 0 0 6/36 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y]
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 11 1/3 1/5 1/7 1/9 1/11 1/622 00 2/3 1/5 1/7 1/9 1/11 1/633 00 0 3/5 1/7 1/9 1/11 1/644 00 0 0 4/7 1/9 1/11 1/655 00 0 0 0 5/9 1/11 1/666 00 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 11
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/31/3 1/5 1/7 1/9 1/11 1/622 0 2/32/3 1/5 1/7 1/9 1/11 1/633 0 00 3/5 1/7 1/9 1/11 1/644 0 00 0 4/7 1/9 1/11 1/655 0 00 0 0 5/9 1/11 1/666 0 00 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/35/3
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/3 1/51/5 1/7 1/9 1/11 1/622 0 2/3 1/51/5 1/7 1/9 1/11 1/633 0 0 3/53/5 1/7 1/9 1/11 1/644 0 0 00 4/7 1/9 1/11 1/655 0 0 00 0 5/9 1/11 1/666 0 0 00 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/512/5
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/3 1/5 1/71/7 1/9 1/11 1/622 0 2/3 1/5 1/71/7 1/9 1/11 1/633 0 0 3/5 1/71/7 1/9 1/11 1/644 0 0 0 4/74/7 1/9 1/11 1/655 0 0 0 00 5/9 1/11 1/666 0 0 0 00 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/722/7
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/3 1/5 1/7 1/91/9 1/11 1/622 0 2/3 1/5 1/7 1/91/9 1/11 1/633 0 0 3/5 1/7 1/91/9 1/11 1/644 0 0 0 4/7 1/91/9 1/11 1/655 0 0 0 0 5/95/9 1/11 1/666 0 0 0 0 00 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/935/9
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/3 1/5 1/7 1/9 1/111/11 1/622 0 2/3 1/5 1/7 1/9 1/111/11 1/633 0 0 3/5 1/7 1/9 1/111/11 1/644 0 0 0 4/7 1/9 1/111/11 1/655 0 0 0 0 5/9 1/111/11 1/666 0 0 0 0 0 6/116/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/1151/11
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ??
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y)pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y]E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y]pY (y)E[X|Y =y]
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/361/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 11 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/361/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/363/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/35/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/365/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/365/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/512/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/3612/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/367/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/722/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/3622/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/369/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/935/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/3635/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/3611/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/1151/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/3651/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y]pY (y)E[X|Y =y] 1/361/36 5/365/36 12/3612/36 22/3622/36 35/3635/36 51/3651/36P
=126/36P
=126/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1 1/3 1/5 1/7 1/9 1/11 1/61/622 0 2/3 1/5 1/7 1/9 1/11 1/61/633 0 0 3/5 1/7 1/9 1/11 1/61/644 0 0 0 4/7 1/9 1/11 1/61/655 0 0 0 0 5/9 1/11 1/61/666 0 0 0 0 0 6/11 1/61/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P
=126/36P
=126/36
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P
=126/36
H E[X] =∑
y pY (y)E[X|Y = y]
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P
=126/36
H E[X] =∑
y pY (y)E[X|Y = y] = E[ E[X|Y = y] ]
[Extra] V.A. conditionnée par une autre V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 34
H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés
pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?
pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P
=126/36
H E[X] =∑
y pY (y)E[X|Y = y]E[X|Y = y] = E[ E[X|Y = y]E[X|Y = y] ]
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = A
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y) ⇒ ∑
x pX|Y (x|y) = 1
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y) ⇒ ∑
x pX|Y (x|y) = 1Approche séquentielle :
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y) ⇒ ∑
x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y) ⇒ ∑
x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y) = pX(x)pY |X(y|x)
V.A. conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 35
H V.A. conditionnée par un événement A, P (A) 6= 0
pX|A(x) = P (X = x|A) =P (X = x ∩ A)
P (A)⋂
x (X = x ∩ A) = ∅ ,⋃
x (X = x ∩ A) = AP (A) =
∑
x P (X = x ∩ A) ⇒ ∑
x pX|A(x) = 1H V.A. conditionnée par une autre V.A.
pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸
pY (y) 6=0
)=P (X = x ∩ Y = y)
P (Y = y) =pXY (x, y)
pY (y)
pY (y) =∑
x pXY (x, y) ⇒ ∑
x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y) = pX(x)pY |X(y|x) = pY (y)pX|Y (x|y)
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 36
H E[X|A] ,∑
x xpX|A(x)
H E[g(X)|A] =∑
x g(x)pX|A(x)
H E[X|Y = y] ,∑
x xpX|Y (x|y)
H E[X] =∑
y pY (y)E[X|Y = y] (théorème d’espérance totale)
H A1, . . . , An : partition de Ω, P (Ai) 6= 0
E[X] =∑n
i=1 P (Ai)E[X|Ai]
H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0
E[X|B] =∑n
i=1 P (Ai|B)E[X|Ai ∩ B]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Indépendance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
H Entre une V.A. X et un événement A :
P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x
H Entre deux V.A. X et Y :
pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1
2
3
4
5
6
pY (y)∑
= 1
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216
2 1/216 3/216 5/216 7/216 9/216 11/216
3 1/216 3/216 5/216 7/216 9/216 11/216
4 1/216 3/216 5/216 7/216 9/216 11/216
5 1/216 3/216 5/216 7/216 9/216 11/216
6 1/216 3/216 5/216 7/216 9/216 11/216
pY (y)∑
= 1
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y)∑
= 1
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantes
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y)
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 11 2 3 4 5 6 pX(x)
11 1/2161/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 12161 · 1 · 1216
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 22 3 4 5 6 pX(x)
11 1/216 3/2163/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
2161 · 2 · 3216
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 66 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
66 1/216 3/216 5/216 7/216 9/216 11/21611/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
216 + . . . + 6 · 6 · 112166 · 6 · 11216
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
216 + . . . + 6 · 6 · 11216
ind.= E[X] E[Y ]
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
22 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
33 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
44 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
55 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
66 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
216 + . . . + 6 · 6 · 11216
ind.= E[X] E[Y ] =
(1 · 1
6 + . . . + 6 · 161 · 1
6 + . . . + 6 · 16
)
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 11 22 33 44 55 66 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/361/36 3/363/36 5/365/36 7/367/36 9/369/36 11/3611/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
216 + . . . + 6 · 6 · 11216
ind.= E[X] E[Y ] =
(1 · 1
6 + . . . + 6 · 16
) (1 · 1
36 + . . . + 6 · 11361 · 1
36 + . . . + 6 · 1136
)
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =
∑
x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3
216 + . . . + 6 · 6 · 11216
ind.= E[X] E[Y ] =
(1 · 1
6 + . . . + 6 · 16
) (1 · 1
36 + . . . + 6 · 1136
)
= 216 · 161
36 ≈ 15.65
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ]
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 11 2 3 4 5 6 pX(x)
11 1/2161/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216(1 + 1)2 · 1216
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 66 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
66 1/216 3/216 5/216 7/216 9/216 11/21611/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216(6 + 6)2 · 11216
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36216 + 161
36
)2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ]
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]2 + E
[Y 2
]− E[Y ]2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
11 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
22 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
33 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
44 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
55 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
66 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]E
[X2
]− E[X]2 + E
[Y 2
]− E[Y ]2
=(12 · 1
6 + . . . + 62 · 1612 · 1
6 + . . . + 62 · 16
)
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]E[X]2 + E
[Y 2
]− E[Y ]2
=(12 · 1
6 + . . . + 62 · 16
)−
(216216
)2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 11 22 33 44 55 66 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/361/36 3/363/36 5/365/36 7/367/36 9/369/36 11/3611/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]2 + E
[Y 2
]E
[Y 2
]− E[Y ]2
=(12 · 1
6 + . . . + 62 · 16
)−
(216
)2+
(12 · 1
36 + . . . + 62 · 113612 · 1
36 + . . . + 62 · 1136
)
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]2 + E
[Y 2
]− E[Y ]E[Y ]2
=(12 · 1
6 + . . . + 62 · 16
)−
(216
)2+
(12 · 1
36 + . . . + 62 · 1136
)−
(1613616136
)2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]2 + E
[Y 2
]− E[Y ]2
=(12 · 1
6 + . . . + 62 · 16
)−
(216
)2+
(12 · 1
36 + . . . + 62 · 1136
)−
(16136
)2
= 916 −
(216
)2+ 791
36 −(
16136
)2
[Extra] Deux variables aléatoires indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 37
pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)
1 1/216 3/216 5/216 7/216 9/216 11/216 1/6
2 1/216 3/216 5/216 7/216 9/216 11/216 1/6
3 1/216 3/216 5/216 7/216 9/216 11/216 1/6
4 1/216 3/216 5/216 7/216 9/216 11/216 1/6
5 1/216 3/216 5/216 7/216 9/216 11/216 1/6
6 1/216 3/216 5/216 7/216 9/216 11/216 1/6
pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑
= 1
H var[X + Y ] = E[(X + Y − E[X + Y ])2
]= E
[(X + Y )2
]− E[X + Y ]2
=(1 + 1)2 · 1
216 + . . . + (6 + 6)2 · 11216
−
(216 + 161
36
)2
ind.= var[X] + var[Y ] = E
[X2
]− E[X]2 + E
[Y 2
]− E[Y ]2
=(12 · 1
6 + . . . + 62 · 16
)−
(216
)2+
(12 · 1
36 + . . . + 62 · 1136
)−
(16136
)2
= 916 −
(216
)2+ 791
36 −(
16136
)2 ≈ 4.89
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)
(fonction de concantenation ; on la trouve partout !)
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)
(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”
(esp.x.fois.y n’est qu’un nom de variable !)
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)
(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”
(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :
?nom_de_la_commande ouhelp(nom_de_la_commande)
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)
(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”
(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :
?nom_de_la_commande ouhelp(nom_de_la_commande)
5. Un document très utile :Short-refcard.pdf (4 pages)
Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
Cliquer sur le logo pour télécharger le script R !H R en 5 points
1. x <- 5 équivalent à x = 5
(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)
(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”
(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :
?nom_de_la_commande ouhelp(nom_de_la_commande)
5. Un document très utile :Short-refcard.pdf (4 pages)(plus la documentation proposée en bibliographie)
[Extra] Fonction de probabilité / Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
1 2 3 4 5 6
0.10
0.14
0.18
0.22
x
px E[X]
1 2 3 4 5 6
0.0
0.2
0.4
0.6
0.8
1.0
x
FX(x
)
pX(5)
Fonction de probabilité, pX(x) = P (X = x)
Fonction de répartition, FX(x) = P (X ≤ x)
[Extra] Fonction de probabilité / Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 38
1 2 3 4 5 6
0.05
0.15
0.25
y
py
E[Y]
1 2 3 4 5 6
0.0
0.2
0.4
0.6
0.8
1.0
y
FY(y
) pY(5)
Fonction de probabilité, pY (y) = P (Y = y)
Fonction de répartition, FY (y) = P (Y ≤ y)
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x)
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k))
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Monotone croissante (au sens large) :
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1
Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 39
H
FX(x) , P (X ≤ x) =∑
x′≤x
pX(x′)
H Classement par ordre : x(1) < x(2) < . . . < x(m)
FX(x(k)) = P (X ≤ x(k)) =k∑
i=1
pX(x(i))
H Propriétés :
FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−
(k)) = pX(x(k))
Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1 FX(x2) − FX(x1) = P (x1 < X ≤ x2)
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoire
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Si oui :
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Si oui :
y = ax + b (les valeurs des v.a.)
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Si oui :
y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Si oui :
y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)
H Comment « mesurer » la dépendance linéaire ?
Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a.?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40
H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?
Si oui :
y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)
H Comment « mesurer » la dépendance linéaire ?H Exemple :
Expérience aléatoire : lancer deux désX : la valeur du premier déY : la valeur maximale des deux dés
Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 41
−4 −2 0 2 4 6
−4
−2
02
46
x
y
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 41
−4 −2 0 2 4 6
−4
−2
02
46
x
y
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
E[X]
E[Y]
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 41
−4 −2 0 2 4 6
−4
−2
02
46
x
y
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
E[X]
E[Y]
a=0.71; b=2
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 41
−4 −2 0 2 4 6
−4
−2
02
46
x
y
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
E[X]
E[Y]
a=0.71; b=2
a=−0.44; b=6
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 42
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]
Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 42
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
a=0.71
a=−0.44
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′
Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 42
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
a=0.71
a=−0.44
8.68
6.18
3.68
1.18
−1.32
−3.82
3.71
2.21
0.71
−0.79
−2.29
0.74
0.24
−0.26
−0.76
−0.24
0.26
0.76
0.79
2.29 3.82
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′
x′y′ =?
Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 42
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
a=0.71
a=−0.44
8.68
6.18
3.68
1.18
−1.32
−3.82
3.71
2.21
0.71
−0.79
−2.29
0.74
0.24
−0.26
−0.76
−0.24
0.26
0.76
0.79
2.29 3.82
1/36
8.68
1/36
6.18
1/36
3.68
1/36
1.18
1/36
−1.32
1/36
−3.82
x
2/36
3.71
1/36
2.21
1/36
0.71
1/36
−0.79
1/36
−2.29
x
x
3/36
0.74
1/36
0.24
1/36
−0.26
1/36
−0.76
x
x
x
4/36
−0.24
1/36
0.26
1/36
0.76
x
x
x
x
5/36
0.79
1/36
2.29
x
x
x
x
x
6/36
3.82
a=0.71
a=−0.44
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′
x′y′ =?
Relation linéaire ? (conclusion)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 43
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
a=0.71
a=−0.44
8.68
6.18
3.68
1.18
−1.32
−3.82
3.71
2.21
0.71
−0.79
−2.29
0.74
0.24
−0.26
−0.76
−0.24
0.26
0.76
0.79
2.29 3.82
1/36
8.68
1/36
6.18
1/36
3.68
1/36
1.18
1/36
−1.32
1/36
−3.82
x
2/36
3.71
1/36
2.21
1/36
0.71
1/36
−0.79
1/36
−2.29
x
x
3/36
0.74
1/36
0.24
1/36
−0.26
1/36
−0.76
x
x
x
4/36
−0.24
1/36
0.26
1/36
0.76
x
x
x
x
5/36
0.79
1/36
2.29
x
x
x
x
x
6/36
3.82
a=0.71
a=−0.44
(x − E[X]) (y − E[Y]) > 0
(x − E[X]) (y − E[Y]) > 0
(x − E[X]) (y − E[Y]) < 0
(x − E[X]) (y − E[Y]) < 0
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′
x′y′ =?
Relation linéaire ? (conclusion)H VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 43
−4 −2 0 2 4 6
−4
−2
02
46
x’ = x − E[X]
y’ =
y −
E[Y
]
1/36
1/36
1/36
1/36
1/36
1/36
x
2/36
1/36
1/36
1/36
1/36
x
x
3/36
1/36
1/36
1/36
x
x
x
4/36
1/36
1/36
x
x
x
x
5/36
1/36
x
x
x
x
x
6/36
a=0.71
a=−0.44
8.68
6.18
3.68
1.18
−1.32
−3.82
3.71
2.21
0.71
−0.79
−2.29
0.74
0.24
−0.26
−0.76
−0.24
0.26
0.76
0.79
2.29 3.82
1/36
8.68
1/36
6.18
1/36
3.68
1/36
1.18
1/36
−1.32
1/36
−3.82
x
2/36
3.71
1/36
2.21
1/36
0.71
1/36
−0.79
1/36
−2.29
x
x
3/36
0.74
1/36
0.24
1/36
−0.26
1/36
−0.76
x
x
x
4/36
−0.24
1/36
0.26
1/36
0.76
x
x
x
x
5/36
0.79
1/36
2.29
x
x
x
x
x
6/36
3.82
a=0.71
a=−0.44
(x − E[X]) (y − E[Y]) > 0
(x − E[X]) (y − E[Y]) > 0
(x − E[X]) (y − E[Y]) < 0
(x − E[X]) (y − E[Y]) < 0
Y?= aX + b
Si oui :y = ax + bE[Y ] = aE[X] + b
X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′
x′y′ =?
E[X ′Y ′] ≈ 1.46
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])]
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ]
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])]
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et Y
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X]
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX=
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX= sign(a)σXσY
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX= sign(a)σXσY
−σXσY ≤ cov[X, Y ] ≤ +σXσY
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX= sign(a)σXσY
−σXσY ≤ cov[X, Y ] ≤ +σXσY
H Coefficient de corrélation linéaire
ρ ,cov[X, Y ]
σXσY
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX= sign(a)σXσY
−σXσY ≤ cov[X, Y ] ≤ +σXσY
H Coefficient de corrélation linéaire
ρ ,cov[X, Y ]
σXσY− 1 ≤ ρ ≤ +1
Covariance / coefficient de corrélation linéaire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 44
H Covariance
cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY
cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2
]− E[X]2 = var[X]
cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?
Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X
σY =|a|σX= sign(a)σXσY
−σXσY ≤ cov[X, Y ] ≤ +σXσY
H Coefficient de corrélation linéaire
ρ ,cov[X, Y ]
σXσY− 1 ≤ ρ ≤ +1 ρ = sign(a) si Y = aX + b
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ]
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ]
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0
H Si X et Y indépendantes ⇒ décorrélées
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0
H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0
H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !
(examiner, p.ex., X et Y = |X| dans le cas où E[X] = 0)
Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)
Deux variablesaléatoires
V.A. conditionnéesEspéranceconditionnelle
Indépendance
Deux variablesaléatoiresindépendantes
Fonction derépartition
Relation linéaireentre deux v.a. ?(explorationgraphique)
(explorationgraphique 2)
(conclusion)
Covariance /coefficient decorrélation linéaireIndépendance /corrélation
Polytech’Nice Sophia, Élec 3, 2007–2008 – 45
H Coefficient de corrélation linéaire
ρ =cov[X, Y ]
σXσY=
E[XY ] − E[X] E[Y ]
σXσY
H Corrélation entre X et Y
RXY , E[XY ] =∑
x
∑
y
xypXY (x, y)
H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0
H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !
(examiner, p.ex., X et Y = |X| dans le cas où E[X] = 0)H Attention (2) : « corrélées / décorrélées » se réfère à ρ
(6= corrélation RXY !)
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoire
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
H Exemples :
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
H Exemples :
la vitesse d’une voiture
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
H Exemples :
la vitesse d’une voiture le temps entre l’arrivée de deux clients
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
H Exemples :
la vitesse d’une voiture le temps entre l’arrivée de deux clients la « position » d’un électron
Définition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47
H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)
Ω
Rx
H Exemples :
la vitesse d’une voiture le temps entre l’arrivée de deux clients la « position » d’un électron l’énergie d’une particule
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α32 2α
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α32 2α64 2α
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α32 2α64 2α. . . 2α
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α32 2α64 2α. . . 2α
2n → ∞ 2α
[Extra] Quel infini ?
Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α
# segm. longueur2 2α4 2α8 2α
16 2α32 2α64 2α. . . 2α
2n → ∞ 2α
∞√
2α
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultats
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantes
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi]
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi]
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi] = np
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi] = np
H var[X]ind=
∑ni=1 var[Xi]
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi] = np
H var[X]ind=
∑ni=1 var[Xi] = nvar[Xi]
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi] = np
H var[X]ind=
∑ni=1 var[Xi] = nvar[Xi] = np(1 − p)
Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues
DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48
H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p
indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :
xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :
X = X1 + X2 + . . . + Xn =∑n
i=1 Xi
H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)
pX(k) =
(n
k
)
pk(1 − p)n−k (0 ≤ k ≤ n)
H E[X] =∑n
i=1 E[Xi] = nE[Xi] = np
H var[X]ind=
∑ni=1 var[Xi] = nvar[Xi] = np(1 − p)
H (Comment faire la transition v.a.d. → v.a.c. ?)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 49
0.0 0.5 1.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 1k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 50
0.0 0.5 1.0 1.5 2.0
0.0
0.1
0.2
0.3
0.4
0.5
k
E[X]
0.0 0.5 1.0 1.5 2.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 2k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 51
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.0
0.1
0.2
0.3
k
E[X]
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 3k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 52
0 2 4 6 8 10
0.00
0.10
0.20
k
E[X]
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 10k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k) ∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 53
0 20 40 60 80 100
0.00
0.02
0.04
0.06
0.08
k
E[X]
0 20 40 60 80 100
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
∆FX |k
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 54
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
, pX(x) ddp
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 55
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
k
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
Nombre d’essais : 100k
Fonction de probabilité, pX(k) = P (X = k)
pX
(k)
Fonction de répartition, FX(k) = P (X ≤ k)
FX
(k)
V.A.D.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k
= P (X = k) = pX(k)V.A.C.
H FX(b) − FX(a) == P (a < X ≤ b)
H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
, pX(x) ddpH FX(x) =
∫ x−∞ pX(u) du
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 56
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
x
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/ dx
pX
(x)
Fonction de répartition, FX(x) = P (X ≤ x)
FX
(x)
P (A)
P (A)
P (B)
P (B)
V.A.C.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
, pX(x) ddpH FX(x) =
∫ x−∞ pX(u) du
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 56
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
x
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/ dx
pX
(x)
Fonction de répartition, FX(x) = P (X ≤ x)
FX
(x)
P (A)
P (A)
P (B)
P (B)
V.A.C.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
, pX(x) ddpH FX(x) =
∫ x−∞ pX(u) du
H A = X ≤ 45
Fonction de répartition : v.a.d. vers v.a.c.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 56
35 40 45 50 55 60 65
0.00
0.02
0.04
0.06
0.08
x
35 40 45 50 55 60 65
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/ dx
pX
(x)
Fonction de répartition, FX(x) = P (X ≤ x)
FX
(x)
P (A)
P (A)
P (B)
P (B)
V.A.C.H FX(b) − FX(a) =
= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX
= P (x < X ≤ x + dx)H
dFXdx = P (x<X≤x+ dx)
dx
, pX(x) ddpH FX(x) =
∫ x−∞ pX(u) du
H A = X ≤ 45H B = 50 < X ≤ 60
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀x
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0)
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
H Normalisation :
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
H Normalisation :∫ +∞−∞ pX(x) dx
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞)
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞) = P (Ω)
Densité de probabilité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 57
H
P (x < X ≤ x + dx) = pX(x) dx
P (a < X ≤ b) =
∫ b
apX(x) dx
Ω
pX(x)
A
P (A)
xa b
A = a < X ≤ b
H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =
∫ x0
x0pX(x) dx = 0
H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞) = P (Ω) = 1
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.)
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
limx→+∞ FX(x) = 1
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
limx→+∞ FX(x) = 1
FX(x2) − FX(x1) = P (x1 < X ≤ x2)
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
limx→+∞ FX(x) = 1
FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−
(k)) = pX(x(k))
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
limx→+∞ FX(x) = 1
FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−
(k)) = pX(x(k))
v.a.c. : dFX(x) = FX(x + dx) − FX(x) = P (x < X ≤ x + dx)
Fonction de répartition
Polytech’Nice Sophia, Élec 3, 2007–2008 – 58
H
FX(x) , P (X ≤ x) =
∫ x
−∞pX(u) du pX(x) =
dFX(x)
dx
H Propriétés :
FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :
si x1 < x2 , FX(x1) ≤ FX(x2)
limx→−∞ FX(x) = 0
limx→+∞ FX(x) = 1
FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−
(k)) = pX(x(k))
v.a.c. : dFX(x) = FX(x + dx) − FX(x) = P (x < X ≤ x + dx)
dFX(x)
dx = P (x<X≤x+ dx)dx , pX(x)
Exemple : v.a. uniforme et v.a. normaleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 59
−3 −2 −1 0 1 2 3
0.0
0.1
0.2
0.3
0.4
x
−3 −2 −1 0 1 2 3
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x)
pX
(x)
fdr, FX(x) = P (X ≤ x)F
X(x
)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
=∑
xi|g(xi)=y0 P (xi < X ≤ xi + δxi)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
=∑
xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=
∑
xi|g(xi)=y0 pX(xi) · δxi
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
=∑
xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=
∑
xi|g(xi)=y0 pX(xi) · δxiH
pY (y0)
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
=∑
xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=
∑
xi|g(xi)=y0 pX(xi) · δxiH
pY (y0) =∑
xi|g(xi)=y0pX(xi)
1
δy0/δxi
Fonction d’une V.A.
Polytech’Nice Sophia, Élec 3, 2007–2008 – 60
x
y = g(x)
x1 x1 + δx1 x2 x2 + δx2
y0
y0 + δy0
H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0
=∑
xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=
∑
xi|g(xi)=y0 pX(xi) · δxiH
pY (y0) =∑
xi|g(xi)=y0pX(xi)
1
δy0/δxi=
∑
xi|g(xi)=y0
pX(xi)
|g′(xi)|
Grandeurs statistiques
Polytech’Nice Sophia, Élec 3, 2007–2008 – 61
H Espérance
µX = E[X] =
∫ +∞
−∞x pX(x) dx
Grandeurs statistiques
Polytech’Nice Sophia, Élec 3, 2007–2008 – 61
H Espérance
µX = E[X] =
∫ +∞
−∞x pX(x) dx
H Espérance de g(X)
µg(X) = E[g(X)] =
∫ +∞
−∞g(x) pX(x) dx
Grandeurs statistiques
Polytech’Nice Sophia, Élec 3, 2007–2008 – 61
H Espérance
µX = E[X] =
∫ +∞
−∞x pX(x) dx
H Espérance de g(X)
µg(X) = E[g(X)] =
∫ +∞
−∞g(x) pX(x) dx
H Variance
var[X] = σ2X = E
[(X − E[X])2
]= E
[X2
]− E[X]2
Grandeurs statistiques
Polytech’Nice Sophia, Élec 3, 2007–2008 – 61
H Espérance
µX = E[X] =
∫ +∞
−∞x pX(x) dx
H Espérance de g(X)
µg(X) = E[g(X)] =
∫ +∞
−∞g(x) pX(x) dx
H Variance
var[X] = σ2X = E
[(X − E[X])2
]= E
[X2
]− E[X]2
H n-ième moment :
E[Xn] =
∫ +∞
−∞xn pX(x) dx
Grandeurs statistiques
Polytech’Nice Sophia, Élec 3, 2007–2008 – 61
H Espérance
µX = E[X] =
∫ +∞
−∞x pX(x) dx
H Espérance de g(X)
µg(X) = E[g(X)] =
∫ +∞
−∞g(x) pX(x) dx
H Variance
var[X] = σ2X = E
[(X − E[X])2
]= E
[X2
]− E[X]2
H n-ième moment :
E[Xn] =
∫ +∞
−∞xn pX(x) dx
H n-ième moment centré :
E[(X − E[X])n] =
∫ +∞
−∞(x − E[X])n pX(x) dx
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b]
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b]=
∫ +∞−∞ (ax + b) pX(x) dx
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b]=
∫ +∞−∞ (ax + b) pX(x) dx
= a∫ +∞−∞ x pX(x) dx + b
∫ +∞−∞ pX(x) dx
Fonction linéaireH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62
H
Y = aX + b
H
E[Y ] = aE[X] + b
var[Y ] = a2var[X] σY = |a|σX
H E[Y ] = E[aX + b]=
∫ +∞−∞ (ax + b) pX(x) dx
= a∫ +∞−∞ x pX(x) dx + b
∫ +∞−∞ pX(x) dx
= aE[X] + b
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoire
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy , pY (y) =
∫ +∞−∞ pXY (x, y) dx
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy , pY (y) =
∫ +∞−∞ pXY (x, y) dx
H Z = g(X, Y )
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy , pY (y) =
∫ +∞−∞ pXY (x, y) dx
H Z = g(X, Y )E[Z] = E[g(X, Y )] =
∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy , pY (y) =
∫ +∞−∞ pXY (x, y) dx
H Z = g(X, Y )E[Z] = E[g(X, Y )] =
∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy
E[aX + bY + c] = aE[X] + bE[Y ] + c
Deux variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 63
H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H
P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy
P (a < X ≤ b ∩ c < Y ≤ d) =
∫ d
c
∫ b
apXY (x, y) dxdy
H Densités de probabilité marginales :pX(x) =
∫ +∞−∞ pXY (x, y) dy , pY (y) =
∫ +∞−∞ pXY (x, y) dx
H Z = g(X, Y )E[Z] = E[g(X, Y )] =
∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy
E[aX + bY + c] = aE[X] + bE[Y ] + cH Généralisation à n variables aléatoires
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
pX|Y (x|y) =pXY (x, y)
pY (y), ∀y | pY (y) 6= 0
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
pX|Y (x|y) =pXY (x, y)
pY (y), ∀y | pY (y) 6= 0
Approche séquentielle :
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
pX|Y (x|y) =pXY (x, y)
pY (y), ∀y | pY (y) 6= 0
Approche séquentielle : pXY (x, y)
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
pX|Y (x|y) =pXY (x, y)
pY (y), ∀y | pY (y) 6= 0
Approche séquentielle : pXY (x, y) = pX(x)pY |X(y|x)
V.A. Conditionnées
Polytech’Nice Sophia, Élec 3, 2007–2008 – 64
H V.A. conditionnée par un événement A, P (A) 6= 0
ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx
cas spécial : si A = X ∈ C :
pX|X∈C(x) =
pX(x)
P (X∈C) x ∈ C
0 x /∈ C
H V.A. conditionnée par une V.A.
pX|Y (x|y) =pXY (x, y)
pY (y), ∀y | pY (y) 6= 0
Approche séquentielle : pXY (x, y) = pX(x)pY |X(y|x) = pY (y)pX|Y (x|y)
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
H E[X] =∫
E[X|Y = y] pY (y) dy (théorème d’espérance totale)
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
H E[X] =∫
E[X|Y = y] pY (y) dy (théorème d’espérance totale)
H E[g(X)|Y = y] =∫
g(x) pX|Y (x|y) dx
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
H E[X] =∫
E[X|Y = y] pY (y) dy (théorème d’espérance totale)
H E[g(X)|Y = y] =∫
g(x) pX|Y (x|y) dx
H E[g(X)] =∫
E[g(X)|Y = y] pY (y) dy
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
H E[X] =∫
E[X|Y = y] pY (y) dy (théorème d’espérance totale)
H E[g(X)|Y = y] =∫
g(x) pX|Y (x|y) dx
H E[g(X)] =∫
E[g(X)|Y = y] pY (y) dy
H E[g(X, Y )|Y = y] =∫
g(x, y) pX|Y (x|y) dx
Espérance conditionnelleH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65
H E[X|Y = y] =∫
x pX|Y (x|y) dx
H E[X] =∫
E[X|Y = y] pY (y) dy (théorème d’espérance totale)
H E[g(X)|Y = y] =∫
g(x) pX|Y (x|y) dx
H E[g(X)] =∫
E[g(X)|Y = y] pY (y) dy
H E[g(X, Y )|Y = y] =∫
g(x, y) pX|Y (x|y) dx
H E[g(X, Y )] =∫
E[g(X, Y )|Y = y] pY (y) dy
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B)
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ]
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
var[X + Y ] = var[X] + var[Y ]
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn]
IndépendanceH VariablesAléatoiresContinues
DéfinitionNombre de succèssur n essais (v.a.d.binomiale)
Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité
Fonction derépartition
Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques
Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle
Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66
H Entre deux V.A. X et Y :
H pXY (x, y) = pX(x)pY (y) , ∀x, y
pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0
P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées
E[g(X)h(Y )] = E[g(X)] E[h(Y )]
var[X + Y ] = var[X] + var[Y ]
H Entre n V.A. X1, . . . , Xn
H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn
E[X1 . . .Xn] = E[X1] . . .E[Xn]
var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]
Quelques définitionsH StatistiqueDescriptive
QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007
Polytech’Nice Sophia, Élec 3, 2007–2008 – 68
Quelques définitionsH StatistiqueDescriptive
QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007
Polytech’Nice Sophia, Élec 3, 2007–2008 – 68
H Population statistique : ensemble d’individus à étudier
finie infinie
H Individu / unité statistiqueH Caractère / variable statistique
qualitatif quantitatif (discret / continu)
H Échantillon : sous-ensemble de la populationH Fréquences
absolues (effectifs) relatives (proportions)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2 =
nPn
i=1 (xi)2−(
Pni=1 xi)
2
n(n−1)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2 =
nPn
i=1 (xi)2−(
Pni=1 xi)
2
n(n−1) (attn. si s/x ≪ 1)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2 =
nPn
i=1 (xi)2−(
Pni=1 xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : s (sd)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2 =
nPn
i=1 (xi)2−(
Pni=1 xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : s (sd) Écart absolu médian par rapport à la médiane (mad)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 69
H Mesures de tendance centrale (position)
Moyenne : x = 1n
∑ni=1 xi (mean)
Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence
H Mesures de dispersion
Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)
s2 = 1n−1
∑ni=1 (xi − x)2 =
nPn
i=1 (xi)2−(
Pni=1 xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : s (sd) Écart absolu médian par rapport à la médiane (mad) Coefficient de variation : s/x
Exemple : notes TP Élec 2006-2007H StatistiqueDescriptive
QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
H Population : étudiants Élec4, 2006-2007H Caractère étudié :
1. option (qualitatif)2. moyenne tp (quantitatif)3. contrôle final (quantitatif)
H Échantillon : 30 étudiants
[Extra] « Barplot »
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
Caractère : option
GSE MI TNS TR
02
46
8
[Extra] Histogrammes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
Caractère : moyenne tp (classes différentes)Histogram of tp
tp
Fre
quen
cy
0 5 10 15 20
02
46
8
Histogram of tp
tp
Fre
quen
cy0 5 10 15 20
02
46
810
12
[Extra] « Boxplot » (boîte à moustache)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
Caractère : moyenne tp0
510
1520
GSE MI TNS TR
05
1015
20
[Extra] « Boxplots »
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
Caractère : moyenne tp / contrôle final / note finale (50-50)
TP Ctrl Finale
810
1214
16
[Extra] Fréquence relative cumulée / quantiles
Polytech’Nice Sophia, Élec 3, 2007–2008 – 70
Caractère : contrôle final
0 5 10 15 20
0.0
0.2
0.4
0.6
0.8
1.0
ecdf(ctrl)
x
Fn(
x)
0.0 0.2 0.4 0.6 0.8 1.0
05
1015
20qs
quan
tile(
ctrl,
qs)
xFX−→ FX(x) = P (X ≤ x) = p p
QX=F−1X−→ QX(p) = x
ObjectifH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 72
Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.
ObjectifH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 72
Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.
Populationproba−→ Échantillon
ObjectifH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 72
Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.
Populationproba−→ Échantillon
Échantillonstat. inf.−→ Population
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisi
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustif
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)
H Population de taille finie + éch. non exhaustif
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)
H Population de taille finie + éch. non exhaustif⇒ population de taille infinie
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)
H Population de taille finie + éch. non exhaustif⇒ population de taille infinie
H Éch. exhaustif de taille n + Population de taille N ≫ n
Échantillonnage : définitionH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 73
Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.
H Deux types d’échantillonnage :
1. avec remplacement de l’individu choisitraitement théorique plus simple
2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)
H Population de taille finie + éch. non exhaustif⇒ population de taille infinie
H Éch. exhaustif de taille n + Population de taille N ≫ n⇒ échantillonnage non exhaustif
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la population
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
populationéch.−→ individu
caract.−→ valeur
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
populationéch.−→ individu
caract.−→ valeur
Ωéch.−→ ω
caract.−→ x
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
populationéch.−→ individu
caract.−→ valeur
Ωéch.−→ ω
caract.−→ x
H Expérience aléatoire : choisir au hasard un individu de la population
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
populationéch.−→ individu
caract.−→ valeur
Ωéch.−→ ω
caract.−→ x
H Expérience aléatoire : choisir au hasard un individu de la populationH Variable aléatoire X associée : le caractère étudié (quantitatif / qualitatif)
Une expérience aléatoire
Polytech’Nice Sophia, Élec 3, 2007–2008 – 74
Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.
H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur
dans la population
À condition que chaque individu ait la même probabilité d’être choisi !
populationéch.−→ individu
caract.−→ valeur
Ωéch.−→ ω
caract.−→ x
H Expérience aléatoire : choisir au hasard un individu de la populationH Variable aléatoire X associée : le caractère étudié (quantitatif / qualitatif)H Fonction/densité de probabilité pX(x) : dépend de la population
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) :
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
c-à-d : avec remplacement + même probabilité de choisir chaque individu
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon
(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon
(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)H Obtenir un échantillon, de taille n :
ensemble de n valeurs xi (i = 1, . . . , n) −→ Statistique Descriptive !
Échantillon : ensemble de variables aléatoires
Polytech’Nice Sophia, Élec 3, 2007–2008 – 75
H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)
H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)
H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)
pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)
pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)
c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon
(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)H Obtenir un échantillon, de taille n :
ensemble de n valeurs xi (i = 1, . . . , n) −→ Statistique Descriptive !H Expérience mentale : obtenir une infinité d’échantillons
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2=
nPn
i=1 (Xi)2−(
Pni=1 Xi)
2
n(n−1)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2=
nPn
i=1 (Xi)2−(
Pni=1 Xi)
2
n(n−1) (attn. si s/x ≪ 1)
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2=
nPn
i=1 (Xi)2−(
Pni=1 Xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : S
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2=
nPn
i=1 (Xi)2−(
Pni=1 Xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : S Écart absolu médian par rapport à la médiane
Paramètres statistiques d’un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 76
H Mesures de tendance centrale (position)
Moyenne : X = 1n
∑ni=1 Xi
Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3
Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9
H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)
H Mesures de dispersion
Étendue : X(n) − X(1)
Intervalle interquartile (IQR) : Q3 − Q1
Variance de l’échantillon :
S2 = 1n−1
∑ni=1
(Xi − X
)2=
nPn
i=1 (Xi)2−(
Pni=1 Xi)
2
n(n−1) (attn. si s/x ≪ 1)
Écart-type de l’échantillon : S Écart absolu médian par rapport à la médiane Coefficient de variation : S/X
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non »
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj
Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj
Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj
X : v.a.d. de Bernoulli, de paramètre πj
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj
Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj
X : v.a.d. de Bernoulli, de paramètre πj
Échantillon de taille n :Moyenne X = 1
n
∑ni=1 Xi
Cas spécial : caractère qualitatif (les proportions)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 77
H Étudier un caractère qualitatif à M modalités (réponses possibles)
Population : M « types » d’individus ; M fréquences relatives πj
Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)
H Autre approche (cas par cas) :
Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »
Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj
Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj
X : v.a.d. de Bernoulli, de paramètre πj
Échantillon de taille n :Moyenne X = 1
n
∑ni=1 Xi , P proportion de « oui » dans l’échantillon
Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 78
Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population
Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 78
Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population
Échantillon Population pX(x)
v.a. valeur paramètre
une population
X m = x µX = E[X]S2 s2 σ2
X = var[X]
P p π
deux populations
X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1
S22/S2
1 (s2/s1)2 (σ2/σ1)
2
P2 − P1 p2 − p1 π2 − π1
Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 78
Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population
Échantillon Population pX(x)
v.a. valeur paramètre
une population
X m = x µX = E[X]S2 s2 σ2
X = var[X]
P p π
deux populations
X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1
S22/S2
1 (s2/s1)2 (σ2/σ1)
2
P2 − P1 p2 − p1 π2 − π1
H Estimer les paramètres de la population
Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 78
Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population
Échantillon Population pX(x)
v.a. valeur paramètre
une population
X m = x µX = E[X]S2 s2 σ2
X = var[X]
P p π
deux populations
X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1
S22/S2
1 (s2/s1)2 (σ2/σ1)
2
P2 − P1 p2 − p1 π2 − π1
H Estimer les paramètres de la populationH Calculer des intervalles de confiance
Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 78
Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population
Échantillon Population pX(x)
v.a. valeur paramètre
une population
X m = x µX = E[X]S2 s2 σ2
X = var[X]
P p π
deux populations
X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1
S22/S2
1 (s2/s1)2 (σ2/σ1)
2
P2 − P1 p2 − p1 π2 − π1
H Estimer les paramètres de la populationH Calculer des intervalles de confianceH Formuler des hypothèses et les tester
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 79
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 79
H
pX(x) =
1
b−a a ≤ x ≤ b
0 ailleurs
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 79
H
pX(x) =
1
b−a a ≤ x ≤ b
0 ailleurs
H
E[X] =1
2(a + b)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 79
H
pX(x) =
1
b−a a ≤ x ≤ b
0 ailleurs
H
E[X] =1
2(a + b)
H
var[X] = σ2X =
1
12(a − b)2
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 79
H
pX(x) =
1
b−a a ≤ x ≤ b
0 ailleurs
H
E[X] =1
2(a + b)
H
var[X] = σ2X =
1
12(a − b)2
H
FX(x) =
0 x < ax−ab−a a ≤ x ≤ b
1 x > b
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution uniformeH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 80
0 2 4 6 8 10
0.0
0.5
1.0
1.5
2.0
x
0 2 4 6 8 10
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normale (gaussienne)H StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 81
Distribution normale (gaussienne)H StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 81
H
N(µX , σX) : pX(x) =1√
2πσX
exp
[
−1
2
(x − µX
σX
)2]
Distribution normale (gaussienne)H StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 81
H
N(µX , σX) : pX(x) =1√
2πσX
exp
[
−1
2
(x − µX
σX
)2]
H
E[X] = µX
Distribution normale (gaussienne)H StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 81
H
N(µX , σX) : pX(x) =1√
2πσX
exp
[
−1
2
(x − µX
σX
)2]
H
E[X] = µX
H
var[X] = σ2X
Distribution normale (gaussienne)H StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 81
H
N(µX , σX) : pX(x) =1√
2πσX
exp
[
−1
2
(x − µX
σX
)2]
H
E[X] = µX
H
var[X] = σ2X
H
FX(x) =1√
2πσX
∫ x
−∞exp
[
−1
2
(x′ − µX
σX
)2]
dx′
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 1
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 1.25
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 1.5
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 1.75
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 2
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 2.25
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 2.5
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 2.75
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 3
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 3.25
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 3.5
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 3.75
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 4
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 4.25
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 4.5
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 4.75
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normaleH StatistiqueInférentielle:introduction
Objectif
Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)
Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)
Propriétés de la loinormaleSomme de deuxv.a. indépendantes
[Théorème limitecentral]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 82
−15 −10 −5 0 5 10 15
0.0
0.1
0.2
0.3
0.4
x
sigma = 5
−15 −10 −5 0 5 10 15
0.0
0.2
0.4
0.6
0.8
1.0
x
ddp pX(x) = P (x < X ≤ x + dx)/dx
pX
(x)
fdr FX(x) = P (X ≤ x)F
X(x
)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z) = FZ
(
z =x − µX
σX
)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z) = FZ
(
z =x − µX
σX
)
, 1−Q(z)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z) = FZ
(
z =x − µX
σX
)
, 1−Q(z)
H
Z =X − µX
σX: normale standard (centrée réduite) N(0, 1)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z) = FZ
(
z =x − µX
σX
)
, 1−Q(z)
H
Z =X − µX
σX: normale standard (centrée réduite) N(0, 1)
H z : exprime l’écart entre x et µX en termes (unité de mesure) de σX
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 83
H
X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)
=1√
2πσX
∫ µX+zσX
−∞exp
[
−1
2
(x − µX
σX
)2]
dx
=1√2π
∫ z
−∞exp
(
−1
2u2
)
du = P (Z ≤ z) = FZ
(
z =x − µX
σX
)
, 1−Q(z)
H
Z =X − µX
σX: normale standard (centrée réduite) N(0, 1)
H z : exprime l’écart entre x et µX en termes (unité de mesure) de σXtoujours sans unité !
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 84
H v.a. centrée réduite : fonction linéaire d’une autre v.a.
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 84
H v.a. centrée réduite : fonction linéaire d’une autre v.a.
H notion générale (pas seulement pour la normale !)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 84
H v.a. centrée réduite : fonction linéaire d’une autre v.a.
H notion générale (pas seulement pour la normale !)
de X vers Z de Z vers X
v.a. X Z = (X − µX)/σX Z X = µX + ZσX
valeur x z = (x − µX)/σX z x = µX + zσX
esp. µX 0 0 µX
var. σ2X 1 1 σ2
X
ddp pX(x) σXpX(µX + zσX) pZ(z) 1σX
pZ
(x−µX
σX
)
fdr FX(x) = FZ
(x−µX
σX
)
FZ(z) = FX(µX + zσX)
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 84
H v.a. centrée réduite : fonction linéaire d’une autre v.a.
H notion générale (pas seulement pour la normale !)
de X vers Z de Z vers X
v.a. X Z = (X − µX)/σX Z X = µX + ZσX
valeur x z = (x − µX)/σX z x = µX + zσX
esp. µX 0 0 µX
var. σ2X 1 1 σ2
X
ddp pX(x) σXpX(µX + zσX) pZ(z) 1σX
pZ
(x−µX
σX
)
fdr FX(x) = FZ
(x−µX
σX
)
FZ(z) = FX(µX + zσX)
H On peut calculer des probabilités aussi bien en X qu’en Z !
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
H « Valeur critique » xα :P (X > xα) = α
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
H « Valeur critique » xα :P (X > xα) = α
H FX(xα) = 1 − α
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
H « Valeur critique » xα :P (X > xα) = α
H FX(xα) = 1 − α
H « Valeur critique » zα :P (Z > zα) = α
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
H « Valeur critique » xα :P (X > xα) = α
H FX(xα) = 1 − α
H « Valeur critique » zα :P (Z > zα) = α
H FZ(zα) = 1 − α
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 85
−2 0 2 4 6 8
0.0
0.1
0.2
0.3
0.4
px et pz
valeurs de x ou z
ddp
xα
α
N(µX, σX)
zα
α
N(0, 1)
−2 0 2 4 6 8
0.0
0.4
0.8
Fx et Fz
valeurs de x ou z
fdr
xα
1−
α
N(µX, σX)
zα
N(0, 1)
H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX
H « Valeur critique » xα :P (X > xα) = α
H FX(xα) = 1 − α
H « Valeur critique » zα :P (Z > zα) = α
H FZ(zα) = 1 − αH
xα = µX + zασX
Distribution normale standard (centrée réduite)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 86
−4 −2 0 2 4
0.0
0.1
0.2
0.3
0.4
Distribution Normale : µ = 0, σ = 1
z
Den
sité
de
prob
abili
té
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρ
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
2. La somme de gaussiennes indépendantes est une gaussienne
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
2. La somme de gaussiennes indépendantes est une gaussienne
H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =
∑ni=1 aiXi
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
2. La somme de gaussiennes indépendantes est une gaussienne
H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =
∑ni=1 aiXi
H µX = a1µ1 + a2µ2 + . . . + anµn =∑n
i=1 aiµi
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
2. La somme de gaussiennes indépendantes est une gaussienne
H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =
∑ni=1 aiXi
H µX = a1µ1 + a2µ2 + . . . + anµn =∑n
i=1 aiµi
H σ2X
ind= a2
1σ21 + a2
2σ22 + . . . + a2
nσ2n =
∑ni=1 a2
i σ2i
Propriétés de la loi normale
Polytech’Nice Sophia, Élec 3, 2007–2008 – 87
1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)
H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :
pX1X2(x1, x2) = 1
2πσ1σ2
√1−ρ2
exp
[
− 12(1−ρ2)
(x1−µ1
σ1
)2−
−2ρ (x1−µ1)(x2−µ2)σ1σ2
+ 12(1−ρ2)
(x1−µ1
σ1
)2]
H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)
2. La somme de gaussiennes indépendantes est une gaussienne
H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =
∑ni=1 aiXi
H µX = a1µ1 + a2µ2 + . . . + anµn =∑n
i=1 aiµi
H σ2X
ind= a2
1σ21 + a2
2σ22 + . . . + a2
nσ2n =
∑ni=1 a2
i σ2i
H X : N(µX , σX)
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x)
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
=∑
x1pX1(x1)pX2(x − x1)
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
=∑
x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
=∑
x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2
2. Cas v.a.c. :pX(x) = sans démonstration
=∫
x′ pX1(x′)pX2(x − x′) dx′
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
=∑
x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2
2. Cas v.a.c. :pX(x) = sans démonstration
=∫
x′ pX1(x′)pX2(x − x′) dx′ = pX1 ⋆ pX2
Somme de deux v.a. indépendantes
Polytech’Nice Sophia, Élec 3, 2007–2008 – 88
H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?
1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.
=∑
x1P (X1 = x1)P (X2 = x − x1|X1 = x1)
ind=
∑
x1P (X1 = x1)P (X2 = x − x1)
=∑
x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2
2. Cas v.a.c. :pX(x) = sans démonstration
=∫
x′ pX1(x′)pX2(x − x′) dx′ = pX1 ⋆ pX2
X = X1 + X2ind=⇒ pX = pX1 ⋆ pX2
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantes
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z)
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z) =1√2π
∫ z
−∞exp
(
−1
2u2
)
du
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z) =1√2π
∫ z
−∞exp
(
−1
2u2
)
du
H TLC :n → ∞
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z) =1√2π
∫ z
−∞exp
(
−1
2u2
)
du
H TLC :n → ∞ : Zn → N(0, 1)
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z) =1√2π
∫ z
−∞exp
(
−1
2u2
)
du
H TLC :n → ∞ : Zn → N(0, 1) , Sn → N(nµX ,
√nσX)
[Théorème limite central]
Polytech’Nice Sophia, Élec 3, 2007–2008 – 89
H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX
H
Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn
ind= nσ2
X
Zn =Sn − µSn
σSn
=X1 + X2 + . . . + Xn − nµX√
nσX, E[Zn] = 0 , σ2
Zn= 1
H TLC :
limn−→∞
P (Zn ≤ z) =1√2π
∫ z
−∞exp
(
−1
2u2
)
du
H TLC :n → ∞ : Zn → N(0, 1) , Sn → N(nµX ,
√nσX) , Sn
n → N(
µX , σX√n
)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne X
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
n < 30 : X = N(
µ, σ√n
)
si pX(x) « presque » normale
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
n < 30 : X = N(
µ, σ√n
)
si pX(x) « presque » normale
H Presque toujours : X = N(µ, σ/√
n)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
n < 30 : X = N(
µ, σ√n
)
si pX(x) « presque » normale
H Presque toujours : X = N(µ, σ/√
n)
Z = X−µσ/
√n→ N(0, 1)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
n < 30 : X = N(
µ, σ√n
)
si pX(x) « presque » normale
H Presque toujours : X = N(µ, σ/√
n)
Z = X−µσ/
√n→ N(0, 1)
P (Z > zα) = α (définition de zα « valeur critique »)
Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 91
H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)
X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√
n(σ connu)
H Population non normale (σ connu)
n > 30 : X = N(
µ, σ√n
)
(tlc)
n < 30 : X = N(
µ, σ√n
)
si pX(x) « presque » normale
H Presque toujours : X = N(µ, σ/√
n)
Z = X−µσ/
√n→ N(0, 1)
P (Z > zα) = α (définition de zα « valeur critique ») P (Z < −zα) = α (symétrie de la normale)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
H P (T > tα) = α (définition de tα, valeur critique)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
H P (T > tα) = α (définition de tα, valeur critique)
H P (T < −tα) = α (symétrie de la loi t)
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
H P (T > tα) = α (définition de tα, valeur critique)
H P (T < −tα) = α (symétrie de la loi t)
H n ≥ 30 : s → σ
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
H P (T > tα) = α (définition de tα, valeur critique)
H P (T < −tα) = α (symétrie de la loi t)
H n ≥ 30 : s → σ donc T → Z
Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution dela moyenne;σX inconnue
Distribution deStudentDistribution de lavariance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 92
H Z = X−µσ/
√n→ N(0, 1)
H T = X−µS/
√n
= (X−µ)/(σ/√
n)√S2/σ2
= Z√V/(n−1)
= Z√V/ν
H V = (n−1)S2
σ2 : loi du χ2 à ν = n − 1 d.l.
H Condition : population normale
H Z, V indépendantes
H T = X−µS/
√n
: loi de Student à ν = n − 1 d.l.
H E[T ] = 0
H σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
H P (T > tα) = α (définition de tα, valeur critique)
H P (T < −tα) = α (symétrie de la loi t)
H n ≥ 30 : s → σ donc T → Z
H “Student” : W.S. Gosset, 1908
Distribution de Student
Polytech’Nice Sophia, Élec 3, 2007–2008 – 93
−4 −2 0 2 4
0.0
0.1
0.2
0.3
0.4
Distribution de Student
t
Den
sité
de
prob
abili
té
dl = 5
dl = 100
E[T ] = 0 , σ2T = ν
ν−2 > 1 (non définie pour ν ≤ 2)
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
E[X2
]= n − 1
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
E[X2
]= n − 1 −→ E
[S2
]= σ2
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
E[X2
]= n − 1 −→ E
[S2
]= σ2
σ2X2 = 2(n − 1)
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
E[X2
]= n − 1 −→ E
[S2
]= σ2
σ2X2 = 2(n − 1) −→ σ2
S2 = 2σ4/(n − 1)
Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne
Distribution de lamoyenne; σX
inconnueDistribution deStudentDistribution dela variance
Distribution du χ2
Distribution de laproportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 94
H Échantillon aléatoire de taille n ; variance S2
Condition : population normale N(µ, σ)
X2 =(n − 1)S2
σ2= 1
σ2
∑ni=1
(Xi − X
)2
X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
X2 > 0
E[X2
]= n − 1 −→ E
[S2
]= σ2
σ2X2 = 2(n − 1) −→ σ2
S2 = 2σ4/(n − 1)
P (X2 > χ2α(ν)) = α (définition de χ2
α(ν), valeur critique)
Distribution du χ2
Polytech’Nice Sophia, Élec 3, 2007–2008 – 95
0 50 100 150
0.00
0.02
0.04
0.06
0.08
0.10
Distribution du Khi−deux
χ2
Den
sité
de
prob
abili
té
dl = 10
dl = 100
E[X2
]= n − 1 , σ2
X2 = 2(n − 1)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions :
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution :
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n = µX = π
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n = µX = π , σ2
P
ind= (nσ2
X)/n2
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n = µX = π , σ2
P
ind= (nσ2
X)/n2 = π(1 − π)/n
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n = µX = π , σ2
P
ind= (nσ2
X)/n2 = π(1 − π)/n
P : normale N
(
π,
√π(1−π)
n
)
Distribution de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 96
H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)
H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π
∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)
P = 1n
∑ni=1 Xi : proportion d’individus (fréquence relative)
H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1
H Distribution : µP = (nµX)/n = µX = π , σ2
P
ind= (nσ2
X)/n2 = π(1 − π)/n
P : normale N
(
π,
√π(1−π)
n
)
→ Z : normale N(0, 1)
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2=
σ21
n1+
σ22
n2
Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 98
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ;
moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2=
σ21
n1+
σ22
n2
H D’autres cas à examiner ultérieurement. . .
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H E[F ] = ν2ν2−2 (ν2 > 2)
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H E[F ] = ν2ν2−2 (ν2 > 2)
H σ2F =
ν22 (2ν1+2ν2−4)
ν1(ν2−2)2(ν2−4)(ν2 > 4)
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H E[F ] = ν2ν2−2 (ν2 > 2)
H σ2F =
ν22 (2ν1+2ν2−4)
ν1(ν2−2)2(ν2−4)(ν2 > 4)
H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2), v.c.)
Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes
Distribution durapport desvariancesDistribution deFisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 99
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ2
2
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H E[F ] = ν2ν2−2 (ν2 > 2)
H σ2F =
ν22 (2ν1+2ν2−4)
ν1(ν2−2)2(ν2−4)(ν2 > 4)
H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2), v.c.)
H fα(ν1, ν2) =1
f1−α(ν2, ν1)(propriété de la loi F )
Distribution de Fisher
Polytech’Nice Sophia, Élec 3, 2007–2008 – 100
0 2 4 6 8
0.0
0.2
0.4
0.6
Distribution de Fischer
f
Den
sité
de
prob
abili
té dl1 = 5 , dl2 = 20
dl1 = 20 , dl2 = 5
fα(ν1, ν2) = 1/f1−α(ν2, ν1)
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
H Estimation par intervalle de confiance
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
H Estimation par intervalle de confiance
v.a. ΘL, ΘH : estimateurs ponctuels
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
H Estimation par intervalle de confiance
v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
H Estimation par intervalle de confiance
v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α
θL < θ < θH : intervalle de confiance
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 102
H Estimation ponctuelle
Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne
E[
(Θ − θ)2]
= σ2Θ
+ (biais)2
Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0
H Estimation par intervalle de confiance
v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α
θL < θ < θH : intervalle de confiance 1 − α : niveau de confiance
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
H ΘL = X − zα/2σX , ΘH = X + zα/2σX
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
H ΘL = X − zα/2σX , ΘH = X + zα/2σX
H 1 − α = 0.95, zα/2 =qnorm(0.025,mean=0,sd=1,lower.tail=FALSE)= 1.96
Estimation de la moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 103
H Variance σ2 connueH X : normale N(µ, σ/
√n)
H Z = (X − µ)/(σ/√
n) : normale N(0, 1)
H X estimateur non biaisé et convergent de µ
H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α
H P (−zα/2 < X−µσ/
√n
< zα/2) = 1 − α
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
H ΘL = X − zα/2σX , ΘH = X + zα/2σX
H 1 − α = 0.95, zα/2 =qnorm(0.025,mean=0,sd=1,lower.tail=FALSE)= 1.96
H 1 − α = 0.99, zα/2 =qnorm(0.005,mean=0,sd=1,lower.tail=FALSE)= 2.56
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Population de taille N
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Population de taille N
σX = σ√n
√N−nN−1
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Population de taille N
σX = σ√n
√N−nN−1
N≫1≈ σ√n
√N−n
N
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Population de taille N
σX = σ√n
√N−nN−1
N≫1≈ σ√n
√N−n
N = σ√n
√1 − n
N
Estimation de la moyenne (2/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 104
H P (−zα/2σ√n
< X − µ < zα/2σ√n) = 1 − α
H P (|X − µ| < zα/2σ√n) = 1 − α
H e = |X − µ| : erreur
H emax = zα/2σ√n
: marge d’erreur à 1 − α
H nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H X − emax < µ < X + emax à 1 − α
H Cas particulier : échantillonnage d’une population finie, sans remplacement
Population de taille N
σX = σ√n
√N−nN−1
N≫1≈ σ√n
√N−n
N = σ√n
√1 − n
N
nmin =Nz2
α/2σ2
Ne2max+z2
α/2σ2 : taille d’échantillon minimale
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normale
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
H ΘL = X − tα/2S√n
, ΘH = X + tα/2S√n
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
H ΘL = X − tα/2S√n
, ΘH = X + tα/2S√n
H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
H ΘL = X − tα/2S√n
, ΘH = X + tα/2S√n
H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05
H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
H ΘL = X − tα/2S√n
, ΘH = X + tα/2S√n
H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05
H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76
H Rappel : n ≥ 30 , T → Z
Estimation de la moyenne (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 105
H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/
√n) : Student à n − 1 d.l.
H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α
H P (−tα/2 < X−µS/
√n
< tα/2) = 1 − α
H P (−tα/2S√n
< X − µ < tα/2S√n) = 1 − α
H P (X − tα/2S√n
< µ < X + tα/2S√n) = 1 − α
H ΘL = X − tα/2S√n
, ΘH = X + tα/2S√n
H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05
H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76
H Rappel : n ≥ 30 , T → Z
H T : petits échantillons !
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
H P (χ21−α/2 < X2 < χ2
α/2) = 1 − α
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
H P (χ21−α/2 < X2 < χ2
α/2) = 1 − α
H P(
χ21−α/2 < (n−1)S2
σ2 < χ2α/2
)
= 1 − α
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
H P (χ21−α/2 < X2 < χ2
α/2) = 1 − α
H P(
χ21−α/2 < (n−1)S2
σ2 < χ2α/2
)
= 1 − α
H P
(
(n−1)S2
χ2α/2
< σ2 < (n−1)S2
χ21−α/2
)
= 1 − α
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
H P (χ21−α/2 < X2 < χ2
α/2) = 1 − α
H P(
χ21−α/2 < (n−1)S2
σ2 < χ2α/2
)
= 1 − α
H P
(
(n−1)S2
χ2α/2
< σ2 < (n−1)S2
χ21−α/2
)
= 1 − α
H P
(√(n−1)S2
χ2α/2
< σ <
√(n−1)S2
χ21−α/2
)
= 1 − α
Estimation de la variance (un échantillon)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 106
H Condition : population normale N(µ, σ)
H X2 = (n−1)S2
σ2 = 1σ2
∑ni=1
(Xi − X
)2
H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)
H P (χ21−α/2 < X2 < χ2
α/2) = 1 − α
H P(
χ21−α/2 < (n−1)S2
σ2 < χ2α/2
)
= 1 − α
H P
(
(n−1)S2
χ2α/2
< σ2 < (n−1)S2
χ21−α/2
)
= 1 − α
H P
(√(n−1)S2
χ2α/2
< σ <
√(n−1)S2
χ21−α/2
)
= 1 − α
H Intervalle de confiance :√
(n−1)s2
χ2α/2
< σ <
√(n−1)s2
χ21−α/2
à un niveau de confiance de (1 − α)100%
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
P = N
(
π,
√π(1−π)
n
)
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
P = N
(
π,
√π(1−π)
n
)
H Les proportions (fréquences relatives) sont des moyennes !
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
P = N
(
π,
√π(1−π)
n
)
H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
P = N
(
π,
√π(1−π)
n
)
H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer
µ −→ π
Proportion = moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 107
H Caractère quantitatif (rappel)
Moyenne : X = 1n
∑ni=1 Xi
n > 30, σ connu X = N
(
µ, σ√n
)
H Caractère qualitatif
Proportion : P = 1n
∑ni=1 Xi
n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1
P = N
(
π,
√π(1−π)
n
)
H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer
µ −→ π σ −→
√
π(1 − π)
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
P
(
P − zα/2
√π(1−π)
n < π < P + zα/2
√π(1−π)
n
)
= 1 − α
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
P
(
P − zα/2
√π(1−π)
n < π < P + zα/2
√π(1−π)
n
)
= 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :
p − zα/2
√p(1−p)
n < π < p + zα/2
√p(1−p)
n
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
P
(
P − zα/2
√π(1−π)
n < π < P + zα/2
√π(1−π)
n
)
= 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :
p − zα/2
√p(1−p)
n < π < p + zα/2
√p(1−p)
n
nmin =(
zα/2
emax
)2p(1 − p) : taille d’échantillon minimale
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
P
(
P − zα/2
√π(1−π)
n < π < P + zα/2
√π(1−π)
n
)
= 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :
p − zα/2
√p(1−p)
n < π < p + zα/2
√p(1−p)
n
nmin =(
zα/2
emax
)2p(1 − p) : taille d’échantillon minimale
estimer p (1er échantillonage, n ≥ 30)
Estimation de la proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 108
H Caractère quantitatif (rappel)
P (X − zα/2σ√n
< µ < X + zα/2σ√n) = 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2
σ√n
< µ < x + zα/2σ√n
nmin =(
zα/2σ
emax
)2: taille d’échantillon minimale
H Caractère qualitatif
P
(
P − zα/2
√π(1−π)
n < π < P + zα/2
√π(1−π)
n
)
= 1 − α
Intervalle de confiance à un niveau de confiance de (1 − α)100% :
p − zα/2
√p(1−p)
n < π < p + zα/2
√p(1−p)
n
nmin =(
zα/2
emax
)2p(1 − p) : taille d’échantillon minimale
estimer p (1er échantillonage, n ≥ 30) ou prendre p = 0.5 (pire scénario)
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.
H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.
H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α
H P(
f1−α/2(ν1, ν2) <σ22S2
1
σ21S2
2< fα/2(ν1, ν2)
)
= 1 − α
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.
H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α
H P(
f1−α/2(ν1, ν2) <σ22S2
1
σ21S2
2< fα/2(ν1, ν2)
)
= 1 − α
H P(
S21
S22
1fα/2(ν1,ν2) <
σ21
σ22
<S2
1
S22
1f1−α/2(ν1,ν2)
)
= 1 − α
Estimation du rapport des variances (deux échantillons)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 109
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.
H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α
H P(
f1−α/2(ν1, ν2) <σ22S2
1
σ21S2
2< fα/2(ν1, ν2)
)
= 1 − α
H P(
S21
S22
1fα/2(ν1,ν2) <
σ21
σ22
<S2
1
S22
1f1−α/2(ν1,ν2)
)
= 1 − α
H P(
S21
S22
1fα/2(ν1,ν2) <
σ21
σ22
<S2
1
S22fα/2(ν2, ν1)
)
= 1 − α
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
H Hypothèse alternative (trois choix possibles)
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
H Hypothèse alternative (trois choix possibles)
H1 : θ 6= θ0 (test bilatéral)
H1 : θ < θ0 (test unilatéral)
H1 : θ > θ0 (test unilatéral)
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
H Hypothèse alternative (trois choix possibles)
H1 : θ 6= θ0 (test bilatéral)
H1 : θ < θ0 (test unilatéral)
H1 : θ > θ0 (test unilatéral)
H Test : procédure suivie afin d’accepter/rejeter H0
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
H Hypothèse alternative (trois choix possibles)
H1 : θ 6= θ0 (test bilatéral)
H1 : θ < θ0 (test unilatéral)
H1 : θ > θ0 (test unilatéral)
H Test : procédure suivie afin d’accepter/rejeter H0
H Rejet > Acceptation (non-rejet)
Définitions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 111
H Hypothèse : énoncé concernant les caractéristiques d’une population
H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0
H0 : θ = θ0
H Hypothèse alternative (trois choix possibles)
H1 : θ 6= θ0 (test bilatéral)
H1 : θ < θ0 (test unilatéral)
H1 : θ > θ0 (test unilatéral)
H Test : procédure suivie afin d’accepter/rejeter H0
H Rejet > Acceptation (non-rejet)
H En pratique : formuler H0 comme l’opposé de ce qu’on veut démontrer !
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OK
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)
Préciser H1
Types et probabilités d’erreur
Polytech’Nice Sophia, Élec 3, 2007–2008 – 112
H
Types d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 OK Type II
rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α
H P (Type II) = P (non-rejet de H0|H1 vraie) = β
H
Probabilités d’erreur
décision \ état du monde H0 vraie H1 vraie
non-rejet de H0 1 − α β
rejet de H0 α 1 − β
H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)
Préciser H1, ensuite calculer une valeur de β liée à cette H1
Tests : la procédure à suivre
Polytech’Nice Sophia, Élec 3, 2007–2008 – 113
1. Formuler les hypothèses H0 et H1
2. Choisir le seuil de signification α (typiquement 1% ou 5%)
3. Déterminer la statistique utilisée ainsi que sa distribution
4. Définir la région critique (région de rejet de H0)
5. Adopter une règle de décision (à partir des valeurs critiques)
6. Prélever un échantillon et faire les calculs
7. Décider
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/
√n) < zα/2|µ = µ0) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/
√n) < zα/2|µ = µ0) = 1 − α
P (−zα/2 < (X − µ0)/(σ/√
n) < zα/2) = 1 − α
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/
√n) < zα/2|µ = µ0) = 1 − α
P (−zα/2 < (X − µ0)/(σ/√
n) < zα/2) = 1 − αrégion critique
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/
√n) < zα/2|µ = µ0) = 1 − α
P (−zα/2 < (X − µ0)/(σ/√
n) < zα/2) = 1 − αrégion critique : Z = (X − µ0)/(σ/
√n) < −zα/2 et
Z = (X − µ0)/(σ/√
n) > zα/2
Test sur une moyenne (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 114
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/
√n) < zα/2|µ = µ0) = 1 − α
P (−zα/2 < (X − µ0)/(σ/√
n) < zα/2) = 1 − αrégion critique : Z = (X − µ0)/(σ/
√n) < −zα/2 et
Z = (X − µ0)/(σ/√
n) > zα/2
5. Règle de décision :rejeter H0 si x < xc1 = µ0 − zα/2
σ√n
ou x > xc2 = µ0 + zα/2σ√n
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − α
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − α
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − α
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/
√n) < zα|µ = µ0) = 1 − α
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/
√n) < zα|µ = µ0) = 1 − α
P ((X − µ0)/(σ/√
n) < zα) = 1 − α
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/
√n) < zα|µ = µ0) = 1 − α
P ((X − µ0)/(σ/√
n) < zα) = 1 − αrégion critique
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/
√n) < zα|µ = µ0) = 1 − α
P ((X − µ0)/(σ/√
n) < zα) = 1 − αrégion critique : Z = (X − µ0)/(σ/
√n) > zα
Test sur une moyenne (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 115
1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Z = (X − µ)/(σ/√
n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/
√n) si on ne connaît pas σ et n petit (population normale)
4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/
√n) < zα|µ = µ0) = 1 − α
P ((X − µ0)/(σ/√
n) < zα) = 1 − αrégion critique : Z = (X − µ0)/(σ/
√n) > zα
5. Règle de décision :rejeter H0 si x > xc = µ0 + zα
σ√n
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δ
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/
√n)|µ = µ0 + δ)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/
√n)|µ = µ0 + δ)
H = P (Z < xc−µ0
σ/√
n− δ
σ/√
n)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/
√n)|µ = µ0 + δ)
H = P (Z < xc−µ0
σ/√
n− δ
σ/√
n)
H = P (Z < zα − δσ/
√n)
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/
√n)|µ = µ0 + δ)
H = P (Z < xc−µ0
σ/√
n− δ
σ/√
n)
H = P (Z < zα − δσ/
√n)
H −zβ = zα − δσ/
√n
Test sur une moyenne (3/3) : taille de l’échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 116
H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)
= P ((X − µ)/(σ/√
n) > zα|µ = µ0)= P ((X − µ0)/(σ/
√n) > zα)
H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n
H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)
H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/
√n)|µ = µ0 + δ)
H = P (Z < xc−µ0
σ/√
n− δ
σ/√
n)
H = P (Z < zα − δσ/
√n)
H −zβ = zα − δσ/
√n
H n = (zα + zβ)2 σ2
δ2
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − α
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
P(
χ21−α/2 < (n−1)S2
σ20
< χ2α/2
)
= 1 − α
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
P(
χ21−α/2 < (n−1)S2
σ20
< χ2α/2
)
= 1 − α
P
(χ2
1−α/2σ20
(n−1) < S2 <χ2
α/2σ20
(n−1)
)
= 1 − α
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
P(
χ21−α/2 < (n−1)S2
σ20
< χ2α/2
)
= 1 − α
P
(χ2
1−α/2σ20
(n−1) < S2 <χ2
α/2σ20
(n−1)
)
= 1 − α
région critique
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
P(
χ21−α/2 < (n−1)S2
σ20
< χ2α/2
)
= 1 − α
P
(χ2
1−α/2σ20
(n−1) < S2 <χ2
α/2σ20
(n−1)
)
= 1 − α
région critique : X2 < χ21−α/2 et X2 > χ2
α/2
Test sur une variance (1/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 117
1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α
P(
χ21−α/2 < (n−1)S2
σ20
< χ2α/2
)
= 1 − α
P
(χ2
1−α/2σ20
(n−1) < S2 <χ2
α/2σ20
(n−1)
)
= 1 − α
région critique : X2 < χ21−α/2 et X2 > χ2
α/2
5. Règle de décision :rejeter H0 si s2 < s2
c1 = χ21−α/2σ
20/(n − 1) ou s2 > s2
c2 = χ2α/2σ
20/(n − 1)
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
P(
χ21−α < (n−1)S2
σ20
)
= 1 − α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
P(
χ21−α < (n−1)S2
σ20
)
= 1 − α
P(
χ21−ασ2
0
(n−1) < S2)
= 1 − α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
P(
χ21−α < (n−1)S2
σ20
)
= 1 − α
P(
χ21−ασ2
0
(n−1) < S2)
= 1 − α
région critique
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
P(
χ21−α < (n−1)S2
σ20
)
= 1 − α
P(
χ21−ασ2
0
(n−1) < S2)
= 1 − α
région critique : X2 < χ21−α
Test sur une variance (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 118
1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :
X2 = (n−1)S2
σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|σ = σ0) = 1 − αP (χ2
1−α < X2|σ = σ0) = 1 − α
P(
χ21−α < (n−1)S2
σ20
)
= 1 − α
P(
χ21−ασ2
0
(n−1) < S2)
= 1 − α
région critique : X2 < χ21−α
5. Règle de décision :rejeter H0 si s2 < s2
c = χ21−ασ2
0/(n − 1)
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − α
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − α
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2
5. Règle de décision :
rejeter H0 si p < pc1 = π0 − zα/2
√π0(1−π0)√
nou p > pc1 = π0 + zα/2
√π0(1−π0)√
n
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2
5. Règle de décision :
rejeter H0 si p < pc1 = π0 − zα/2
√π0(1−π0)√
nou p > pc1 = π0 + zα/2
√π0(1−π0)√
n
1. H0 : π = π0, H1 : π > π0 (test unilatéral)
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2
5. Règle de décision :
rejeter H0 si p < pc1 = π0 − zα/2
√π0(1−π0)√
nou p > pc1 = π0 + zα/2
√π0(1−π0)√
n
1. H0 : π = π0, H1 : π > π0 (test unilatéral). . .
5. Règle de décision : rejeter H0 si z > zα
Test sur une proportion
Polytech’Nice Sophia, Élec 3, 2007–2008 – 119
1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :
Z = (P − π)/(√
π(1 − π)/√
n)4. P (non-rejet de H0|H0 vraie) = 1 − α
P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(
√
π0(1 − π0)/√
n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2
5. Règle de décision :
rejeter H0 si p < pc1 = π0 − zα/2
√π0(1−π0)√
nou p > pc1 = π0 + zα/2
√π0(1−π0)√
n
1. H0 : π = π0, H1 : π > π0 (test unilatéral). . .
5. Règle de décision : rejeter H0 si z > zα
c.à.d. p > pc = π0 + zα
√π0(1−π0)√
n
Statistiques d’un échantillon : moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 121
Paramètre θ µ
Population ≈ normale — ≈ normale
Écart-type σ connu connu inconnu
Échantillon — n > 30 n > 30 n < 30
Statistique Θ X
St. normalisée Z = X−µσ/
√n
Z = X−µS/
√n
T = X−µS/
√n
Distribution N(0, 1) Student (ν)
D.L. — n − 1
Mesure θ x
Statistiques d’un échantillon : proportion, variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 122
Paramètre θ π σ2
Population — ≈ normale
Écart-type σ — —
Échantillon n > 30 1 —
Statistique Θ P S2
St. normalisée Z = P−π√π(1−π)/n
X2 = (n−1)S2
σ2
Distribution N(0, 1) khi-deux (ν)
D.L. — n − 1
Mesure θ p s2
1En plus : np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1.
Estimation / tests : un échantillon
Polytech’Nice Sophia, Élec 3, 2007–2008 – 123
Stat. Intervalle Test d’hypothèse H0 : θ = θ0
norm. de confiance H1 : θ 6= θ0 H1 : θ < θ0 H1 : θ > θ0
Z −zα2
< z < zα2
z < −zα2
ou > zα2
z < −zα z > zα
T −tα2
< t < tα2
t < −tα2
ou > tα2
t < −tα t > tα
X2 χ21−α
2< χ2 < χ2
α2
χ2 < χ21−α
2ou > χ2
α2
χ2 < χ21−α χ2 > χ2
α
mettre sous « entrer dans le monde de H0 » :
la forme : θ = θ0, calculer z, t, χ2 à partir des mesures ;
θL < θ < θH décisions de rejet de H0
H Intervalle de confiance : niveau de confiance 1 − α
H Tests d’hypothèse : seuil de signification α
H Voir tableaux unifiés dans le document « Aide-mémoire ».
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2=
σ21
n1+
σ22
n2
Distribution de la différence des moyennes (1/6) - rappel #98
Polytech’Nice Sophia, Élec 3, 2007–2008 – 125
H Conditions : σ1, σ2 connus et
populations normales N(µ1, σ1), N(µ2, σ2) ou
n1 > 30 et n2 > 30, ou
populations « presque » normales
H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2
X1 − X2 : normale
µX1−X2= µX1
− µX2= µ1 − µ2
σ2X1−X2
ind= σ2
X1+ σ2
X2=
σ21
n1+
σ22
n2
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance :
(x1 − x2) − zα/2
√σ21
n1+
σ22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√σ21
n1+
σ22
n2
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance :
(x1 − x2) − zα/2
√σ21
n1+
σ22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√σ21
n1+
σ22
n2
H Test d’hypothèse
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance :
(x1 − x2) − zα/2
√σ21
n1+
σ22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√σ21
n1+
σ22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance :
(x1 − x2) − zα/2
√σ21
n1+
σ22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√σ21
n1+
σ22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)
5. Règle de décision : rejeter H0 si z < −zα/2 ou z > zα/2
Distribution de la différence des moyennes (2/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 126
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales ou grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : connus
H Z = (X1−X2)−(µ1−µ2)r
σ21
n1+
σ22
n2
→ N(0, 1)
H Intervalle de confiance :
(x1 − x2) − zα/2
√σ21
n1+
σ22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√σ21
n1+
σ22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)
5. Règle de décision : rejeter H0 si z < −zα/2 ou z > zα/2
(x1 − x2) < (x1 − x2)c1 = d0 − zα/2
√σ21
n1+
σ22
n2ou
(x1 − x2) > (x1 − x2)c2 = d0 + zα/2
√σ21
n1+
σ22
n2
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance :
(x1 − x2) − zα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√s21
n1+
s22
n2
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance :
(x1 − x2) − zα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√s21
n1+
s22
n2
H Test d’hypothèse
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance :
(x1 − x2) − zα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance :
(x1 − x2) − zα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
Distribution de la différence des moyennes (3/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 127
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et grands échantillons (n1 > 30, n2 > 30)
H σ1, σ2 : inconnus
H Z = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→≈ N(0, 1)
H Équivalent de T → Z pour grands échantillons
H Intervalle de confiance :
(x1 − x2) − zα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + zα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(x1 − x2) > (x1 − x2)c = d0 + zα
√s21
n1+
s22
n2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1)
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance :
(x1 − x2) − tα/2sc
√1n1
+ 1n2
< µ1 − µ2 < (x1 − x2) + tα/2sc
√1n1
+ 1n2
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance :
(x1 − x2) − tα/2sc
√1n1
+ 1n2
< µ1 − µ2 < (x1 − x2) + tα/2sc
√1n1
+ 1n2
H Test d’hypothèse : . . .
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance :
(x1 − x2) − tα/2sc
√1n1
+ 1n2
< µ1 − µ2 < (x1 − x2) + tα/2sc
√1n1
+ 1n2
H Test d’hypothèse : . . .
H À propos des conditions :
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance :
(x1 − x2) − tα/2sc
√1n1
+ 1n2
< µ1 − µ2 < (x1 − x2) + tα/2sc
√1n1
+ 1n2
H Test d’hypothèse : . . .
H À propos des conditions :
σ1 ≈ σ2 ou populations ≈ normales : OK
Distribution de la différence des moyennes (4/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 128
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S2c
n1+
S2c
n2
= (X1−X2)−(µ1−µ2)
Sc
q
1n1
+ 1n2
→ Student
H Variance commune : S2c =
Pn1i=1 (X1i−X1)2+
Pn2i=1 (X2i−X2)2
(n1−1)+(n2−1) =(n1−1)S2
1+(n2−1)S22
(n1−1)+(n2−1)
H T : Student à (n1 + n2 − 2) d.l.
H Intervalle de confiance :
(x1 − x2) − tα/2sc
√1n1
+ 1n2
< µ1 − µ2 < (x1 − x2) + tα/2sc
√1n1
+ 1n2
H Test d’hypothèse : . . .
H À propos des conditions :
σ1 ≈ σ2 ou populations ≈ normales : OK
σ1 6= σ2 et normales : OK si n1 = n2
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l.
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance :
(x1 − x2) − tα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + tα/2
√s21
n1+
s22
n2
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance :
(x1 − x2) − tα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + tα/2
√s21
n1+
s22
n2
H Test d’hypothèse
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance :
(x1 − x2) − tα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + tα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance :
(x1 − x2) − tα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + tα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)
5. Règle de décision : rejeter H0 si t < tα
Distribution de la différence des moyennes (5/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 129
H Échantillons aléatoires et indépendants de tailles n1, n2
H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)
H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)
H T = (X1−X2)−(µ1−µ2)r
S21
n1+
S22
n2
→ Student à ν d.l. ; ν =
„
S21
n1+
S22
n2
«2
(S21/n1)2
n1−1+
(S22/n2)2
n2−1
H Arrondir ν au nombre entier inférieur.
H Intervalle de confiance :
(x1 − x2) − tα/2
√s21
n1+
s22
n2< µ1 − µ2 < (x1 − x2) + tα/2
√s21
n1+
s22
n2
H Test d’hypothèse :
1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)
5. Règle de décision : rejeter H0 si t < tα
(x1 − x2) < (x1 − x2)c = d0 − tα
√s21
n1+
s22
n2
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu :
T = D−µD
sD/√
nà (n − 1) d.l.
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu :
T = D−µD
sD/√
nà (n − 1) d.l.
H Intervalle de confiance
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu :
T = D−µD
sD/√
nà (n − 1) d.l.
H Intervalle de confiance : d − tα/2sD√
n< µD < d + tα/2
sD√n
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu :
T = D−µD
sD/√
nà (n − 1) d.l.
H Intervalle de confiance : d − tα/2sD√
n< µD < d + tα/2
sD√n
H Test d’hypothèse : . . .
Distribution de la différence des moyennes (6/6)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 130
H Échantillons aléatoires et appariés de tailles n1 = n2 = n
H Appariés : « avant / après »
H Population : nouvelle v.a. D = X1 − X2 (µD, σD)
H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !
H Population normale ou grands échantillons (n > 30), σD connu :
Z = D−µD
σD/√
n→ N(0, 1)
H Population normale et petits échantillons (n < 30), σD inconnu :
T = D−µD
sD/√
nà (n − 1) d.l.
H Intervalle de confiance : d − tα/2sD√
n< µD < d + tα/2
sD√n
H Test d’hypothèse : . . .
H Échantillons appariés : un seul nouvel échantillon !
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Si d0 = 0, π1 = π2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1
i=1 x1i+Pn2
i=1 x2i
n1+n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1
i=1 x1i+Pn2
i=1 x2i
n1+n2= n1p1+n2p2
n1+n2
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1
i=1 x1i+Pn2
i=1 x2i
n1+n2= n1p1+n2p2
n1+n2
Si d0 6= 0
Distribution de la différence des proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 131
H Échantillons aléatoires et indépendants de tailles n1, n2
H Grands échantillons (n1 > 30, n2 > 30)
H Proportions : Pi = N(πi,√
πi(1 − πi)/√
ni)
H Z = (P1−P2)−(π1−π2)r
π1(1−π1)n1
+π2(1−π2)
n2
→ N(0, 1)
H Intervalle de confiance : (p1 − p2) − zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2< π1 − π2 <
(p1 − p2) + zα/2
√π1(1−π1)
n1+ π2(1−π2)
n2; remplacer πi(1 − πi) → pi(1 − pi)
H Test d’hypothèse :
1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)
5. Règle de décision : rejeter H0 si z > zα
(p1 − p2) > (p1 − p2)c = d0 + zα
√π1(1−π1)
n1+ π2(1−π2)
n2
Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1
i=1 x1i+Pn2
i=1 x2i
n1+n2= n1p1+n2p2
n1+n2
Si d0 6= 0 : remplacer πj → pj
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2))
Distribution du rapport des variances (1/2) - rappel #99
Polytech’Nice Sophia, Élec 3, 2007–2008 – 132
H Échantillons aléatoires et indépendants de tailles n1, n2
H Provenant de populations normales de variances σ21, σ
22
H Variances des échantillons : S21 , S2
2
H F =S2
1/σ21
S22/σ2
2= V1/ν1
V2/ν2
H Vi =(ni−1)S2
i
σ2i
: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.
H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.
H F ≥ 0
H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2))
H fα(ν1, ν2) = 1f1−α(ν2,ν1) (propriété de la loi F )
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α)
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2 c-à-d s21/s2
2 < f1−α/2 ou s21/s2
2 > fα/2
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2 c-à-d s21/s2
2 < f1−α/2 ou s21/s2
2 > fα/2
H1 : σ1 > σ2
f > fα
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2 c-à-d s21/s2
2 < f1−α/2 ou s21/s2
2 > fα/2
H1 : σ1 > σ2
f > fα c-à-d s21/s2
2 > fα
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2 c-à-d s21/s2
2 < f1−α/2 ou s21/s2
2 > fα/2
H1 : σ1 > σ2
f > fα c-à-d s21/s2
2 > fα
H1 : σ1 < σ2
f < f1−α
Distribution du rapport des variances (2/2)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 133
H F =S2
1/σ21
S22/σ2
2=
S21
S22
σ22
σ21
H Intervalle de confiance (niveau de confiance 1 − α) :
f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)
s21
s22
1fα/2(ν1,ν2) <
σ21
σ22
<s21
s22
1f1−α/2(ν1,ν2)
H Test d’hypothèse H0 : σ1 = σ2
H Règle de décision : rejeter H0 si
H1 : σ1 6= σ2
f < f1−α/2 ou f > fα/2 c-à-d s21/s2
2 < f1−α/2 ou s21/s2
2 > fα/2
H1 : σ1 > σ2
f > fα c-à-d s21/s2
2 > fα
H1 : σ1 < σ2
f < f1−α c-à-d s21/s2
2 < f1−α/2
Statistiques de deux (grands) échantillons : moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 135
Paramètre θ µ2 − µ1
Populations ≈ normales — ≈ normales
Écart-types σ1, σ2 connus connus inconnus
Échantillons — n1 > 30 et n2 > 30 n1 > 30 et n2 > 30
Statistique Θ X2 − X1
St. normalisée Z = (X2−X1)−(µ2−µ1)r
σ21
n1+
σ22
n2
Z = (X2−X1)−(µ2−µ1)r
S21
n1+
S22
n2
Distribution N(0, 1)
Degrés de liberté —
Mesure θ x2 − x1
Statistiques de deux (petits) échantillons : moyenne
Polytech’Nice Sophia, Élec 3, 2007–2008 – 136
Paramètre θ µ2 − µ1
Populations ≈ normales
Écart-types σ1, σ2 inc., σ1 = σ2 ou n1 = n2 inc., σ1 6= σ2 et n1 6= n2
Échantillons n1 < 30 ou n2 < 30
Statistique Θ X2 − X1
St. normalisée T = (X2−X1)−(µ2−µ1)
Sc
q
1n1
+ 1n2
T = (X2−X1)−(µ2−µ1)r
S21
n1+
S22
n2
Distribution Student (ν)
Degrés de liberté n1 + n2 − 2 ν∗
Mesure θ x2 − x1
Rappels Sc : diapo #128 ν∗ : diapo #129
Statistiques de deux échantillons : proportion, variance
Polytech’Nice Sophia, Élec 3, 2007–2008 – 137
Paramètre θ π2 − π1 σ21/σ2
2
Populations — ≈ normales
Écart-types σ1, σ2 — —
Échantillons n1 > 30 et n2 > 30 2 —
Statistique Θ P2 − P1 F
St. normalisée Z = (P2−P1)−(π2−π1)r
π1(1−π1)n1
+π2(1−π2)
n2
F =S2
1/σ21
S22/σ2
2
Distribution N(0, 1) Fischer (ν1, ν2)
Degrés de liberté — n1 − 1, n2 − 1
Mesure θ p2 − p1 s21/s2
2
2En plus : nipi ≥ 5, ni(1 − pi) ≥ 5, ni pi ≈ 0, ni pi ≈ 1 (i = 1, 2).
Estimation / tests : deux échantillons
Polytech’Nice Sophia, Élec 3, 2007–2008 – 138
Stat. Intervalle Test d’hypothèse H0 : θ = θ0
norm. de confiance H1 : θ 6= θ0 H1 : θ < θ0 H1 : θ > θ0
Z −zα2
< z < zα2
z < −zα2
ou > zα2
z < −zα z > zα
T −tα2
< t < tα2
t < −tα2
ou > tα2
t < −tα t > tα
F f1−α2
< f < fα2
f < f1−α2
ou f > fα2
f < f1−α f > fα
mettre sous « entrer dans le monde de H0 » :
la forme : θ = θ0, calculer z, t, χ2 à partir des mesures ;
θL < θ < θH décisions de rejet de H0
H Intervalle de confiance : niveau de confiance 1 − α
H Tests d’hypothèse : seuil de signification α
H Voir tableaux unifiés dans le document « Aide-mémoire ».
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de α
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de αH Alternative
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de αH Alternative
Calculer αp (p-value) telle que θ = θc
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de αH Alternative
Calculer αp (p-value) telle que θ = θc
αp : rejeter H0 de façon marginale
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de αH Alternative
Calculer αp (p-value) telle que θ = θc
αp : rejeter H0 de façon marginaleH P-value (seuil descriptif) : la plus petite valeur de α = P (rejeterH0|H0 vraie)
qui conduirait au rejet de H0
Seuil descriptif (p-value)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 140
H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :
Mesurer θ ; comparer θ aux valeurs critiques θc
Valeurs critiques dépendent de αH Alternative
Calculer αp (p-value) telle que θ = θc
αp : rejeter H0 de façon marginaleH P-value (seuil descriptif) : la plus petite valeur de α = P (rejeterH0|H0 vraie)
qui conduirait au rejet de H0
H La probabilité de se retrouver « au moins aussi loin » de la H0 – dans le sens dela H1 – que l’échantillon examiné, si H0 est vraie.
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
T = (X − µ)/(S/√
n)
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
T = (X − µ)/(S/√
n)4. Région critique : T < −tα/2 et T > tα/2
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
T = (X − µ)/(S/√
n)4. Région critique : T < −tα/2 et T > tα/2
5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
T = (X − µ)/(S/√
n)4. Région critique : T < −tα/2 et T > tα/2
5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2
6. Prélever un échantillon et faire les calculs
Seuil descriptif (p-value) : exemple (1/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 141
H Test sur la moyenne, petit échantillon, population normale, σ inconnu
1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :
T = (X − µ)/(S/√
n)4. Région critique : T < −tα/2 et T > tα/2
5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2
6. Prélever un échantillon et faire les calculs7. Décider
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculs
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445
7. Décider
Seuil descriptif (p-value) : exemple (2/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 142
6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445
7. Décider : −tα/2 < t < tα/2, on ne peut pas rejeter H0 : µ = µ0 = 0
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculs
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488
7. Décider
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488
7. Décider : échantillon très probable si H0 est vraie
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488
7. Décider : échantillon très probable si H0 est vraieH T-test avec R :
> t.test(x, mean=0, alternative = c("two.sided"))
Seuil descriptif (p-value) : exemple (3/3)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 143
6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488
7. Décider : échantillon très probable si H0 est vraieH T-test avec R :
> t.test(x, mean=0, alternative = c("two.sided"))One Sample t-testdata : xt = 0.206, df = 4, p-value = 0.8468alternative hypothesis : true mean is not equal to 095 percent confidence interval :-1.537343 1.783758
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value
H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value
H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)
H Condition : ei ≥ 5 au moins pour 80% des classes ; ei > 0 pour les autres
Définition – cadre général
Polytech’Nice Sophia, Élec 3, 2007–2008 – 145
Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).
H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H
χ2 =k∑
i=1
(oi − ei)2
ei
H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value
H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)
H Condition : ei ≥ 5 au moins pour 80% des classes ; ei > 0 pour les autresH Applications : test d’adéquation, d’indépendance, d’homogénéité, de proportions
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =
pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =
pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =
pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%H Commande R :
obs.vec = c(1037, 937, 1055, 1034, 929, 1008)
Test d’adéquation (ou d’ajustement)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 146
H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).
H Example : données sur plusieurs lancers d’un dé (données simulées. . . )
HFace 1 2 3 4 5 6 Total N
Fréquence (oi) 1037 937 1055 1034 929 1008 6000
H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000
H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =
pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%H Commande R :
obs.vec = c(1037, 937, 1055, 1034, 929, 1008)
chisq.test( obs.vec, p = rep( 1/6, times=6 ) )
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Pli=1 oij
n
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Pli=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Pli=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)]
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Pli=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)
Test d’indépendance / tableau de contingence
Polytech’Nice Sophia, Élec 3, 2007–2008 – 147
On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.
H0 : les deux caractères X et Y sont indépendants.
H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)
H
Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327
H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon
H πij = πiπj → eij
n =Pc
j=1 oij
n
Pli=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)
H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =
pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =
pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =
pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%H Commande R :
tableau.cont = rbind( c(340, 314), c(289, 384) )
Test d’indépendance : correction de Yates
Polytech’Nice Sophia, Élec 3, 2007–2008 – 148
H Si ν = 1 (tableau 2 × 2) utiliser :
χ2 =∑
i,k
(|oij − eij | − 0.5)2
eij
H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =
pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%H Commande R :
tableau.cont = rbind( c(340, 314), c(289, 384) )
chisq.test( tableau.cont, correct=TRUE )
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 149
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 149
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.
H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 149
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.
H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).
H Example : notes (fictives) échantillonnées dans trois parcours
H
Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 149
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.
H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).
H Example : notes (fictives) échantillonnées dans trois parcours
H
Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700
H H0 : proportion de chaque modalité constante ;πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 149
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.
H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).
H Example : notes (fictives) échantillonnées dans trois parcours
H
Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700
H H0 : proportion de chaque modalité constante ;πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)
H On estime πi à partir des fréquences marginales de l’échantillon
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi → eij
nj=
Pcj=1 oij
n
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi → eij
nj=
Pcj=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
︸ ︷︷ ︸
nj
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi → eij
nj=
Pcj=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
︸ ︷︷ ︸
nj
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi → eij
nj=
Pcj=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
︸ ︷︷ ︸
nj
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)
H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 150
H
Note \ Parcours I II III Total
0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419
Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;
πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon
H πij = πi → eij
nj=
Pcj=1 oij
n → eij =1
n
c∑
j=1
oij
l∑
i=1
oij
︸ ︷︷ ︸
nj
H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)
H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)H Même formule que le test d’indépendance !
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =
pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =
pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7
H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =
pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7
H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !H Commande R :
tableau = cbind(c(32, 123, 145), c(15, 60, 125), c(8, 43, 149))
Test d’homogénéité
Polytech’Nice Sophia, Élec 3, 2007–2008 – 151
H
χ2 =∑
i,k
(oij − eij)2
eij
H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =
pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7
H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !H Commande R :
tableau = cbind(c(32, 123, 145), c(15, 60, 125), c(8, 43, 149))
chisq.test( tableau )
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = π
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon
H « Oui » : πj = π
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon
H « Oui » : πj = π → e1j
nj=
Pcj=1 o1j
n
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon
H « Oui » : πj = π → e1j
nj=
Pcj=1 o1j
n
H « Non » : 1 − πj = 1 − π
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 152
À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).
H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).
H Example : nombre de pièces défectueuses et moment de productionH
Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170
Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835
H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon
H « Oui » : πj = π → e1j
nj=
Pcj=1 o1j
n
H « Non » : 1 − πj = 1 − π → e2j
nj=
Pcj=1 o2j
n
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =
pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =
pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =
pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :
oui.non = rbind(c(45, 55, 70), c(905, 890, 870))
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =
pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :
oui.non = rbind(c(45, 55, 70), c(905, 890, 870))chisq.test( oui.non )
Test de proportions
Polytech’Nice Sophia, Élec 3, 2007–2008 – 153
H eij =nj
n
∑cj=1 oij → eij =
1
n
c∑
j=1
oij
l∑
i=1
oij
H Même formule que le test d’indépendance / d’homogénéité !
H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1
H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =
pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :
oui.non = rbind(c(45, 55, 70), c(905, 890, 870))chisq.test( oui.non )ou, pour plus d’informations :oui = c( 45, 55, 70) ; essais = c( 950, 945, 940)prop.test( oui, essais )
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de liberté
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002H On ne peut pas rejeter H0
Test de proportions sans estimation de paramètres
Polytech’Nice Sophia, Élec 3, 2007–2008 – 154
Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.
H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).
H « Oui » : πj = pj → e1j
nj= pj
H « Non » : 1 − πj = 1 − pj → e2j
nj= 1 − pj
H ν = c : on ne perd aucun degré de libertéH Example précédent avec :
p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002H On ne peut pas rejeter H0
H Commande R :prop.test( oui, essais, p=c(0.05, 0.06, 0.08) )
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classes
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjn
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)
H Procédure spécifique : test de Shapiro–Wilk
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)
H Procédure spécifique : test de Shapiro–WilkH Commande R :
data = rnorm(100, mean=10, sd=2) % un exemple...
Test d’adéquation à la loi normale (Shapiro–Wilk)
Polytech’Nice Sophia, Élec 3, 2007–2008 – 155
H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.
H Procédure « classique » : test du χ2 (cf. TD 5)
1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm
3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes
3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)
H Procédure spécifique : test de Shapiro–WilkH Commande R :
data = rnorm(100, mean=10, sd=2) % un exemple...shapiro.test( data )
H Une grande p-value permet de ne pas rejetter l’hypothèse de normalité