cours de statistique appliqu e -...

1523
Polytech’Nice Sophia, Élec 3, 2007–2008 – 1 Statistique Appliquée Iannis Aliferis École Polytechnique de l’Université de Nice – Sophia Antipolis Polytech’Nice Sophia Département d’Électronique, 3 e année, 2007–2008 [email protected]

Upload: dotuyen

Post on 10-Sep-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

Polytech’Nice Sophia, Élec 3, 2007–2008 – 1

Statistique Appliquée

Iannis Aliferis

École Polytechnique de l’Université de Nice – Sophia AntipolisPolytech’Nice Sophia

Département d’Électronique, 3e année, 2007–2008

[email protected]

Introduction

H Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 2

Le cours en brefH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 3

RStatistique descriptive

Statistique inférentielle

Variables aléatoires

Probabilités

Plan du coursH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 4

H Rappels sur les probabilités

différentes définitions probabilité conditionelle indépendance

H Variables aléatoires (discrètes et continues)

fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.

H Statistique descriptive

moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches

H Statistique inférentielle

estimation intervalles de confiance tests d’hypothèse

Plan du coursH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 4

H Rappels sur les probabilités

différentes définitions probabilité conditionelle indépendance

H Variables aléatoires (discrètes et continues)

fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.

H Statistique descriptive

moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches

H Statistique inférentielle

estimation intervalles de confiance tests d’hypothèse

Plan du coursH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 4

H Rappels sur les probabilités

différentes définitions probabilité conditionelle indépendance

H Variables aléatoires (discrètes et continues)

fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.

H Statistique descriptive

moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches

H Statistique inférentielle

estimation intervalles de confiance tests d’hypothèse

Plan du coursH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 4

H Rappels sur les probabilités

différentes définitions probabilité conditionelle indépendance

H Variables aléatoires (discrètes et continues)

fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.

H Statistique descriptive

moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches

H Statistique inférentielle

estimation intervalles de confiance tests d’hypothèse

Plan du coursH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 4

H Rappels sur les probabilités

différentes définitions probabilité conditionelle indépendance

H Variables aléatoires (discrètes et continues)

fonction/densité de probabilité espérance, variance, moments indépendance entre v.a.

H Statistique descriptive

moyenne, écart-type, quartiles, . . . histogrammes, boîtes à moustaches

H Statistique inférentielle

estimation intervalles de confiance tests d’hypothèse

BibliographieH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 5

H Probabilités, Variables Aléatoires :

P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006

D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002

H Statistique :

T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990

R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.

H R (livres disponibles en ligne) :

E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core

Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006

BibliographieH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 5

H Probabilités, Variables Aléatoires :

P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006

D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002

H Statistique :

T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990

R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.

H R (livres disponibles en ligne) :

E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core

Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006

BibliographieH Introduction

Le cours en bref

Plan du cours

Bibliographie

Polytech’Nice Sophia, Élec 3, 2007–2008 – 5

H Probabilités, Variables Aléatoires :

P. Bogaert, “Probabilités pour scientifiques et ingénieurs”, DeBoeck, Bruxelles, 2006

D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,Athena Scientific, Belmont, 2002

H Statistique :

T.H. Wonnacott, R.J. Wonnacott, “Introductory Statistics”,5th ed., Wiley, 1990

R.E. Walpole, R.H. Mayers, “Probability and Statistics forEngineers and Scientists”, Prentice Hall International, 1993.

H R (livres disponibles en ligne) :

E. Paradis, “R pour les débutants”, 2005 W. N. Venables, D. M. Smith and the R Development Core

Team, “An introduction to R”, 2006 W. J. Owen, “The R Guide”, 2006

Rappels sur les Probabilités

Polytech’Nice Sophia, Élec 3, 2007–2008 – 6

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

DéfinitionsH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 7

H Expérience aléatoire : plusieurs résultats possiblesH Issue ou éventualité ω : un des résultats possiblesH Univers Ω : l’ensemble de tous les résultatsH Événement A : un sous-ensemble de Ω

H Exemple :

« Compter le nombre de personnes présentes » ω1 = 1 (au moins. . . ), ω2 = 70, etc. Ω = 1, 2, . . . , Nmax A = il y a moins de 5 personnes = 1, 2, 3, 4 ⊂ Ω

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

Ω

A

B

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

Ω

A

B

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

Ω

A

B

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

Ω

A

B

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

Exemple : lancer deux désH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 8

Ω

A

B

H ω1 = (1, 1), ω2 = (3, 4), ω3 = (4, 3), . . .H Ω = (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6)H A = la somme est égale à 6H B = le 1er est entre 3 et 5 ; le 2nd entre 2 et 4

EnsemblesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 9

intersection S ∩ T union S ∪ T Sc ∩ T

Sc, T ⊂ S disjoints partition

Ω

Ω

Ω

Ω

Ω

Ω

S SS

SSS

TT

T

TT

T

U

U

V

H Disjoints :⋂

i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et

i Si = ΩH De Morgan 1 : (

i Si)c =

i Sci

H De Morgan 2 : (⋃

i Si)c =

i Sci

EnsemblesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 9

intersection S ∩ T union S ∪ T Sc ∩ T

Sc, T ⊂ S disjoints partition

Ω

Ω

Ω

Ω

Ω

Ω

S SS

SSS

TT

T

TT

T

U

U

V

H Disjoints :⋂

i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et

i Si = ΩH De Morgan 1 : (

i Si)c =

i Sci

H De Morgan 2 : (⋃

i Si)c =

i Sci

EnsemblesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 9

intersection S ∩ T union S ∪ T Sc ∩ T

Sc, T ⊂ S disjoints partition

Ω

Ω

Ω

Ω

Ω

Ω

S SS

SSS

TT

T

TT

T

U

U

V

H Disjoints :⋂

i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et

i Si = ΩH De Morgan 1 : (

i Si)c =

i Sci

H De Morgan 2 : (⋃

i Si)c =

i Sci

EnsemblesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 9

intersection S ∩ T union S ∪ T Sc ∩ T

Sc, T ⊂ S disjoints partition

Ω

Ω

Ω

Ω

Ω

Ω

S SS

SSS

TT

T

TT

T

U

U

V

H Disjoints :⋂

i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et

i Si = ΩH De Morgan 1 : (

i Si)c =

i Sci

H De Morgan 2 : (⋃

i Si)c =

i Sci

EnsemblesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 9

intersection S ∩ T union S ∪ T Sc ∩ T

Sc, T ⊂ S disjoints partition

Ω

Ω

Ω

Ω

Ω

Ω

S SS

SSS

TT

T

TT

T

U

U

V

H Disjoints :⋂

i Si = ∅ (mutuellement exclusifs)H Partition : Si disjoints et

i Si = ΩH De Morgan 1 : (

i Si)c =

i Sci

H De Morgan 2 : (⋃

i Si)c =

i Sci

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

Modèle probabilisteH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 10

1. Définir l’ensemble Ω.2. Attribuer un nombre P (A) ∈ [0, 1] à un événement A.

H Définition classique (Laplace)

P (A) =nombre de cas équiprobables favorablesnombre de cas équiprobables possibles

H Définition intuitive (fréquence relative)

P (A) = limn→∞

Nn(A)

n

H Définition axiomatique (Kolmogorov)

1. P (A) ≥ 0 pour chaque événement A ⊆ Ω2. P (A ∪ B) = P (A) + P (B) pour A et B disjoints3. P (Ω) = 1

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

PropriétésH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 11

1. P (Ac) = 1 − P (A)

dém. : P (Ω) = P (A ∪ Ac)A∩Ac=∅

= P (A) + P (Ac) = 12. P (∅) = 0 = P (Ωc)3. Si A ⊂ B, P (A) ≤ P (B)4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B)5. P (A ∪ B) ≤ P (A) + P (B)6. P (A ∪ B ∪ C) = P (A) + P (Ac ∩ B) + P (Ac ∩ Bc ∩ C)

H Interprétation graphique :

P (A) ≤ P (B) P (A ∪ B)

A ∩ BAc ∩ B

Ω Ω

AA

B B

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

Probabilité conditionnelleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Attribuer un nombre P (A|B) ∈ [0, 1] à un événement A,sachant que l’événement B (P (B) 6= 0) a été réalisé.

H Exemple : lancer deux dés

Ω

A

B

H Toutes les issues ωi (i = 1, . . . , 36)sont équiprobables

H P (A) = 536

H P (B) = 936

H P (A|B) = 29 = 2/36

9/36H

P (A|B) =P (A ∩ B)

P (B)

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =H P (Fumeurs) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) =H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654654Femmes 289 384 673

Total 629 698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) =H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673673

Total 629 698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) =H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629629 698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) =H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) =

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340340 314 654Femmes 289 384 673

Total 629 698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) =

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340340 314 654654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) = 340/654 = 0.53

H P (Fumeurs|Femmes) =

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289289 384 673673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) = 340/654 = 0.53

H P (Fumeurs|Femmes) = 289/673 = 0.43

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

Fréquences relativesFumeurs Non fumeurs Total

Hommes 0.26 0.24 0.49

Femmes 0.22 0.29 0.51

Total 0.47 0.53 1

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49

H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

Fréquences relativesFumeurs Non fumeurs Total

Hommes 0.260.26 0.24 0.49

Femmes 0.22 0.29 0.51

Total 0.47 0.53 1

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes)P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.260.26/0.49

H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

Fréquences relativesFumeurs Non fumeurs Total

Hommes 0.26 0.24 0.490.49

Femmes 0.22 0.29 0.51

Total 0.47 0.53 1

H P (Hommes)P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.490.49

H P (Fumeurs|Femmes) = 289/673 = 0.43 = 0.22/0.51

[Extra] Exemple : le tabac et les jeunes (20-25 ans)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 12

Source : INPES, baromètre santé 2000

Fréquences relativesFumeurs Non fumeurs Total

Hommes 0.26 0.24 0.49

Femmes 0.22 0.29 0.51

Total 0.47 0.53 1

H P (Hommes) = 654/1327 = 0.49H P (Femmes) = 673/1327 = 0.51H P (Fumeurs) = 629/1327 = 0.47H P (Non fumeurs) = 698/1327 = 0.53H P (Fumeurs ∩ Hommes) = 340/1327 = 0.26

H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49

H P (Fumeurs|Femmes)P (Fumeurs|Femmes) = 289/673 = 0.430.43 = 0.22/0.51

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Un nouvel Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 13

H La probabilité conditionnelle satisfait les trois axiomes :

1. P (A|B) = P (A∩B)P (B) ≥ 0 pour chaque événement A ⊆ Ω

2. P (A1 ∪ A2|B) = P (A1|B) + P (A2|B) pour A1 et A2 disjoints3. P (Ω|B) = 1 (univers Ω)

H Les propriétés générales restent valables, p.ex.,P (A ∪ C|B) ≤ P (A|B) + P (C|B)

H On peut remplacer 3. par3’. P (B|B) = P (B∩B)

P (B) = 1 (univers B)

H P (A|B) : loi de probabilité ; univers : Ω → B !

H Approche séquentielle :

P (A ∩ B) = P (B)P (A|B)

P (⋂n

i=1 Ai) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) . . . P(

An|⋂n−1

i=1 Ai

)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) =

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

H Quelle est la probabilité qu’un avion ne soit pas détecté ?

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) =

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S)

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S) = P (S)[1 − P (T |S)]

Exemple : fausse alarme

Polytech’Nice Sophia, Élec 3, 2007–2008 – 14

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une fausse alarme ?P (Sc ∩ T ) = P (Sc)P (T |Sc) = [1 − P (S)]P (T |Sc) = 0.95 · 0.10 = 0.095

H Quelle est la probabilité qu’un avion ne soit pas détecté ?P (S ∩ T c) = P (S)P (T c|S) = P (S)[1 − P (T |S)] = 0.05 · 0.01 = 0.0005

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai)

Théorème de probabilité totaleH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilitétotaleThéorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

Ω

B

A1

A4

A2

A3

H A1, A2, . . . , An : une partition de ΩH B = (B ∩ A1) ∪ (B ∩ A2) ∪ . . . ∪ (B ∩ An)H B ∩ A1, B ∩ A2, . . . , B ∩ An : événements disjointsH P (B) = P (B ∩ A1) + P (B ∩ A2) + . . . + P (B ∩ An)

= P (A1)P (B|A1)+P (A2)P (B|A2)+. . .+P (An)P (B|An)

H P (B) =n∑

i=1

P (Ai)P (B|Ai) Diviser pour régner !

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) =

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S)

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S)

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S) + [1 − P (S)]P (T |Sc)

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950= 0.1445

[Extra] Exemple : fausse alarme (suite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 15

H Système radar

Avion : Présent / Absent Radar : Détection / Non détection Quatre issues possibles, Ω = (P, D), (A, D), (P, N), (A, N) S = un avion est présent = (P, D), (P, N) T = le radar signale la présence d’un avion = (P, D), (A, D) P (S) = 0.05P (S) = 0.05 (présence d’un avion) P (T |S) = 0.99 (détection si avion présent) P (T |Sc) = 0.10 (fausse détection : « détection » si avion absent)

H Quelle est la probabilité d’une alarme ?P (T )P (T ) = P (S)P (T |S) + P (Sc)P (T |Sc)

= P (S)P (T |S) + [1 − P (S)]P (T |Sc)= 0.05 · 0.99 + 0.95 · 0.10= 0.0495 + 0.0950= 0.14450.1445

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

Théorème de BayesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

H « Cause » A −→ « effet » B, P (B|A), P (B) 6= 0H À partir de P (B|A), calculer P (A|B) (effet −→ cause)H P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B)

P (A|B) = P (A)P (B|A)

P (B)

H Plusieurs causes Ai (i = 1, . . . , n), partition de Ω

P (Ai|B) = P (Ai)P (B|Ai)

P (B)

P (Ai|B) =P (Ai)P (B|Ai)

∑ni=1 P (Ai)P (B|Ai)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53/0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes)P (Hommes) = 654/1327 = 0.490.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.490.49 · 0.53/0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.530.53/0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs)P (Fumeurs) = 629/1327 = 0.470.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53/0.470.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340340 314 654654Femmes 289 384 673

Total 629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes) = 340/654 = 0.530.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53/0.47H P (Fumeurs|Hommes)P (Fumeurs|Hommes)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629629 698 13271327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs)P (Fumeurs) = 629/1327 = 0.470.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)P (Fumeurs)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340340 314 654Femmes 289 384 673

Total 629629 698 1327

H P (Hommes) = 654/1327 = 0.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs)P (Hommes|Fumeurs) = 340/629 = 0.540.54 = 0.26/0.47

= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)H P (Hommes|Fumeurs)P (Hommes|Fumeurs)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 16

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654654Femmes 289 384 673

Total 629 698 13271327

H P (Hommes)P (Hommes) = 654/1327 = 0.490.49H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53 = 0.26/0.49H P (Hommes|Fumeurs) = 340/629 = 0.54 = 0.26/0.47

= 0.49 · 0.53/0.47H P (Fumeurs|Hommes) > P (Fumeurs)H P (Hommes|Fumeurs) > P (Hommes)P (Hommes)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

P (B|A3) > P (B)

Ω

B

A1

A4

A2

A3

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

P (B|A3) > P (B)

Ω

B

A1

A4

A2

A3

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

P (B|A3) > P (B)

Ω

B

A1

A4

A2

A3

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

P (B|A3) > P (B)

Ω

B

A1

A4

A2

A3

Inférence bayésienne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 17

1. P (Ai|B) = P (Ai)P (B|Ai)

P (B)

H P (Ai) : a priori

H P (Ai|B) : a posteriori

H P (Ai|B) > P (Ai)

si P (B|Ai) > P (B)

2. P (Ai|B) = P (Ai)P (B|Ai)Pn

i=1 P (Ai)P (B|Ai)

H P (Ai)P (B|Ai) = P (B ∩ Ai)

H P (Ai|B) ∝ P (B ∩ Ai)

P (B|A3) < P (B)

Ω

B

A1

A4

A2

A3

P (B|A3) > P (B)

Ω

B

A1

A4

A2

A3

P (A2|B) > P (A1|B) > P (A4|B) > P (A3|B)

Ω

B

A1

A4

A2

A3

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

IndépendanceH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

1. Entre deux événements A et B :

H P (A ∩ B) = P (A)P (B)

H si P (B) 6= 0, P (A|B) =P (A ∩ B)

P (B)= P (A)

2. Entre deux événements A et B,

conditionnés par C, (P (C) 6= 0) :

H P (A ∩ B|C) = P (A|C)P (B|C)

H si P (B|C) 6= 0, P (A|B ∩ C) = P (A|C)

3. Entre plusieurs événements A1, A2, . . . , An :

H P(⋂

i∈S Ai

)=

i∈S P (Ai)

pour chaque S, sous-ensemble de 1, 2, . . . , n

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53H P (Fumeurs|Hommes) 6= P (Fumeurs)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 340/654 = 0.53H P (Fumeurs|Hommes) 6= P (Fumeurs)H Fumeur et Homme dépendants !

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

FréquencesFumeurs Non fumeurs Total

Hommes 340 314 654Femmes 289 384 673

Total 629 698 1327

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)H Fumeur et Homme indépendants !

[Extra] Exemple : le tabac et les jeunes (20-25 ans) (suite)H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

Source : INPES, baromètre santé 2000

Fréquences modifiéesmodifiéesFumeurs Non fumeurs Total

Hommes 310310 344344 654Femmes 319319 354354 673

Total 629 698 1327

H P (Fumeurs) = 629/1327 = 0.47H P (Fumeurs|Hommes) = 310/654 = 0.47H P (Fumeurs|Hommes) = P (Fumeurs)H Fumeur et Homme indépendants !

(Comment faire pour trouver la modification ?)

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants :

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs :

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0P (A ∩ B) = 0

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0

P (A|B) = 0

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0

P (A|B) = 0 et P (B|A) = 0

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0

P (A|B) = 0 et P (B|A) = 0rappel : P (A ∪ B) = P (A) + P (B)

[Extra] Disjoints = indépendants ?H Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 18

H Deux évenements A et B sont disjoints (mutuellement exclusifs).H Sont-ils indépendants ?

Ω

A

B

H Indépendants : P (A ∩ B) = P (A)P (B)P (A ∩ B) = P (A)P (B)H Mutuellement exclusifs : A ∩ B = ∅ −→ P (A ∩ B) = 0

P (A|B) = 0 et P (B|A) = 0rappel : P (A ∪ B) = P (A) + P (B)P (A ∪ B) = P (A) + P (B)

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Quelques stratégiesH Rappels sur lesProbabilités

DéfinitionsExemple: lancerdeux dés

EnsemblesModèleprobabiliste

Propriétés

Probabilitéconditionnelle

Un nouvel UniversExemple: faussealarmeThéorème deprobabilité totale

Théorème deBayes

Inférencebayésienne

Indépendance

QuelquesstratégiesCompter =multiplier. . .

. . . ou diviser!

Polytech’Nice Sophia, Élec 3, 2007–2008 – 19

H Définir Ω

H . . . ou juste compter ses éléments. . .

H Issues équiprobables : P (A) = card(A)card(Ω) (Laplace)

H Approche séquentielle (+ indépendance)

H Probabilité totale (trouver une partition)

H P (B|A) −→ P (A|B) : Bayes

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objets

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2)

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . .

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi n

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2)

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . .

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)]

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!

(n − k)!

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!

(n − k)!= nCk

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!

(n − k)!= nCk k!

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!

(n − k)!= nCk k!

(nPn = n!

Compter = multiplier. . .

Polytech’Nice Sophia, Élec 3, 2007–2008 – 20

H Opération à M étapes,H chacune pouvant être réalisée selon Ni façons (i = 1, . . . , M).H Nombre total des réalisations :

N = N1N2 . . . NM =M∏

i=1

Ni

1. Permutations de n objetsH

n(n − 1)(n − 2) . . . 2 · 1 = n!

2. Permutations de k objets choisis parmi nH

nPk = n(n − 1)(n − 2) . . . [n − (k − 1)] =n!

(n − k)!= nCk k!

(nPn = n! −→ 0! = 1)

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape)

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutations

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts (identiques

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons)

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!H répéter pour tous les groupes d’objets

. . . ou diviser !

Polytech’Nice Sophia, Élec 3, 2007–2008 – 21

3. Combinaisons de k objets choisis parmi n

H

nCk =

(n

k

)

=nPk

k!=

n!

k!(n − k)!

4. Repartitions de n objets dans n1, n2, . . . , nr groupes

H (n

n1, n2, . . . , nr

)

=n!

n1!n2! . . . nr!, (n1 + n2 + . . . + nr = n)

Méthode générale (par étape) :

H n objets : n! permutationsH ni objets non distincts (identiques ou combinaisons) : diviser par ni!H répéter pour tous les groupes d’objets

Multiplier pour toutes les étapes.

Variable Aléatoire Discrète (une seule)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 22

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

DéfinitionH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 23

H Associer une valeur réelle x à chaque issue ω

d’une expérience aléatoireH Variable aléatoire discrète (VAD) :

Nombre de valeurs possibles : fini ou infini dénombrable

Ω

Rx

H Une variable aléatoire est une fonction ! (Ω → R)H X : la variable aléatoire / x : une valeur possibleH Fonction de probabilité pX(x) :

P ( X = x︸ ︷︷ ︸

événement ∈ Ω

)simpl.= P (X = x) , pX(x)

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoire

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN identiquement distribuées :

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN identiquement distribuées :

1. représente, chacune, la même expérience aléatoire

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN identiquement distribuées :

1. représente, chacune, la même expérience aléatoireet la même association Ω → R

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN identiquement distribuées :

1. représente, chacune, la même expérience aléatoireet la même association Ω → R

2. est, chacune, à usage unique

V.A. : à usage uniqueH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 24

1. On « interroge » la v.a. X2. L’expérience aléatoire associée est effectuée3. Une issue ω ∈ Ω est réalisée4. À l’issue ω correspond une valeur x5. La v.a. X « répond » avec la valeur x

H Une v.a. X :

1. représente une expérience aléatoireet une association Ω → R

2. est à usage unique : une seule expérience effectuée !

H N v.a. X1, X2, . . . , XN identiquement distribuées :

1. représente, chacune, la même expérience aléatoireet la même association Ω → R

2. est, chacune, à usage unique :la même expérience répetée N fois !

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximale

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Ω

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Ω

1 2 3 4 5 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

1 / 36

3 / 36

5 / 36

7 / 36

9 / 36

11 / 36

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Ω

1 2 3 4 5 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

1 / 36

3 / 36

5 / 36

7 / 36

9 / 36

11 / 36

H⋂

xX = x = ∅

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Ω

1 2 3 4 5 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

1 / 36

3 / 36

5 / 36

7 / 36

9 / 36

11 / 36

H⋂

xX = x = ∅H

xX = x = Ω

Une partition naturelle de l’Univers

Polytech’Nice Sophia, Élec 3, 2007–2008 – 25

H Expérience : lancer deux dés ; X est la valeur maximalep.ex. : pX(2) = P (X = 2) = 3

36

Ω

1 2 3 4 5 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

1 / 36

3 / 36

5 / 36

7 / 36

9 / 36

11 / 36

H⋂

xX = x = ∅H

xX = x = ΩH Les événements X = x forment une partition de Ω

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x)

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x)

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x)

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω)

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

H Comment calculer pX(x) :

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

H Comment calculer pX(x) :

1. Trouver les valeurs possibles

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

H Comment calculer pX(x) :

1. Trouver les valeurs possibles ; indiquer les valeurs impossibles

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

H Comment calculer pX(x) :

1. Trouver les valeurs possibles ; indiquer les valeurs impossibles2. Répérer les issues ωi constituant l’événement X = x

Fonction de Probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 26

H Normalisation :∑

x pX(x) =∑

x P (X = x) disj.= P (

xX = x) part.= P (Ω) = 1

H P (X ∈ S) disj.=

x∈S pX(x)

Ω P ( X ∈ 2, 4 ) = pX(2) + pX(4) = 336 + 7

36

H Comment calculer pX(x) :

1. Trouver les valeurs possibles ; indiquer les valeurs impossibles2. Répérer les issues ωi constituant l’événement X = x3. Additionner les probabilités P (ωi)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|

−3 −2 −1 0 1 2 3

pX(x)

α

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|

−3 −2 −1 0 1 2 3

pX(x)

α

0 1 2 3

pY (y)

α

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|

−3 −2 −1 0 1 2 3

pX(x)

α

0 1 2 3

pY (y)

α

H Normalisation :

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 27

H Une fonction d’une V.A. est aussi une V.A.H Y = g(X)

H pY (y) = P (Y = y) = P(X ∈ SS=x|g(x)=y

) disj.=

x|g(x)=y pX(x)H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3 ; Y = |X|

−3 −2 −1 0 1 2 3

pX(x)

α

0 1 2 3

pY (y)

α

H Normalisation : α = 1/7

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

moyenne = x1+x2+...+xnn

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

moyenne = x1+x2+...+xnn

regrouper=

x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))

n

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

moyenne = x1+x2+...+xnn

regrouper=

x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))

n

−→n→∞

x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

moyenne = x1+x2+...+xnn

regrouper=

x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))

n

−→n→∞

x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))

=∑

x xpX(x)

Espérance de X

H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 28

H v.a.d. X ; m valeurs possibles

H classement par ordre : x(1) < x(2) < . . . < x(m)

H Comment calculer une valeur « moyenne » ?

1. Répéter la même expérience n fois !

(Considérer n v.a. X1, X2, . . . , Xn identiquement distribuées)

2. Prendre la moyenne des n valeurs x1, x2, . . . , xn obtenues :

moyenne = x1+x2+...+xnn

regrouper=

x(1)Nn(x(1))+x(2)Nn(x(2))+...+x(m)Nn(x(m))

n

−→n→∞

x(1)pX(x(1)) + x(2)pX(x(2)) + . . . + x(m)pX(x(m))

=∑

x xpX(x) , E[X]

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »

H Variancevar[X] = σ2

X = E[(X − E[X])2

]≥ 0

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »

H Variancevar[X] = σ2

X = E[(X − E[X])2

]≥ 0

H Écart-type

σX =√

var[X]

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »

H Variancevar[X] = σ2

X = E[(X − E[X])2

]≥ 0

H Écart-type

σX =√

var[X]

H n-ième moment (moment d’ordre n) : E[Xn]

Grandeurs statistiquesH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Espérance

µX = E[X] =∑

x

xpX(x)

centre de gravité de la distribution :∑

x (x − c)pX(x) = 0 , c = E[X]pX(x) : « masse de probabilité »

H Variancevar[X] = σ2

X = E[(X − E[X])2

]≥ 0

H Écart-type

σX =√

var[X]

H n-ième moment (moment d’ordre n) : E[Xn]H n-ième moment centré : E[(X − E[X])n]

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, F

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

E[X] = p

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

E[X] = p

(x − E[X])2

(1 − p)2

(0 − p)2

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

E[X] = p

(x − E[X])2

(1 − p)2

(0 − p)2

(x − E[X])2pX(x)

(1 − p)2pp2(1 − p)

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

E[X] = p

(x − E[X])2

(1 − p)2

(0 − p)2

(x − E[X])2pX(x)

(1 − p)2pp2(1 − p)

var[X] = p(1 − p)

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Expérience aléatoire : lancer une « pièce »H Univers : Ω = P, FH Variable aléatoire X : x = 1 si « pile », x = 0 si « face »

x

10

pX(x)

p1 − p

∑= 1

xpX(x)

p0

E[X] = p

(x − E[X])2

(1 − p)2

(0 − p)2

(x − E[X])2pX(x)

(1 − p)2pp2(1 − p)

var[X] = p(1 − p)

σX =√

p(1 − p)

[Extra] Variable aléatoire de BernoulliH VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

p : probabilité de succès à un essai

Esp

éran

ce /

écar

t−ty

pe

E[X]

σX

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

E[Y ] = 12α

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

E[Y ] = 12α

y

0123

pY (y)

α2α2α2α

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

E[Y ] = 12α

y

0123

pY (y)

α2α2α2α

∑= 1

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

E[Y ] = 12α

y

0123

pY (y)

α2α2α2α

∑= 1

ypY (y)

02α4α6α

[Etra] Espérance de g(X)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 29

H Exemple : X V.A. à distribution uniforme, x ∈ −3,−2, . . . , 3H Y = |X|

x

−3−2−1

0123

pX(x)

ααααααα

∑= 1

xpX(x)

−3α−2α−1α

01α2α3α

E[X] = 0

y

3210123

ypX(x)

3α2α1α0

1α2α3α

E[Y ] = 12α

y

0123

pY (y)

α2α2α2α

∑= 1

ypY (y)

02α4α6α

E[Y ] = 12α

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Espérance de g(X)H VariableAléatoire Discrète(une seule)

DéfinitionV.A.: à usageuniqueUne partitionnaturelle del’UniversFonction deProbabilitéFonction d’uneV.A.

Espérance de X

Grandeursstatistiques

Espérance deg(X)

Fonction linéaireCalcul de lavariance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 30

H

E[g(X)] =∑

x

g(x)pX(x)

H Y = g(X) , pY (y) =∑

x|g(x)=y pX(x)

H E[g(X)] = E[Y ]

=∑

y ypY (y)

=∑

y y∑

x|g(x)=y pX(x)

=∑

y

x|g(x)=y ypX(x)

=∑

y

x|g(x)=y g(x)pX(x)

=∑

x g(x)pX(x)

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x)

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b] = E[

(aX + b − E[aX + b])2]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b] = E[

(aX + b − E[aX + b])2]

= E[

(aX + b − aE[X] − b)2]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b] = E[

(aX + b − E[aX + b])2]

= E[

(aX + b − aE[X] − b)2]

= E[

(aX − aE[X])2]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b] = E[

(aX + b − E[aX + b])2]

= E[

(aX + b − aE[X] − b)2]

= E[

(aX − aE[X])2]

= a2E[

(X − E[X])2]

Fonction linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 31

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b] =∑

x (ax + b)pX(x) = a∑

x xpX(x) + b∑

x pX(x)= aE[X] + b

H var[Y ] = var[aX + b] = E[

(aX + b − E[aX + b])2]

= E[

(aX + b − aE[X] − b)2]

= E[

(aX − aE[X])2]

= a2E[

(X − E[X])2]

= a2var[X]

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Calcul de la variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 32

H

var[X] = E[X2

]− (E[X])2 ≥ 0

H var[X] = E[(X − E[X])2

]=

x (x − E[X])2pX(x)

=∑

x x2 − 2xE[X] + (E[X])2pX(x)

=∑

x x2pX(x) − 2E[X]∑

x xpX(x) + (E[X])2∑

x pX(x)

= E[X2

]− 2(E[X])2 + (E[X])2 = E

[X2

]− (E[X])2

H var[X] = E[(X − E[X]︸ ︷︷ ︸

cste

)2] = E[

X2 − 2XE[X] + (E[X])2]

= E[X2

]− 2E[X] E[X] + (E[X])2 = E

[X2

]− (E[X])2

Variables Aléatoires Discrètes (deux et plus)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

E[X] = 21/6 = 3.5

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

E[X] = 21/6 = 3.5

y

123456

pY (y)

1/363/365/367/369/3611/36

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

E[X] = 21/6 = 3.5

y

123456

pY (y)

1/363/365/367/369/3611/36∑

= 1

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

E[X] = 21/6 = 3.5

y

123456

pY (y)

1/363/365/367/369/3611/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variables aléatoires :

X : la valeur du premier déY : la valeur maximale des deux dés

x

123456

pX(x)

1/61/61/61/61/61/6

∑= 1

xpX(x)

1/62/63/64/65/66/6

E[X] = 21/6 = 3.5

y

123456

pY (y)

1/363/365/367/369/3611/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ] = 161/36 ≈ 4.47

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Variables aléatoires :X : la valeur du premier déY : la valeur maximale des deux dés

P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1

2

3

4

5

6

pY (y)∑

= 1

[Extra] Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 33

H Variables aléatoires :X : la valeur du premier déY : la valeur maximale des deux dés

P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/36 1/36 1/36 1/36 1/36 1/36 1/6

2 0 2/36 1/36 1/36 1/36 1/36 1/6

3 0 0 3/36 1/36 1/36 1/36 1/6

4 0 0 0 4/36 1/36 1/36 1/6

5 0 0 0 0 5/36 1/36 1/6

6 0 0 0 0 0 6/36 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

Deux variables aléatoiresH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H X, Y : V.A. associées à la même expérience aléatoire

H Fonction de probabilité conjointe :

pXY (x, y) , P ( X = x︸ ︷︷ ︸

événement ∈ Ω

∩ Y = y︸ ︷︷ ︸

événement ∈ Ω

)sim.= P (X = x, Y = y)

H P ((X, Y ) ∈ A) =∑

(x,y)∈A pXY (x, y)

H Fonctions de probabilité marginales :

pX(x) =∑

y pXY (x, y) , pY (y) =∑

x pXY (x, y)

H Z = g(X, Y ) , pZ(z) =∑

(x,y)|g(x,y)=z pXY (x, y)

E[Z] = E[g(X, Y )] =∑

x

y g(x, y)pXY (x, y)

E[aX + bY + c] = aE[X] + bE[Y ] + c

H Généralisation à n variables aléatoires

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux dés

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

02/181/185/182/188/18

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

02/181/185/182/188/18

∑= 1

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

02/181/185/182/188/18

∑= 1

ypY |B(y)

04/183/18

20/1810/1848/18

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

02/181/185/182/188/18

∑= 1

ypY |B(y)

04/183/18

20/1810/1848/18

E[Y |B]≈ 4.72

[Extra] V.A. conditionnée par un évenement

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Expérience aléatoire : lancer deux dés (encore)H Univers : Ω = . . . (utiliser la grille 6 × 6)H Variable aléatoire : Y = la valeur maximale des deux désH Évenements : A = le 1er dé est impair, B = le 1er dé est pair

y

123456

pY (y)

1/363/365/367/369/36

11/36∑

= 1

ypY (y)

1/366/36

15/3628/3645/3666/36

E[Y ]≈ 4.47

pY |A(y)

1/181/184/182/187/183/18

∑= 1

ypY |A(y)

1/182/18

12/188/18

35/1818/18

E[Y |A]≈ 4.22

pY |B(y)

02/181/185/182/188/18

∑= 1

ypY |B(y)

04/183/18

20/1810/1848/18

E[Y |B]≈ 4.72

H E[Y ] = 12E[Y |A] + 1

2E[Y |B]

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

123456

pY (y)∑

= 1

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pXY (x, y) , P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/36 1/36 1/36 1/36 1/36 1/36 1/62 0 2/36 1/36 1/36 1/36 1/36 1/63 0 0 3/36 1/36 1/36 1/36 1/64 0 0 0 4/36 1/36 1/36 1/65 0 0 0 0 5/36 1/36 1/66 0 0 0 0 0 6/36 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y]

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 11 1/3 1/5 1/7 1/9 1/11 1/622 00 2/3 1/5 1/7 1/9 1/11 1/633 00 0 3/5 1/7 1/9 1/11 1/644 00 0 0 4/7 1/9 1/11 1/655 00 0 0 0 5/9 1/11 1/666 00 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 11

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/31/3 1/5 1/7 1/9 1/11 1/622 0 2/32/3 1/5 1/7 1/9 1/11 1/633 0 00 3/5 1/7 1/9 1/11 1/644 0 00 0 4/7 1/9 1/11 1/655 0 00 0 0 5/9 1/11 1/666 0 00 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/35/3

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/3 1/51/5 1/7 1/9 1/11 1/622 0 2/3 1/51/5 1/7 1/9 1/11 1/633 0 0 3/53/5 1/7 1/9 1/11 1/644 0 0 00 4/7 1/9 1/11 1/655 0 0 00 0 5/9 1/11 1/666 0 0 00 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/512/5

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/3 1/5 1/71/7 1/9 1/11 1/622 0 2/3 1/5 1/71/7 1/9 1/11 1/633 0 0 3/5 1/71/7 1/9 1/11 1/644 0 0 0 4/74/7 1/9 1/11 1/655 0 0 0 00 5/9 1/11 1/666 0 0 0 00 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/722/7

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/3 1/5 1/7 1/91/9 1/11 1/622 0 2/3 1/5 1/7 1/91/9 1/11 1/633 0 0 3/5 1/7 1/91/9 1/11 1/644 0 0 0 4/7 1/91/9 1/11 1/655 0 0 0 0 5/95/9 1/11 1/666 0 0 0 0 00 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/935/9

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/3 1/5 1/7 1/9 1/111/11 1/622 0 2/3 1/5 1/7 1/9 1/111/11 1/633 0 0 3/5 1/7 1/9 1/111/11 1/644 0 0 0 4/7 1/9 1/111/11 1/655 0 0 0 0 5/9 1/111/11 1/666 0 0 0 0 0 6/116/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/1151/11

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ??

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y)pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y]E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y]pY (y)E[X|Y =y]

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/361/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 11 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/361/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/363/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/35/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/365/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/365/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/512/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/3612/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/367/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/722/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/3622/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/369/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/935/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/3635/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/3611/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/1151/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/3651/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y]pY (y)E[X|Y =y] 1/361/36 5/365/36 12/3612/36 22/3622/36 35/3635/36 51/3651/36P

=126/36P

=126/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1 1/3 1/5 1/7 1/9 1/11 1/61/622 0 2/3 1/5 1/7 1/9 1/11 1/61/633 0 0 3/5 1/7 1/9 1/11 1/61/644 0 0 0 4/7 1/9 1/11 1/61/655 0 0 0 0 5/9 1/11 1/61/666 0 0 0 0 0 6/11 1/61/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P

=126/36P

=126/36

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P

=126/36

H E[X] =∑

y pY (y)E[X|Y = y]

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P

=126/36

H E[X] =∑

y pY (y)E[X|Y = y] = E[ E[X|Y = y] ]

[Extra] V.A. conditionnée par une autre V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 34

H Variables aléatoires :X : la valeur du premier dé, Y : la valeur maximale des deux dés

pX|Y (x|y) , P (X = x|Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1 1/3 1/5 1/7 1/9 1/11 1/62 0 2/3 1/5 1/7 1/9 1/11 1/63 0 0 3/5 1/7 1/9 1/11 1/64 0 0 0 4/7 1/9 1/11 1/65 0 0 0 0 5/9 1/11 1/66 0 0 0 0 0 6/11 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1E[X|Y = y] 1 5/3 12/5 22/7 35/9 51/11 ?

pY (y)E[X|Y =y] 1/36 5/36 12/36 22/36 35/36 51/36P

=126/36

H E[X] =∑

y pY (y)E[X|Y = y]E[X|Y = y] = E[ E[X|Y = y]E[X|Y = y] ]

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = A

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y) ⇒ ∑

x pX|Y (x|y) = 1

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y) ⇒ ∑

x pX|Y (x|y) = 1Approche séquentielle :

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y) ⇒ ∑

x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y) ⇒ ∑

x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y) = pX(x)pY |X(y|x)

V.A. conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 35

H V.A. conditionnée par un événement A, P (A) 6= 0

pX|A(x) = P (X = x|A) =P (X = x ∩ A)

P (A)⋂

x (X = x ∩ A) = ∅ ,⋃

x (X = x ∩ A) = AP (A) =

x P (X = x ∩ A) ⇒ ∑

x pX|A(x) = 1H V.A. conditionnée par une autre V.A.

pX|Y (x|y)=P (X = x| Y = y︸ ︷︷ ︸

pY (y) 6=0

)=P (X = x ∩ Y = y)

P (Y = y) =pXY (x, y)

pY (y)

pY (y) =∑

x pXY (x, y) ⇒ ∑

x pX|Y (x|y) = 1Approche séquentielle :pXY (x, y) = pX(x)pY |X(y|x) = pY (y)pX|Y (x|y)

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Espérance conditionnelleH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 36

H E[X|A] ,∑

x xpX|A(x)

H E[g(X)|A] =∑

x g(x)pX|A(x)

H E[X|Y = y] ,∑

x xpX|Y (x|y)

H E[X] =∑

y pY (y)E[X|Y = y] (théorème d’espérance totale)

H A1, . . . , An : partition de Ω, P (Ai) 6= 0

E[X] =∑n

i=1 P (Ai)E[X|Ai]

H A1 ∩ B, . . . , An ∩ B : partition de B, P (Ai ∩ B) 6= 0

E[X|B] =∑n

i=1 P (Ai|B)E[X|Ai ∩ B]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Indépendance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

H Entre une V.A. X et un événement A :

P (X = x ∩ A) = P (X = x)P (A) = pX(x)P (A) , ∀x si P (A) 6= 0 , pX|A(x) = pX(x) , ∀x

H Entre deux V.A. X et Y :

pXY (x, y) = P (X = x ∩ Y = y) = P (X = x)P (Y = y)= pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

E[XY ] = E[X] E[Y ] , var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn] var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1

2

3

4

5

6

pY (y)∑

= 1

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216

2 1/216 3/216 5/216 7/216 9/216 11/216

3 1/216 3/216 5/216 7/216 9/216 11/216

4 1/216 3/216 5/216 7/216 9/216 11/216

5 1/216 3/216 5/216 7/216 9/216 11/216

6 1/216 3/216 5/216 7/216 9/216 11/216

pY (y)∑

= 1

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y)∑

= 1

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantes

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y)

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 11 2 3 4 5 6 pX(x)

11 1/2161/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 12161 · 1 · 1216

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 22 3 4 5 6 pX(x)

11 1/216 3/2163/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

2161 · 2 · 3216

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 66 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

66 1/216 3/216 5/216 7/216 9/216 11/21611/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

216 + . . . + 6 · 6 · 112166 · 6 · 11216

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

216 + . . . + 6 · 6 · 11216

ind.= E[X] E[Y ]

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

22 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

33 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

44 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

55 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

66 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

216 + . . . + 6 · 6 · 11216

ind.= E[X] E[Y ] =

(1 · 1

6 + . . . + 6 · 161 · 1

6 + . . . + 6 · 16

)

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 11 22 33 44 55 66 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/361/36 3/363/36 5/365/36 7/367/36 9/369/36 11/3611/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

216 + . . . + 6 · 6 · 11216

ind.= E[X] E[Y ] =

(1 · 1

6 + . . . + 6 · 16

) (1 · 1

36 + . . . + 6 · 11361 · 1

36 + . . . + 6 · 1136

)

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H pXY (x, y) = pX(x)pY (y) ∀x, y =⇒ X et Y indépendantesH E[XY ] =

x,y xypXY (x, y) = 1 · 1 · 1216 + 1 · 2 · 3

216 + . . . + 6 · 6 · 11216

ind.= E[X] E[Y ] =

(1 · 1

6 + . . . + 6 · 16

) (1 · 1

36 + . . . + 6 · 1136

)

= 216 · 161

36 ≈ 15.65

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ]

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 11 2 3 4 5 6 pX(x)

11 1/2161/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216(1 + 1)2 · 1216

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 66 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

66 1/216 3/216 5/216 7/216 9/216 11/21611/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216(6 + 6)2 · 11216

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36216 + 161

36

)2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ]

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]2 + E

[Y 2

]− E[Y ]2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

11 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

22 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

33 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

44 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

55 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

66 1/216 3/216 5/216 7/216 9/216 11/216 1/61/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]E

[X2

]− E[X]2 + E

[Y 2

]− E[Y ]2

=(12 · 1

6 + . . . + 62 · 1612 · 1

6 + . . . + 62 · 16

)

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]E[X]2 + E

[Y 2

]− E[Y ]2

=(12 · 1

6 + . . . + 62 · 16

)−

(216216

)2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 11 22 33 44 55 66 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/361/36 3/363/36 5/365/36 7/367/36 9/369/36 11/3611/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]2 + E

[Y 2

]E

[Y 2

]− E[Y ]2

=(12 · 1

6 + . . . + 62 · 16

)−

(216

)2+

(12 · 1

36 + . . . + 62 · 113612 · 1

36 + . . . + 62 · 1136

)

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]2 + E

[Y 2

]− E[Y ]E[Y ]2

=(12 · 1

6 + . . . + 62 · 16

)−

(216

)2+

(12 · 1

36 + . . . + 62 · 1136

)−

(1613616136

)2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]2 + E

[Y 2

]− E[Y ]2

=(12 · 1

6 + . . . + 62 · 16

)−

(216

)2+

(12 · 1

36 + . . . + 62 · 1136

)−

(16136

)2

= 916 −

(216

)2+ 791

36 −(

16136

)2

[Extra] Deux variables aléatoires indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 37

pXY (x, y) = P (X = x ∩ Y = y)x\y 1 2 3 4 5 6 pX(x)

1 1/216 3/216 5/216 7/216 9/216 11/216 1/6

2 1/216 3/216 5/216 7/216 9/216 11/216 1/6

3 1/216 3/216 5/216 7/216 9/216 11/216 1/6

4 1/216 3/216 5/216 7/216 9/216 11/216 1/6

5 1/216 3/216 5/216 7/216 9/216 11/216 1/6

6 1/216 3/216 5/216 7/216 9/216 11/216 1/6

pY (y) 1/36 3/36 5/36 7/36 9/36 11/36∑

= 1

H var[X + Y ] = E[(X + Y − E[X + Y ])2

]= E

[(X + Y )2

]− E[X + Y ]2

=(1 + 1)2 · 1

216 + . . . + (6 + 6)2 · 11216

(216 + 161

36

)2

ind.= var[X] + var[Y ] = E

[X2

]− E[X]2 + E

[Y 2

]− E[Y ]2

=(12 · 1

6 + . . . + 62 · 16

)−

(216

)2+

(12 · 1

36 + . . . + 62 · 1136

)−

(16136

)2

= 916 −

(216

)2+ 791

36 −(

16136

)2 ≈ 4.89

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)

(fonction de concantenation ; on la trouve partout !)

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)

(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”

(esp.x.fois.y n’est qu’un nom de variable !)

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)

(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”

(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :

?nom_de_la_commande ouhelp(nom_de_la_commande)

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)

(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”

(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :

?nom_de_la_commande ouhelp(nom_de_la_commande)

5. Un document très utile :Short-refcard.pdf (4 pages)

Deux variables aléatoires indépendantesH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

Cliquer sur le logo pour télécharger le script R !H R en 5 points

1. x <- 5 équivalent à x = 5

(les deux sont équivalents dans les versions récentes !)2. x = c(1, 2, 3) : x = (1, 2, 3)

(fonction de concantenation ; on la trouve partout !)3. On utilise le point “.” dans les noms à la place de “_”

(esp.x.fois.y n’est qu’un nom de variable !)4. Obtenir de l’aide sur une commande :

?nom_de_la_commande ouhelp(nom_de_la_commande)

5. Un document très utile :Short-refcard.pdf (4 pages)(plus la documentation proposée en bibliographie)

[Extra] Fonction de probabilité / Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

1 2 3 4 5 6

0.10

0.14

0.18

0.22

x

px E[X]

1 2 3 4 5 6

0.0

0.2

0.4

0.6

0.8

1.0

x

FX(x

)

pX(5)

Fonction de probabilité, pX(x) = P (X = x)

Fonction de répartition, FX(x) = P (X ≤ x)

[Extra] Fonction de probabilité / Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 38

1 2 3 4 5 6

0.05

0.15

0.25

y

py

E[Y]

1 2 3 4 5 6

0.0

0.2

0.4

0.6

0.8

1.0

y

FY(y

) pY(5)

Fonction de probabilité, pY (y) = P (Y = y)

Fonction de répartition, FY (y) = P (Y ≤ y)

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x)

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k))

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Monotone croissante (au sens large) :

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1

Fonction de répartitionH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 39

H

FX(x) , P (X ≤ x) =∑

x′≤x

pX(x′)

H Classement par ordre : x(1) < x(2) < . . . < x(m)

FX(x(k)) = P (X ≤ x(k)) =k∑

i=1

pX(x(i))

H Propriétés :

FX(x) : définie sur R ; continue à droite FX(x(k)) − FX(x−

(k)) = pX(x(k))

Monotone croissante (au sens large) :si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0 limx→+∞ FX(x) = 1 FX(x2) − FX(x1) = P (x1 < X ≤ x2)

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoire

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Si oui :

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Si oui :

y = ax + b (les valeurs des v.a.)

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Si oui :

y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Si oui :

y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)

H Comment « mesurer » la dépendance linéaire ?

Relation linéaire entre deux v.a. ?H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a.?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation Polytech’Nice Sophia, Élec 3, 2007–2008 – 40

H X et Y associées à la même expérience aléatoireH Est-ce que Y = aX + b ?

Si oui :

y = ax + b (les valeurs des v.a.) E[Y ] = aE[X] + b (les espérances des v.a.)

H Comment « mesurer » la dépendance linéaire ?H Exemple :

Expérience aléatoire : lancer deux désX : la valeur du premier déY : la valeur maximale des deux dés

Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 41

−4 −2 0 2 4 6

−4

−2

02

46

x

y

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 41

−4 −2 0 2 4 6

−4

−2

02

46

x

y

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

E[X]

E[Y]

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 41

−4 −2 0 2 4 6

−4

−2

02

46

x

y

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

E[X]

E[Y]

a=0.71; b=2

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

Relation linéaire ? (exploration graphique)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 41

−4 −2 0 2 4 6

−4

−2

02

46

x

y

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

E[X]

E[Y]

a=0.71; b=2

a=−0.44; b=6

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 42

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]

Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 42

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

a=0.71

a=−0.44

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′

Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 42

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

a=0.71

a=−0.44

8.68

6.18

3.68

1.18

−1.32

−3.82

3.71

2.21

0.71

−0.79

−2.29

0.74

0.24

−0.26

−0.76

−0.24

0.26

0.76

0.79

2.29 3.82

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′

x′y′ =?

Relation linéaire ? (exploration graphique 2)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 42

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

a=0.71

a=−0.44

8.68

6.18

3.68

1.18

−1.32

−3.82

3.71

2.21

0.71

−0.79

−2.29

0.74

0.24

−0.26

−0.76

−0.24

0.26

0.76

0.79

2.29 3.82

1/36

8.68

1/36

6.18

1/36

3.68

1/36

1.18

1/36

−1.32

1/36

−3.82

x

2/36

3.71

1/36

2.21

1/36

0.71

1/36

−0.79

1/36

−2.29

x

x

3/36

0.74

1/36

0.24

1/36

−0.26

1/36

−0.76

x

x

x

4/36

−0.24

1/36

0.26

1/36

0.76

x

x

x

x

5/36

0.79

1/36

2.29

x

x

x

x

x

6/36

3.82

a=0.71

a=−0.44

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′

x′y′ =?

Relation linéaire ? (conclusion)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 43

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

a=0.71

a=−0.44

8.68

6.18

3.68

1.18

−1.32

−3.82

3.71

2.21

0.71

−0.79

−2.29

0.74

0.24

−0.26

−0.76

−0.24

0.26

0.76

0.79

2.29 3.82

1/36

8.68

1/36

6.18

1/36

3.68

1/36

1.18

1/36

−1.32

1/36

−3.82

x

2/36

3.71

1/36

2.21

1/36

0.71

1/36

−0.79

1/36

−2.29

x

x

3/36

0.74

1/36

0.24

1/36

−0.26

1/36

−0.76

x

x

x

4/36

−0.24

1/36

0.26

1/36

0.76

x

x

x

x

5/36

0.79

1/36

2.29

x

x

x

x

x

6/36

3.82

a=0.71

a=−0.44

(x − E[X]) (y − E[Y]) > 0

(x − E[X]) (y − E[Y]) > 0

(x − E[X]) (y − E[Y]) < 0

(x − E[X]) (y − E[Y]) < 0

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′

x′y′ =?

Relation linéaire ? (conclusion)H VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 43

−4 −2 0 2 4 6

−4

−2

02

46

x’ = x − E[X]

y’ =

y −

E[Y

]

1/36

1/36

1/36

1/36

1/36

1/36

x

2/36

1/36

1/36

1/36

1/36

x

x

3/36

1/36

1/36

1/36

x

x

x

4/36

1/36

1/36

x

x

x

x

5/36

1/36

x

x

x

x

x

6/36

a=0.71

a=−0.44

8.68

6.18

3.68

1.18

−1.32

−3.82

3.71

2.21

0.71

−0.79

−2.29

0.74

0.24

−0.26

−0.76

−0.24

0.26

0.76

0.79

2.29 3.82

1/36

8.68

1/36

6.18

1/36

3.68

1/36

1.18

1/36

−1.32

1/36

−3.82

x

2/36

3.71

1/36

2.21

1/36

0.71

1/36

−0.79

1/36

−2.29

x

x

3/36

0.74

1/36

0.24

1/36

−0.26

1/36

−0.76

x

x

x

4/36

−0.24

1/36

0.26

1/36

0.76

x

x

x

x

5/36

0.79

1/36

2.29

x

x

x

x

x

6/36

3.82

a=0.71

a=−0.44

(x − E[X]) (y − E[Y]) > 0

(x − E[X]) (y − E[Y]) > 0

(x − E[X]) (y − E[Y]) < 0

(x − E[X]) (y − E[Y]) < 0

Y?= aX + b

Si oui :y = ax + bE[Y ] = aE[X] + b

X ′ = X − E[X]Y ′ = Y − E[Y ]Y ′ = aX ′

x′y′ =?

E[X ′Y ′] ≈ 1.46

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])]

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ]

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])]

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et Y

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X]

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX=

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX= sign(a)σXσY

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX= sign(a)σXσY

−σXσY ≤ cov[X, Y ] ≤ +σXσY

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX= sign(a)σXσY

−σXσY ≤ cov[X, Y ] ≤ +σXσY

H Coefficient de corrélation linéaire

ρ ,cov[X, Y ]

σXσY

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX= sign(a)σXσY

−σXσY ≤ cov[X, Y ] ≤ +σXσY

H Coefficient de corrélation linéaire

ρ ,cov[X, Y ]

σXσY− 1 ≤ ρ ≤ +1

Covariance / coefficient de corrélation linéaire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 44

H Covariance

cov[X, Y ] , E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ] = RXY −µXµY

cov[X, X] = E[(X − E[X])(X − E[X])] = E[X2

]− E[X]2 = var[X]

cov[X, Y ] ≫ 0 ou ≪ 0 : relation linéaire entre X et YQuelles sont les valeurs extrêmes de cov[X, Y ] ?

Si Y = aX + b ⇒ cov[X, Y ] = . . . = avar[X] = aσ2X

σY =|a|σX= sign(a)σXσY

−σXσY ≤ cov[X, Y ] ≤ +σXσY

H Coefficient de corrélation linéaire

ρ ,cov[X, Y ]

σXσY− 1 ≤ ρ ≤ +1 ρ = sign(a) si Y = aX + b

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ]

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ]

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0

H Si X et Y indépendantes ⇒ décorrélées

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0

H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0

H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !

(examiner, p.ex., X et Y = |X| dans le cas où E[X] = 0)

Indépendance / corrélationH VariablesAléatoiresDiscrètes (deux etplus)

Deux variablesaléatoires

V.A. conditionnéesEspéranceconditionnelle

Indépendance

Deux variablesaléatoiresindépendantes

Fonction derépartition

Relation linéaireentre deux v.a. ?(explorationgraphique)

(explorationgraphique 2)

(conclusion)

Covariance /coefficient decorrélation linéaireIndépendance /corrélation

Polytech’Nice Sophia, Élec 3, 2007–2008 – 45

H Coefficient de corrélation linéaire

ρ =cov[X, Y ]

σXσY=

E[XY ] − E[X] E[Y ]

σXσY

H Corrélation entre X et Y

RXY , E[XY ] =∑

x

y

xypXY (x, y)

H E[XY ]ind.= E[X] E[Y ] ⇒ ρ = 0

H Si X et Y indépendantes ⇒ décorréléesH Attention (1) : l’inverse n’est pas nécessairement vraie !

(examiner, p.ex., X et Y = |X| dans le cas où E[X] = 0)H Attention (2) : « corrélées / décorrélées » se réfère à ρ

(6= corrélation RXY !)

Variables Aléatoires Continues

Polytech’Nice Sophia, Élec 3, 2007–2008 – 46

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoire

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

H Exemples :

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

H Exemples :

la vitesse d’une voiture

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

H Exemples :

la vitesse d’une voiture le temps entre l’arrivée de deux clients

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

H Exemples :

la vitesse d’une voiture le temps entre l’arrivée de deux clients la « position » d’un électron

Définition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47

H Associer une valeur réelle à chaque issue d’une expérience aléatoireH Nombre de valeurs possibles : infini (non dénombrable)

Ω

Rx

H Exemples :

la vitesse d’une voiture le temps entre l’arrivée de deux clients la « position » d’un électron l’énergie d’une particule

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α32 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α32 2α64 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α32 2α64 2α. . . 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α32 2α64 2α. . . 2α

2n → ∞ 2α

[Extra] Quel infini ?

Polytech’Nice Sophia, Élec 3, 2007–2008 – 47α

# segm. longueur2 2α4 2α8 2α

16 2α32 2α64 2α. . . 2α

2n → ∞ 2α

∞√

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultats

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantes

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi]

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi]

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi] = np

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi] = np

H var[X]ind=

∑ni=1 var[Xi]

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi] = np

H var[X]ind=

∑ni=1 var[Xi] = nvar[Xi]

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi] = np

H var[X]ind=

∑ni=1 var[Xi] = nvar[Xi] = np(1 − p)

Nombre de succès sur n essais (v.a.d. binomiale)H VariablesAléatoiresContinues

DéfinitionNombre desuccès sur nessais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 48

H Expérience aléatoire : lancer n « pièces »H Les pièces sont indépendantes : « pile » avec probabilité p

indépendemmant des autres résultatsH La pièce i est représentée par une v.a.d. Xi de Bernoulli :

xi = 1 si « pile », xi = 0 si « face »H Nombre de « piles » sur n essais :

X = X1 + X2 + . . . + Xn =∑n

i=1 Xi

H X : somme de n v.a. Bernoulli indépendantesH X : v.a. binomiale de paramètres p, n (v.a. discrète)

pX(k) =

(n

k

)

pk(1 − p)n−k (0 ≤ k ≤ n)

H E[X] =∑n

i=1 E[Xi] = nE[Xi] = np

H var[X]ind=

∑ni=1 var[Xi] = nvar[Xi] = np(1 − p)

H (Comment faire la transition v.a.d. → v.a.c. ?)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 49

0.0 0.5 1.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 1k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 50

0.0 0.5 1.0 1.5 2.0

0.0

0.1

0.2

0.3

0.4

0.5

k

E[X]

0.0 0.5 1.0 1.5 2.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 2k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 51

0.0 0.5 1.0 1.5 2.0 2.5 3.0

0.0

0.1

0.2

0.3

k

E[X]

0.0 0.5 1.0 1.5 2.0 2.5 3.0

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 3k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 52

0 2 4 6 8 10

0.00

0.10

0.20

k

E[X]

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 10k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k) ∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 53

0 20 40 60 80 100

0.00

0.02

0.04

0.06

0.08

k

E[X]

0 20 40 60 80 100

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

∆FX |k

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 54

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

, pX(x) ddp

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 55

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

k

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

Nombre d’essais : 100k

Fonction de probabilité, pX(k) = P (X = k)

pX

(k)

Fonction de répartition, FX(k) = P (X ≤ k)

FX

(k)

V.A.D.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(k) − FX(k−) , ∆FX |k

= P (X = k) = pX(k)V.A.C.

H FX(b) − FX(a) == P (a < X ≤ b)

H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

, pX(x) ddpH FX(x) =

∫ x−∞ pX(u) du

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 56

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

x

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/ dx

pX

(x)

Fonction de répartition, FX(x) = P (X ≤ x)

FX

(x)

P (A)

P (A)

P (B)

P (B)

V.A.C.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

, pX(x) ddpH FX(x) =

∫ x−∞ pX(u) du

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 56

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

x

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/ dx

pX

(x)

Fonction de répartition, FX(x) = P (X ≤ x)

FX

(x)

P (A)

P (A)

P (B)

P (B)

V.A.C.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

, pX(x) ddpH FX(x) =

∫ x−∞ pX(u) du

H A = X ≤ 45

Fonction de répartition : v.a.d. vers v.a.c.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 56

35 40 45 50 55 60 65

0.00

0.02

0.04

0.06

0.08

x

35 40 45 50 55 60 65

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/ dx

pX

(x)

Fonction de répartition, FX(x) = P (X ≤ x)

FX

(x)

P (A)

P (A)

P (B)

P (B)

V.A.C.H FX(b) − FX(a) =

= P (a < X ≤ b)H FX(x + dx) − FX(x) , dFX

= P (x < X ≤ x + dx)H

dFXdx = P (x<X≤x+ dx)

dx

, pX(x) ddpH FX(x) =

∫ x−∞ pX(u) du

H A = X ≤ 45H B = 50 < X ≤ 60

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀x

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0)

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

H Normalisation :

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

H Normalisation :∫ +∞−∞ pX(x) dx

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞)

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞) = P (Ω)

Densité de probabilité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 57

H

P (x < X ≤ x + dx) = pX(x) dx

P (a < X ≤ b) =

∫ b

apX(x) dx

Ω

pX(x)

A

P (A)

xa b

A = a < X ≤ b

H pX(x) ≥ 0 , ∀xH P (X = x0) = P (x0 < X ≤ x0 =

∫ x0

x0pX(x) dx = 0

H Normalisation :∫ +∞−∞ pX(x) dx = P (−∞ < X < +∞) = P (Ω) = 1

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x)

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.)

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

limx→+∞ FX(x) = 1

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

limx→+∞ FX(x) = 1

FX(x2) − FX(x1) = P (x1 < X ≤ x2)

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

limx→+∞ FX(x) = 1

FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−

(k)) = pX(x(k))

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

limx→+∞ FX(x) = 1

FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−

(k)) = pX(x(k))

v.a.c. : dFX(x) = FX(x + dx) − FX(x) = P (x < X ≤ x + dx)

Fonction de répartition

Polytech’Nice Sophia, Élec 3, 2007–2008 – 58

H

FX(x) , P (X ≤ x) =

∫ x

−∞pX(u) du pX(x) =

dFX(x)

dx

H Propriétés :

FX(x) : définie sur R ; continue (v.a.c.) / cont. à droite (v.a.d.) Monotone croissante (au sens large) :

si x1 < x2 , FX(x1) ≤ FX(x2)

limx→−∞ FX(x) = 0

limx→+∞ FX(x) = 1

FX(x2) − FX(x1) = P (x1 < X ≤ x2) v.a.d. : FX(x(k)) − FX(x−

(k)) = pX(x(k))

v.a.c. : dFX(x) = FX(x + dx) − FX(x) = P (x < X ≤ x + dx)

dFX(x)

dx = P (x<X≤x+ dx)dx , pX(x)

Exemple : v.a. uniforme et v.a. normaleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 59

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

x

−3 −2 −1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x)

pX

(x)

fdr, FX(x) = P (X ≤ x)F

X(x

)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

=∑

xi|g(xi)=y0 P (xi < X ≤ xi + δxi)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

=∑

xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=

xi|g(xi)=y0 pX(xi) · δxi

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

=∑

xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=

xi|g(xi)=y0 pX(xi) · δxiH

pY (y0)

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

=∑

xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=

xi|g(xi)=y0 pX(xi) · δxiH

pY (y0) =∑

xi|g(xi)=y0pX(xi)

1

δy0/δxi

Fonction d’une V.A.

Polytech’Nice Sophia, Élec 3, 2007–2008 – 60

x

y = g(x)

x1 x1 + δx1 x2 x2 + δx2

y0

y0 + δy0

H P (y0 < Y ≤ y0 + δy0) = pY (y0) · δy0

=∑

xi|g(xi)=y0 P (xi < X ≤ xi + δxi)=

xi|g(xi)=y0 pX(xi) · δxiH

pY (y0) =∑

xi|g(xi)=y0pX(xi)

1

δy0/δxi=

xi|g(xi)=y0

pX(xi)

|g′(xi)|

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

H Espérance

µX = E[X] =

∫ +∞

−∞x pX(x) dx

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

H Espérance

µX = E[X] =

∫ +∞

−∞x pX(x) dx

H Espérance de g(X)

µg(X) = E[g(X)] =

∫ +∞

−∞g(x) pX(x) dx

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

H Espérance

µX = E[X] =

∫ +∞

−∞x pX(x) dx

H Espérance de g(X)

µg(X) = E[g(X)] =

∫ +∞

−∞g(x) pX(x) dx

H Variance

var[X] = σ2X = E

[(X − E[X])2

]= E

[X2

]− E[X]2

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

H Espérance

µX = E[X] =

∫ +∞

−∞x pX(x) dx

H Espérance de g(X)

µg(X) = E[g(X)] =

∫ +∞

−∞g(x) pX(x) dx

H Variance

var[X] = σ2X = E

[(X − E[X])2

]= E

[X2

]− E[X]2

H n-ième moment :

E[Xn] =

∫ +∞

−∞xn pX(x) dx

Grandeurs statistiques

Polytech’Nice Sophia, Élec 3, 2007–2008 – 61

H Espérance

µX = E[X] =

∫ +∞

−∞x pX(x) dx

H Espérance de g(X)

µg(X) = E[g(X)] =

∫ +∞

−∞g(x) pX(x) dx

H Variance

var[X] = σ2X = E

[(X − E[X])2

]= E

[X2

]− E[X]2

H n-ième moment :

E[Xn] =

∫ +∞

−∞xn pX(x) dx

H n-ième moment centré :

E[(X − E[X])n] =

∫ +∞

−∞(x − E[X])n pX(x) dx

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b]

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b]=

∫ +∞−∞ (ax + b) pX(x) dx

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b]=

∫ +∞−∞ (ax + b) pX(x) dx

= a∫ +∞−∞ x pX(x) dx + b

∫ +∞−∞ pX(x) dx

Fonction linéaireH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.GrandeursstatistiquesFonctionlinéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

IndépendancePolytech’Nice Sophia, Élec 3, 2007–2008 – 62

H

Y = aX + b

H

E[Y ] = aE[X] + b

var[Y ] = a2var[X] σY = |a|σX

H E[Y ] = E[aX + b]=

∫ +∞−∞ (ax + b) pX(x) dx

= a∫ +∞−∞ x pX(x) dx + b

∫ +∞−∞ pX(x) dx

= aE[X] + b

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoire

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy , pY (y) =

∫ +∞−∞ pXY (x, y) dx

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy , pY (y) =

∫ +∞−∞ pXY (x, y) dx

H Z = g(X, Y )

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy , pY (y) =

∫ +∞−∞ pXY (x, y) dx

H Z = g(X, Y )E[Z] = E[g(X, Y )] =

∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy , pY (y) =

∫ +∞−∞ pXY (x, y) dx

H Z = g(X, Y )E[Z] = E[g(X, Y )] =

∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy

E[aX + bY + c] = aE[X] + bE[Y ] + c

Deux variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 63

H X, Y : V.A. associées à la même expérience aléatoireH Densité de probabilité conjointe pXY (x, y) :H

P (x < X ≤ x + dx ∩ y < Y ≤ y + dy) = pXY (x, y) dxdy

P (a < X ≤ b ∩ c < Y ≤ d) =

∫ d

c

∫ b

apXY (x, y) dxdy

H Densités de probabilité marginales :pX(x) =

∫ +∞−∞ pXY (x, y) dy , pY (y) =

∫ +∞−∞ pXY (x, y) dx

H Z = g(X, Y )E[Z] = E[g(X, Y )] =

∫∫ +∞−∞ g(x, y)pXY (x, y) dxdy

E[aX + bY + c] = aE[X] + bE[Y ] + cH Généralisation à n variables aléatoires

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

pX|Y (x|y) =pXY (x, y)

pY (y), ∀y | pY (y) 6= 0

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

pX|Y (x|y) =pXY (x, y)

pY (y), ∀y | pY (y) 6= 0

Approche séquentielle :

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

pX|Y (x|y) =pXY (x, y)

pY (y), ∀y | pY (y) 6= 0

Approche séquentielle : pXY (x, y)

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

pX|Y (x|y) =pXY (x, y)

pY (y), ∀y | pY (y) 6= 0

Approche séquentielle : pXY (x, y) = pX(x)pY |X(y|x)

V.A. Conditionnées

Polytech’Nice Sophia, Élec 3, 2007–2008 – 64

H V.A. conditionnée par un événement A, P (A) 6= 0

ddpc pX|A(x) : P (x < X ≤ x + dx|A) = pX|A(x) dx

cas spécial : si A = X ∈ C :

pX|X∈C(x) =

pX(x)

P (X∈C) x ∈ C

0 x /∈ C

H V.A. conditionnée par une V.A.

pX|Y (x|y) =pXY (x, y)

pY (y), ∀y | pY (y) 6= 0

Approche séquentielle : pXY (x, y) = pX(x)pY |X(y|x) = pY (y)pX|Y (x|y)

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

H E[X] =∫

E[X|Y = y] pY (y) dy (théorème d’espérance totale)

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

H E[X] =∫

E[X|Y = y] pY (y) dy (théorème d’espérance totale)

H E[g(X)|Y = y] =∫

g(x) pX|Y (x|y) dx

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

H E[X] =∫

E[X|Y = y] pY (y) dy (théorème d’espérance totale)

H E[g(X)|Y = y] =∫

g(x) pX|Y (x|y) dx

H E[g(X)] =∫

E[g(X)|Y = y] pY (y) dy

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

H E[X] =∫

E[X|Y = y] pY (y) dy (théorème d’espérance totale)

H E[g(X)|Y = y] =∫

g(x) pX|Y (x|y) dx

H E[g(X)] =∫

E[g(X)|Y = y] pY (y) dy

H E[g(X, Y )|Y = y] =∫

g(x, y) pX|Y (x|y) dx

Espérance conditionnelleH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 65

H E[X|Y = y] =∫

x pX|Y (x|y) dx

H E[X] =∫

E[X|Y = y] pY (y) dy (théorème d’espérance totale)

H E[g(X)|Y = y] =∫

g(x) pX|Y (x|y) dx

H E[g(X)] =∫

E[g(X)|Y = y] pY (y) dy

H E[g(X, Y )|Y = y] =∫

g(x, y) pX|Y (x|y) dx

H E[g(X, Y )] =∫

E[g(X, Y )|Y = y] pY (y) dy

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B)

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ]

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

var[X + Y ] = var[X] + var[Y ]

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn]

IndépendanceH VariablesAléatoiresContinues

DéfinitionNombre de succèssur n essais (v.a.d.binomiale)

Fonction derépartition: v.a.d.vers v.a.c.Densité deprobabilité

Fonction derépartition

Exemple: v.a.uniforme et v.a.normaleFonction d’uneV.A.Grandeursstatistiques

Fonction linéaireDeux variablesaléatoiresV.A.ConditionnéesEspéranceconditionnelle

Indépendance Polytech’Nice Sophia, Élec 3, 2007–2008 – 66

H Entre deux V.A. X et Y :

H pXY (x, y) = pX(x)pY (y) , ∀x, y

pX|Y (x, y) = pX(x) , ∀x et ∀y, pY (y) 6= 0

P (X ∈ A ∩ Y ∈ B) = P (X ∈ A) · P (Y ∈ B) E[XY ] = E[X] E[Y ] ⇒ cov[X, Y ] = 0 : v.a. non corrélées

E[g(X)h(Y )] = E[g(X)] E[h(Y )]

var[X + Y ] = var[X] + var[Y ]

H Entre n V.A. X1, . . . , Xn

H pX1...Xn(x1, . . . , xn) = pX1(x1) . . . pXn(xn) , ∀x1, . . . , xn

E[X1 . . .Xn] = E[X1] . . .E[Xn]

var[X1 + . . . + Xn] = var[X1] + . . . + var[Xn]

Statistique Descriptive

Polytech’Nice Sophia, Élec 3, 2007–2008 – 67

Quelques définitionsH StatistiqueDescriptive

QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007

Polytech’Nice Sophia, Élec 3, 2007–2008 – 68

Quelques définitionsH StatistiqueDescriptive

QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007

Polytech’Nice Sophia, Élec 3, 2007–2008 – 68

H Population statistique : ensemble d’individus à étudier

finie infinie

H Individu / unité statistiqueH Caractère / variable statistique

qualitatif quantitatif (discret / continu)

H Échantillon : sous-ensemble de la populationH Fréquences

absolues (effectifs) relatives (proportions)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2 =

nPn

i=1 (xi)2−(

Pni=1 xi)

2

n(n−1)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2 =

nPn

i=1 (xi)2−(

Pni=1 xi)

2

n(n−1) (attn. si s/x ≪ 1)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2 =

nPn

i=1 (xi)2−(

Pni=1 xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : s (sd)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2 =

nPn

i=1 (xi)2−(

Pni=1 xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : s (sd) Écart absolu médian par rapport à la médiane (mad)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 69

H Mesures de tendance centrale (position)

Moyenne : x = 1n

∑ni=1 xi (mean)

Médiane : partage les valeurs en deux parties (median) Quantiles : partagent les valeurs en k parties (quantile) Quartiles (k = 4) : Q1, Q2 (médiane), Q3 (summary) Mode(s) : la (les) valeur(s) avec la plus grande fréquence

H Mesures de dispersion

Étendue : x(n) − x(1) (max - min) Intervalle interquartile (IQR) : Q3 − Q1 (IRQ) Variance de l’échantillon : (var)

s2 = 1n−1

∑ni=1 (xi − x)2 =

nPn

i=1 (xi)2−(

Pni=1 xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : s (sd) Écart absolu médian par rapport à la médiane (mad) Coefficient de variation : s/x

Exemple : notes TP Élec 2006-2007H StatistiqueDescriptive

QuelquesdéfinitionsParamètresstatistiques d’unéchantillonExemple: notesTP Élec2006-2007

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

H Population : étudiants Élec4, 2006-2007H Caractère étudié :

1. option (qualitatif)2. moyenne tp (quantitatif)3. contrôle final (quantitatif)

H Échantillon : 30 étudiants

[Extra] « Barplot »

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : option

GSE MI TNS TR

02

46

8

[Extra] « Piechart »

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : option

GSEMI

TNS

TR

[Extra] Histogrammes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : moyenne tp (classes différentes)Histogram of tp

tp

Fre

quen

cy

0 5 10 15 20

02

46

8

Histogram of tp

tp

Fre

quen

cy0 5 10 15 20

02

46

810

12

[Extra] « Boxplot » (boîte à moustache)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : moyenne tp0

510

1520

GSE MI TNS TR

05

1015

20

[Extra] « Boxplots »

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : moyenne tp / contrôle final / note finale (50-50)

TP Ctrl Finale

810

1214

16

[Extra] Fréquence relative cumulée / quantiles

Polytech’Nice Sophia, Élec 3, 2007–2008 – 70

Caractère : contrôle final

0 5 10 15 20

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(ctrl)

x

Fn(

x)

0.0 0.2 0.4 0.6 0.8 1.0

05

1015

20qs

quan

tile(

ctrl,

qs)

xFX−→ FX(x) = P (X ≤ x) = p p

QX=F−1X−→ QX(p) = x

Statistique Inférentielle : introduction

Polytech’Nice Sophia, Élec 3, 2007–2008 – 71

ObjectifH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 72

Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.

ObjectifH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 72

Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.

Populationproba−→ Échantillon

ObjectifH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 72

Obtenir, à partir de mesures sur une partie de lapopulation (échantillon), des informations (de caractèreprobabiliste) sur la totalité de celle-ci.

Populationproba−→ Échantillon

Échantillonstat. inf.−→ Population

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisi

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustif

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)

H Population de taille finie + éch. non exhaustif

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)

H Population de taille finie + éch. non exhaustif⇒ population de taille infinie

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)

H Population de taille finie + éch. non exhaustif⇒ population de taille infinie

H Éch. exhaustif de taille n + Population de taille N ≫ n

Échantillonnage : définitionH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 73

Choisir au hasard n individus de la population afind’étudier un ou plusieurs caractères.

H Deux types d’échantillonnage :

1. avec remplacement de l’individu choisitraitement théorique plus simple

2. sans remplacement : échantillonnage exhaustifprocédure naturelle ou obligatoire (contrôle destructif)

H Population de taille finie + éch. non exhaustif⇒ population de taille infinie

H Éch. exhaustif de taille n + Population de taille N ≫ n⇒ échantillonnage non exhaustif

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la population

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

populationéch.−→ individu

caract.−→ valeur

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

populationéch.−→ individu

caract.−→ valeur

Ωéch.−→ ω

caract.−→ x

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

populationéch.−→ individu

caract.−→ valeur

Ωéch.−→ ω

caract.−→ x

H Expérience aléatoire : choisir au hasard un individu de la population

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

populationéch.−→ individu

caract.−→ valeur

Ωéch.−→ ω

caract.−→ x

H Expérience aléatoire : choisir au hasard un individu de la populationH Variable aléatoire X associée : le caractère étudié (quantitatif / qualitatif)

Une expérience aléatoire

Polytech’Nice Sophia, Élec 3, 2007–2008 – 74

Choisir au hasard un individu de la population. Obtenir une valeur ducaractère étudié.

H Valeurs possibles du caractère : celles présentes dans la populationH Probabilité associée : fréquence relative des individus possedant cette valeur

dans la population

À condition que chaque individu ait la même probabilité d’être choisi !

populationéch.−→ individu

caract.−→ valeur

Ωéch.−→ ω

caract.−→ x

H Expérience aléatoire : choisir au hasard un individu de la populationH Variable aléatoire X associée : le caractère étudié (quantitatif / qualitatif)H Fonction/densité de probabilité pX(x) : dépend de la population

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) :

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

c-à-d : avec remplacement + même probabilité de choisir chaque individu

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon

(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon

(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)H Obtenir un échantillon, de taille n :

ensemble de n valeurs xi (i = 1, . . . , n) −→ Statistique Descriptive !

Échantillon : ensemble de variables aléatoires

Polytech’Nice Sophia, Élec 3, 2007–2008 – 75

H « Population pX(x) » : génère des v.a.H Observation d’un caractère d’un individu : v.a. X, loi pX(x)

H Échantillonnage de taille n : la même expérience aléatoire répétée n fois !ensemble de n v.a. Xi (i = 1, . . . , n)

H Échantillonnage aléatoire (non biaisé) : n v.a. identiques et indépendantes (iid)

pX1(x) = pX2(x) = . . . = pXn(x) = pX(x)

pX1X2...Xn(x1, x2, . . . , xn) = pX(x1)pX(x2) . . . pX(xn)

c-à-d : avec remplacement + même probabilité de choisir chaque individuH Statistiques : des v.a., fonctions des Xi (i = 1, . . . , n) d’un échantillon

(théorie d’échantillonnage : quelles valeurs et quelles probabilités ?)H Obtenir un échantillon, de taille n :

ensemble de n valeurs xi (i = 1, . . . , n) −→ Statistique Descriptive !H Expérience mentale : obtenir une infinité d’échantillons

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2=

nPn

i=1 (Xi)2−(

Pni=1 Xi)

2

n(n−1)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2=

nPn

i=1 (Xi)2−(

Pni=1 Xi)

2

n(n−1) (attn. si s/x ≪ 1)

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2=

nPn

i=1 (Xi)2−(

Pni=1 Xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : S

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2=

nPn

i=1 (Xi)2−(

Pni=1 Xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : S Écart absolu médian par rapport à la médiane

Paramètres statistiques d’un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 76

H Mesures de tendance centrale (position)

Moyenne : X = 1n

∑ni=1 Xi

Médiane : partage les valeurs en deux parties Quantiles : partagent les valeurs en k parties Quartiles (k = 4) : Q1, Q2 (médiane), Q3

Déciles (k = 9) : D1, D2, . . . , D5 (médiane), . . . , D9

H Statistiques d’ordre : X(1), X(2), . . . , X(n) où x(1) ≤ x(2) ≤ . . . ≤ x(n)

H Mesures de dispersion

Étendue : X(n) − X(1)

Intervalle interquartile (IQR) : Q3 − Q1

Variance de l’échantillon :

S2 = 1n−1

∑ni=1

(Xi − X

)2=

nPn

i=1 (Xi)2−(

Pni=1 Xi)

2

n(n−1) (attn. si s/x ≪ 1)

Écart-type de l’échantillon : S Écart absolu médian par rapport à la médiane Coefficient de variation : S/X

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non »

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj

Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj

Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj

X : v.a.d. de Bernoulli, de paramètre πj

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj

Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj

X : v.a.d. de Bernoulli, de paramètre πj

Échantillon de taille n :Moyenne X = 1

n

∑ni=1 Xi

Cas spécial : caractère qualitatif (les proportions)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 77

H Étudier un caractère qualitatif à M modalités (réponses possibles)

Population : M « types » d’individus ; M fréquences relatives πj

Échantillonnage aléatoire d’un individu :v.a.d. X à M valeurs ; probabilités associées πj (j = 1, . . . , M)

H Autre approche (cas par cas) :

Pour chaque modalité du caractère, étudier le nouveau caractère« l’individu présente la modalité j du caractère initial »

Réponses possibles : « oui » / « non » Population : 2 « types » d’individus ; fréquences relatives πj , 1 − πj

Échantillonnage aléatoire d’un individu :v.a.d. X à 2 valeurs (1 = « oui », 0 = « non ») ;probabilités associées πj, 1 − πj

X : v.a.d. de Bernoulli, de paramètre πj

Échantillon de taille n :Moyenne X = 1

n

∑ni=1 Xi , P proportion de « oui » dans l’échantillon

Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 78

Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population

Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 78

Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population

Échantillon Population pX(x)

v.a. valeur paramètre

une population

X m = x µX = E[X]S2 s2 σ2

X = var[X]

P p π

deux populations

X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1

S22/S2

1 (s2/s1)2 (σ2/σ1)

2

P2 − P1 p2 − p1 π2 − π1

Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 78

Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population

Échantillon Population pX(x)

v.a. valeur paramètre

une population

X m = x µX = E[X]S2 s2 σ2

X = var[X]

P p π

deux populations

X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1

S22/S2

1 (s2/s1)2 (σ2/σ1)

2

P2 − P1 p2 − p1 π2 − π1

H Estimer les paramètres de la population

Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 78

Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population

Échantillon Population pX(x)

v.a. valeur paramètre

une population

X m = x µX = E[X]S2 s2 σ2

X = var[X]

P p π

deux populations

X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1

S22/S2

1 (s2/s1)2 (σ2/σ1)

2

P2 − P1 p2 − p1 π2 − π1

H Estimer les paramètres de la populationH Calculer des intervalles de confiance

Statistique inférentielle : feuille de routeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle:feuille de routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 78

Théorie d’échantillonnage : Population −→ ÉchantillonStatistique inférentielle : Échantillon −→ Population

Échantillon Population pX(x)

v.a. valeur paramètre

une population

X m = x µX = E[X]S2 s2 σ2

X = var[X]

P p π

deux populations

X2 − X1 m2 − m1 = x2 − x1 µ2 − µ1

S22/S2

1 (s2/s1)2 (σ2/σ1)

2

P2 − P1 p2 − p1 π2 − π1

H Estimer les paramètres de la populationH Calculer des intervalles de confianceH Formuler des hypothèses et les tester

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 79

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 79

H

pX(x) =

1

b−a a ≤ x ≤ b

0 ailleurs

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 79

H

pX(x) =

1

b−a a ≤ x ≤ b

0 ailleurs

H

E[X] =1

2(a + b)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 79

H

pX(x) =

1

b−a a ≤ x ≤ b

0 ailleurs

H

E[X] =1

2(a + b)

H

var[X] = σ2X =

1

12(a − b)2

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 79

H

pX(x) =

1

b−a a ≤ x ≤ b

0 ailleurs

H

E[X] =1

2(a + b)

H

var[X] = σ2X =

1

12(a − b)2

H

FX(x) =

0 x < ax−ab−a a ≤ x ≤ b

1 x > b

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution uniformeH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 80

0 2 4 6 8 10

0.0

0.5

1.0

1.5

2.0

x

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normale (gaussienne)H StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 81

Distribution normale (gaussienne)H StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 81

H

N(µX , σX) : pX(x) =1√

2πσX

exp

[

−1

2

(x − µX

σX

)2]

Distribution normale (gaussienne)H StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 81

H

N(µX , σX) : pX(x) =1√

2πσX

exp

[

−1

2

(x − µX

σX

)2]

H

E[X] = µX

Distribution normale (gaussienne)H StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 81

H

N(µX , σX) : pX(x) =1√

2πσX

exp

[

−1

2

(x − µX

σX

)2]

H

E[X] = µX

H

var[X] = σ2X

Distribution normale (gaussienne)H StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 81

H

N(µX , σX) : pX(x) =1√

2πσX

exp

[

−1

2

(x − µX

σX

)2]

H

E[X] = µX

H

var[X] = σ2X

H

FX(x) =1√

2πσX

∫ x

−∞exp

[

−1

2

(x′ − µX

σX

)2]

dx′

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 1

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 1.25

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 1.5

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 1.75

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 2

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 2.25

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 2.5

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 2.75

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 3

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 3.25

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 3.5

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 3.75

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 4

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 4.25

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 4.5

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 4.75

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normaleH StatistiqueInférentielle:introduction

Objectif

Échantillonnage:définitionUne expériencealéatoireÉchantillon:ensemble devariables aléatoiresParamètresstatistiques d’unéchantillonCas spécial:caractère qualitatif(les proportions)

Statistiqueinférentielle: feuillede routeDistributionuniformeDistributionnormale(gaussienne)

Propriétés de la loinormaleSomme de deuxv.a. indépendantes

[Théorème limitecentral]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 82

−15 −10 −5 0 5 10 15

0.0

0.1

0.2

0.3

0.4

x

sigma = 5

−15 −10 −5 0 5 10 15

0.0

0.2

0.4

0.6

0.8

1.0

x

ddp pX(x) = P (x < X ≤ x + dx)/dx

pX

(x)

fdr FX(x) = P (X ≤ x)F

X(x

)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z) = FZ

(

z =x − µX

σX

)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z) = FZ

(

z =x − µX

σX

)

, 1−Q(z)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z) = FZ

(

z =x − µX

σX

)

, 1−Q(z)

H

Z =X − µX

σX: normale standard (centrée réduite) N(0, 1)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z) = FZ

(

z =x − µX

σX

)

, 1−Q(z)

H

Z =X − µX

σX: normale standard (centrée réduite) N(0, 1)

H z : exprime l’écart entre x et µX en termes (unité de mesure) de σX

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 83

H

X = N(µX , σX) : P (X ≤ x = µX + zσX) = FX(x = µX + zσX)

=1√

2πσX

∫ µX+zσX

−∞exp

[

−1

2

(x − µX

σX

)2]

dx

=1√2π

∫ z

−∞exp

(

−1

2u2

)

du = P (Z ≤ z) = FZ

(

z =x − µX

σX

)

, 1−Q(z)

H

Z =X − µX

σX: normale standard (centrée réduite) N(0, 1)

H z : exprime l’écart entre x et µX en termes (unité de mesure) de σXtoujours sans unité !

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 84

H v.a. centrée réduite : fonction linéaire d’une autre v.a.

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 84

H v.a. centrée réduite : fonction linéaire d’une autre v.a.

H notion générale (pas seulement pour la normale !)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 84

H v.a. centrée réduite : fonction linéaire d’une autre v.a.

H notion générale (pas seulement pour la normale !)

de X vers Z de Z vers X

v.a. X Z = (X − µX)/σX Z X = µX + ZσX

valeur x z = (x − µX)/σX z x = µX + zσX

esp. µX 0 0 µX

var. σ2X 1 1 σ2

X

ddp pX(x) σXpX(µX + zσX) pZ(z) 1σX

pZ

(x−µX

σX

)

fdr FX(x) = FZ

(x−µX

σX

)

FZ(z) = FX(µX + zσX)

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 84

H v.a. centrée réduite : fonction linéaire d’une autre v.a.

H notion générale (pas seulement pour la normale !)

de X vers Z de Z vers X

v.a. X Z = (X − µX)/σX Z X = µX + ZσX

valeur x z = (x − µX)/σX z x = µX + zσX

esp. µX 0 0 µX

var. σ2X 1 1 σ2

X

ddp pX(x) σXpX(µX + zσX) pZ(z) 1σX

pZ

(x−µX

σX

)

fdr FX(x) = FZ

(x−µX

σX

)

FZ(z) = FX(µX + zσX)

H On peut calculer des probabilités aussi bien en X qu’en Z !

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

H « Valeur critique » xα :P (X > xα) = α

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

H « Valeur critique » xα :P (X > xα) = α

H FX(xα) = 1 − α

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

H « Valeur critique » xα :P (X > xα) = α

H FX(xα) = 1 − α

H « Valeur critique » zα :P (Z > zα) = α

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

H « Valeur critique » xα :P (X > xα) = α

H FX(xα) = 1 − α

H « Valeur critique » zα :P (Z > zα) = α

H FZ(zα) = 1 − α

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 85

−2 0 2 4 6 8

0.0

0.1

0.2

0.3

0.4

px et pz

valeurs de x ou z

ddp

α

N(µX, σX)

α

N(0, 1)

−2 0 2 4 6 8

0.0

0.4

0.8

Fx et Fz

valeurs de x ou z

fdr

1−

α

N(µX, σX)

N(0, 1)

H X : N(4, 1.5)H Z : N(0, 1)H X = µX + ZσX

H « Valeur critique » xα :P (X > xα) = α

H FX(xα) = 1 − α

H « Valeur critique » zα :P (Z > zα) = α

H FZ(zα) = 1 − αH

xα = µX + zασX

Distribution normale standard (centrée réduite)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 86

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

Distribution Normale : µ = 0, σ = 1

z

Den

sité

de

prob

abili

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρ

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

2. La somme de gaussiennes indépendantes est une gaussienne

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

2. La somme de gaussiennes indépendantes est une gaussienne

H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =

∑ni=1 aiXi

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

2. La somme de gaussiennes indépendantes est une gaussienne

H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =

∑ni=1 aiXi

H µX = a1µ1 + a2µ2 + . . . + anµn =∑n

i=1 aiµi

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

2. La somme de gaussiennes indépendantes est une gaussienne

H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =

∑ni=1 aiXi

H µX = a1µ1 + a2µ2 + . . . + anµn =∑n

i=1 aiµi

H σ2X

ind= a2

1σ21 + a2

2σ22 + . . . + a2

nσ2n =

∑ni=1 a2

i σ2i

Propriétés de la loi normale

Polytech’Nice Sophia, Élec 3, 2007–2008 – 87

1. Deux gaussiennes décoréllées sont indépendantes (l’exception !)

H X1, X2 conjointement normales : ddp conjointe pX1X2(x1, x2) :

pX1X2(x1, x2) = 1

2πσ1σ2

√1−ρ2

exp

[

− 12(1−ρ2)

(x1−µ1

σ1

)2−

−2ρ (x1−µ1)(x2−µ2)σ1σ2

+ 12(1−ρ2)

(x1−µ1

σ1

)2]

H ddp marginales : X1 = N(µ1, σ1) et X2 = N(µ2, σ2)H coefficient de corrélation linéaire : ρH ρ = 0 =⇒ pX1X2(x1, x2) = pX1(x1)pX2(x2)

2. La somme de gaussiennes indépendantes est une gaussienne

H X1, X2, . . . , Xn normales N(µi, σi), indépendantesH X = a1X1 + a2X2 + . . . + anXn =

∑ni=1 aiXi

H µX = a1µ1 + a2µ2 + . . . + anµn =∑n

i=1 aiµi

H σ2X

ind= a2

1σ21 + a2

2σ22 + . . . + a2

nσ2n =

∑ni=1 a2

i σ2i

H X : N(µX , σX)

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x)

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

=∑

x1pX1(x1)pX2(x − x1)

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

=∑

x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

=∑

x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2

2. Cas v.a.c. :pX(x) = sans démonstration

=∫

x′ pX1(x′)pX2(x − x′) dx′

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

=∑

x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2

2. Cas v.a.c. :pX(x) = sans démonstration

=∫

x′ pX1(x′)pX2(x − x′) dx′ = pX1 ⋆ pX2

Somme de deux v.a. indépendantes

Polytech’Nice Sophia, Élec 3, 2007–2008 – 88

H X1, X2 : v.a. indépendantes (pas nécessairement identiques)H X = X1 + X2 : nouvelle v.a.H Comment trouver pX(x) à partir de pX1(x1) et pX2(x2) ?

1. Cas v.a.d. :pX(x) = P (X = x) prob. tot.

=∑

x1P (X1 = x1)P (X2 = x − x1|X1 = x1)

ind=

x1P (X1 = x1)P (X2 = x − x1)

=∑

x1pX1(x1)pX2(x − x1) = pX1 ⋆ pX2

2. Cas v.a.c. :pX(x) = sans démonstration

=∫

x′ pX1(x′)pX2(x − x′) dx′ = pX1 ⋆ pX2

X = X1 + X2ind=⇒ pX = pX1 ⋆ pX2

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantes

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z)

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z) =1√2π

∫ z

−∞exp

(

−1

2u2

)

du

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z) =1√2π

∫ z

−∞exp

(

−1

2u2

)

du

H TLC :n → ∞

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z) =1√2π

∫ z

−∞exp

(

−1

2u2

)

du

H TLC :n → ∞ : Zn → N(0, 1)

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z) =1√2π

∫ z

−∞exp

(

−1

2u2

)

du

H TLC :n → ∞ : Zn → N(0, 1) , Sn → N(nµX ,

√nσX)

[Théorème limite central]

Polytech’Nice Sophia, Élec 3, 2007–2008 – 89

H X1, X2, . . . , Xn : série de v.a. indépendantesH pX1(x) = . . . = pXn(x) = pX(x) (même distribution)H E[X1] = . . . = E[Xn] = µX , σX1 = . . . = σXn = σX

H

Sn = X1 + X2 + . . . + Xn , E[Sn] = nµX , σ2Sn

ind= nσ2

X

Zn =Sn − µSn

σSn

=X1 + X2 + . . . + Xn − nµX√

nσX, E[Zn] = 0 , σ2

Zn= 1

H TLC :

limn−→∞

P (Zn ≤ z) =1√2π

∫ z

−∞exp

(

−1

2u2

)

du

H TLC :n → ∞ : Zn → N(0, 1) , Sn → N(nµX ,

√nσX) , Sn

n → N(

µX , σX√n

)

Théorie d’échantillonnage – un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 90

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne X

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

n < 30 : X = N(

µ, σ√n

)

si pX(x) « presque » normale

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

n < 30 : X = N(

µ, σ√n

)

si pX(x) « presque » normale

H Presque toujours : X = N(µ, σ/√

n)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

n < 30 : X = N(

µ, σ√n

)

si pX(x) « presque » normale

H Presque toujours : X = N(µ, σ/√

n)

Z = X−µσ/

√n→ N(0, 1)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

n < 30 : X = N(

µ, σ√n

)

si pX(x) « presque » normale

H Presque toujours : X = N(µ, σ/√

n)

Z = X−µσ/

√n→ N(0, 1)

P (Z > zα) = α (définition de zα « valeur critique »)

Distribution de la moyenneH Théoried’échantillonnage –un échantillonDistribution dela moyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 91

H Échantillon aléatoire de taille n ; moyenne XH Population normale N(µ, σ)

X : normale (combinaison linéaire de v.a. normales) µX = µ σX = σ√

n(σ connu)

H Population non normale (σ connu)

n > 30 : X = N(

µ, σ√n

)

(tlc)

n < 30 : X = N(

µ, σ√n

)

si pX(x) « presque » normale

H Presque toujours : X = N(µ, σ/√

n)

Z = X−µσ/

√n→ N(0, 1)

P (Z > zα) = α (définition de zα « valeur critique ») P (Z < −zα) = α (symétrie de la normale)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

H P (T > tα) = α (définition de tα, valeur critique)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

H P (T > tα) = α (définition de tα, valeur critique)

H P (T < −tα) = α (symétrie de la loi t)

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

H P (T > tα) = α (définition de tα, valeur critique)

H P (T < −tα) = α (symétrie de la loi t)

H n ≥ 30 : s → σ

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

H P (T > tα) = α (définition de tα, valeur critique)

H P (T < −tα) = α (symétrie de la loi t)

H n ≥ 30 : s → σ donc T → Z

Distribution de la moyenne ; σX inconnueH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution dela moyenne;σX inconnue

Distribution deStudentDistribution de lavariance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 92

H Z = X−µσ/

√n→ N(0, 1)

H T = X−µS/

√n

= (X−µ)/(σ/√

n)√S2/σ2

= Z√V/(n−1)

= Z√V/ν

H V = (n−1)S2

σ2 : loi du χ2 à ν = n − 1 d.l.

H Condition : population normale

H Z, V indépendantes

H T = X−µS/

√n

: loi de Student à ν = n − 1 d.l.

H E[T ] = 0

H σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

H P (T > tα) = α (définition de tα, valeur critique)

H P (T < −tα) = α (symétrie de la loi t)

H n ≥ 30 : s → σ donc T → Z

H “Student” : W.S. Gosset, 1908

Distribution de Student

Polytech’Nice Sophia, Élec 3, 2007–2008 – 93

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

Distribution de Student

t

Den

sité

de

prob

abili

dl = 5

dl = 100

E[T ] = 0 , σ2T = ν

ν−2 > 1 (non définie pour ν ≤ 2)

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

E[X2

]= n − 1

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

E[X2

]= n − 1 −→ E

[S2

]= σ2

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

E[X2

]= n − 1 −→ E

[S2

]= σ2

σ2X2 = 2(n − 1)

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

E[X2

]= n − 1 −→ E

[S2

]= σ2

σ2X2 = 2(n − 1) −→ σ2

S2 = 2σ4/(n − 1)

Distribution de la varianceH Théoried’échantillonnage –un échantillonDistribution de lamoyenne

Distribution de lamoyenne; σX

inconnueDistribution deStudentDistribution dela variance

Distribution du χ2

Distribution de laproportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 94

H Échantillon aléatoire de taille n ; variance S2

Condition : population normale N(µ, σ)

X2 =(n − 1)S2

σ2= 1

σ2

∑ni=1

(Xi − X

)2

X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

X2 > 0

E[X2

]= n − 1 −→ E

[S2

]= σ2

σ2X2 = 2(n − 1) −→ σ2

S2 = 2σ4/(n − 1)

P (X2 > χ2α(ν)) = α (définition de χ2

α(ν), valeur critique)

Distribution du χ2

Polytech’Nice Sophia, Élec 3, 2007–2008 – 95

0 50 100 150

0.00

0.02

0.04

0.06

0.08

0.10

Distribution du Khi−deux

χ2

Den

sité

de

prob

abili

dl = 10

dl = 100

E[X2

]= n − 1 , σ2

X2 = 2(n − 1)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions :

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution :

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n = µX = π

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n = µX = π , σ2

P

ind= (nσ2

X)/n2

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n = µX = π , σ2

P

ind= (nσ2

X)/n2 = π(1 − π)/n

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n = µX = π , σ2

P

ind= (nσ2

X)/n2 = π(1 − π)/n

P : normale N

(

π,

√π(1−π)

n

)

Distribution de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 96

H Population π : proportion d’individus possédant un caractère qualitatif (π 6= 3.14 !)

H Échantillon aléatoire de taille n n v.a. Xi ; xi ∈ 0, 1 : Bernoulli indépendantes, de paramètre π

∑ni=1 Xi : nombre d’individus possédant le caractère (fréquence)

P = 1n

∑ni=1 Xi : proportion d’individus (fréquence relative)

H Conditions : n > 30 (grand échantillon : théorème limite central) np ≥ 5 (fréquence de présence du caractère) n(1 − p) = n − np ≥ 5 (fréquence d’absence du caractère) ni p ≈ 0, ni p ≈ 1

H Distribution : µP = (nµX)/n = µX = π , σ2

P

ind= (nσ2

X)/n2 = π(1 − π)/n

P : normale N

(

π,

√π(1−π)

n

)

→ Z : normale N(0, 1)

Théorie d’échantillonnage – deux échantillons

Polytech’Nice Sophia, Élec 3, 2007–2008 – 97

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2=

σ21

n1+

σ22

n2

Distribution de la différence des moyennesH Théoried’échantillonnage –deux échantillonsDistribution dela différence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 98

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ;

moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2=

σ21

n1+

σ22

n2

H D’autres cas à examiner ultérieurement. . .

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H E[F ] = ν2ν2−2 (ν2 > 2)

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H E[F ] = ν2ν2−2 (ν2 > 2)

H σ2F =

ν22 (2ν1+2ν2−4)

ν1(ν2−2)2(ν2−4)(ν2 > 4)

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H E[F ] = ν2ν2−2 (ν2 > 2)

H σ2F =

ν22 (2ν1+2ν2−4)

ν1(ν2−2)2(ν2−4)(ν2 > 4)

H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2), v.c.)

Distribution du rapport des variancesH Théoried’échantillonnage –deux échantillonsDistribution de ladifférence desmoyennes

Distribution durapport desvariancesDistribution deFisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 99

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ2

2

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H E[F ] = ν2ν2−2 (ν2 > 2)

H σ2F =

ν22 (2ν1+2ν2−4)

ν1(ν2−2)2(ν2−4)(ν2 > 4)

H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2), v.c.)

H fα(ν1, ν2) =1

f1−α(ν2, ν1)(propriété de la loi F )

Distribution de Fisher

Polytech’Nice Sophia, Élec 3, 2007–2008 – 100

0 2 4 6 8

0.0

0.2

0.4

0.6

Distribution de Fischer

f

Den

sité

de

prob

abili

té dl1 = 5 , dl2 = 20

dl1 = 20 , dl2 = 5

fα(ν1, ν2) = 1/f1−α(ν2, ν1)

Estimation – intervalles de confiance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 101

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

H Estimation par intervalle de confiance

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

H Estimation par intervalle de confiance

v.a. ΘL, ΘH : estimateurs ponctuels

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

H Estimation par intervalle de confiance

v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

H Estimation par intervalle de confiance

v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α

θL < θ < θH : intervalle de confiance

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 102

H Estimation ponctuelle

Paramètre à estimer : θ Estimateur : v.a. Θ Estimateur non biaisé : E[Θ] = θ Biais = E[Θ] − θ Estimateur efficace : sans biais ; de faible variance Estimateur efficace : minimiser l’erreur quadratique moyenne

E[

(Θ − θ)2]

= σ2Θ

+ (biais)2

Estimateur convergent : n → ∞ : E[Θ] = θ et var[Θ] = 0

H Estimation par intervalle de confiance

v.a. ΘL, ΘH : estimateurs ponctuels P (ΘL < θ < ΘH) = 1 − α

θL < θ < θH : intervalle de confiance 1 − α : niveau de confiance

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connue

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

H ΘL = X − zα/2σX , ΘH = X + zα/2σX

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

H ΘL = X − zα/2σX , ΘH = X + zα/2σX

H 1 − α = 0.95, zα/2 =qnorm(0.025,mean=0,sd=1,lower.tail=FALSE)= 1.96

Estimation de la moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 103

H Variance σ2 connueH X : normale N(µ, σ/

√n)

H Z = (X − µ)/(σ/√

n) : normale N(0, 1)

H X estimateur non biaisé et convergent de µ

H P (Z > zα/2) = α/2 (définition de zα/2)H P (Z < −zα/2) = α/2 (symétrie de la normale)H P (−zα/2 < Z < zα/2) = 1 − α

H P (−zα/2 < X−µσ/

√n

< zα/2) = 1 − α

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

H ΘL = X − zα/2σX , ΘH = X + zα/2σX

H 1 − α = 0.95, zα/2 =qnorm(0.025,mean=0,sd=1,lower.tail=FALSE)= 1.96

H 1 − α = 0.99, zα/2 =qnorm(0.005,mean=0,sd=1,lower.tail=FALSE)= 2.56

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Population de taille N

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Population de taille N

σX = σ√n

√N−nN−1

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Population de taille N

σX = σ√n

√N−nN−1

N≫1≈ σ√n

√N−n

N

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Population de taille N

σX = σ√n

√N−nN−1

N≫1≈ σ√n

√N−n

N = σ√n

√1 − n

N

Estimation de la moyenne (2/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 104

H P (−zα/2σ√n

< X − µ < zα/2σ√n) = 1 − α

H P (|X − µ| < zα/2σ√n) = 1 − α

H e = |X − µ| : erreur

H emax = zα/2σ√n

: marge d’erreur à 1 − α

H nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H X − emax < µ < X + emax à 1 − α

H Cas particulier : échantillonnage d’une population finie, sans remplacement

Population de taille N

σX = σ√n

√N−nN−1

N≫1≈ σ√n

√N−n

N = σ√n

√1 − n

N

nmin =Nz2

α/2σ2

Ne2max+z2

α/2σ2 : taille d’échantillon minimale

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnue

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normale

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

H ΘL = X − tα/2S√n

, ΘH = X + tα/2S√n

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

H ΘL = X − tα/2S√n

, ΘH = X + tα/2S√n

H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

H ΘL = X − tα/2S√n

, ΘH = X + tα/2S√n

H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05

H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

H ΘL = X − tα/2S√n

, ΘH = X + tα/2S√n

H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05

H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76

H Rappel : n ≥ 30 , T → Z

Estimation de la moyenne (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 105

H Variance σ2 inconnueH Population normaleH T = (X − µ)/(S/

√n) : Student à n − 1 d.l.

H P (T > tα/2) = α/2 (définition de tα/2)H P (T < −tα/2) = α/2 (symétrie de la loi t)H P (−tα/2 < T < tα/2) = 1 − α

H P (−tα/2 < X−µS/

√n

< tα/2) = 1 − α

H P (−tα/2S√n

< X − µ < tα/2S√n) = 1 − α

H P (X − tα/2S√n

< µ < X + tα/2S√n) = 1 − α

H ΘL = X − tα/2S√n

, ΘH = X + tα/2S√n

H 1 − α = 0.95, tα/2 =qt(0.025,df=29,lower.tail=FALSE)= 2.05

H 1 − α = 0.99, tα/2 =qt(0.005,df=29,lower.tail=FALSE)= 2.76

H Rappel : n ≥ 30 , T → Z

H T : petits échantillons !

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

H P (χ21−α/2 < X2 < χ2

α/2) = 1 − α

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

H P (χ21−α/2 < X2 < χ2

α/2) = 1 − α

H P(

χ21−α/2 < (n−1)S2

σ2 < χ2α/2

)

= 1 − α

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

H P (χ21−α/2 < X2 < χ2

α/2) = 1 − α

H P(

χ21−α/2 < (n−1)S2

σ2 < χ2α/2

)

= 1 − α

H P

(

(n−1)S2

χ2α/2

< σ2 < (n−1)S2

χ21−α/2

)

= 1 − α

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

H P (χ21−α/2 < X2 < χ2

α/2) = 1 − α

H P(

χ21−α/2 < (n−1)S2

σ2 < χ2α/2

)

= 1 − α

H P

(

(n−1)S2

χ2α/2

< σ2 < (n−1)S2

χ21−α/2

)

= 1 − α

H P

(√(n−1)S2

χ2α/2

< σ <

√(n−1)S2

χ21−α/2

)

= 1 − α

Estimation de la variance (un échantillon)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 106

H Condition : population normale N(µ, σ)

H X2 = (n−1)S2

σ2 = 1σ2

∑ni=1

(Xi − X

)2

H X2 : v.a. loi du χ2 à ν = n − 1 degrés de liberté (d.l.)

H P (χ21−α/2 < X2 < χ2

α/2) = 1 − α

H P(

χ21−α/2 < (n−1)S2

σ2 < χ2α/2

)

= 1 − α

H P

(

(n−1)S2

χ2α/2

< σ2 < (n−1)S2

χ21−α/2

)

= 1 − α

H P

(√(n−1)S2

χ2α/2

< σ <

√(n−1)S2

χ21−α/2

)

= 1 − α

H Intervalle de confiance :√

(n−1)s2

χ2α/2

< σ <

√(n−1)s2

χ21−α/2

à un niveau de confiance de (1 − α)100%

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

P = N

(

π,

√π(1−π)

n

)

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

P = N

(

π,

√π(1−π)

n

)

H Les proportions (fréquences relatives) sont des moyennes !

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

P = N

(

π,

√π(1−π)

n

)

H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

P = N

(

π,

√π(1−π)

n

)

H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer

µ −→ π

Proportion = moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 107

H Caractère quantitatif (rappel)

Moyenne : X = 1n

∑ni=1 Xi

n > 30, σ connu X = N

(

µ, σ√n

)

H Caractère qualitatif

Proportion : P = 1n

∑ni=1 Xi

n > 30, np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1

P = N

(

π,

√π(1−π)

n

)

H Les proportions (fréquences relatives) sont des moyennes !H X −→ P : remplacer

µ −→ π σ −→

π(1 − π)

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

P

(

P − zα/2

√π(1−π)

n < π < P + zα/2

√π(1−π)

n

)

= 1 − α

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

P

(

P − zα/2

√π(1−π)

n < π < P + zα/2

√π(1−π)

n

)

= 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :

p − zα/2

√p(1−p)

n < π < p + zα/2

√p(1−p)

n

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

P

(

P − zα/2

√π(1−π)

n < π < P + zα/2

√π(1−π)

n

)

= 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :

p − zα/2

√p(1−p)

n < π < p + zα/2

√p(1−p)

n

nmin =(

zα/2

emax

)2p(1 − p) : taille d’échantillon minimale

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

P

(

P − zα/2

√π(1−π)

n < π < P + zα/2

√π(1−π)

n

)

= 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :

p − zα/2

√p(1−p)

n < π < p + zα/2

√p(1−p)

n

nmin =(

zα/2

emax

)2p(1 − p) : taille d’échantillon minimale

estimer p (1er échantillonage, n ≥ 30)

Estimation de la proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 108

H Caractère quantitatif (rappel)

P (X − zα/2σ√n

< µ < X + zα/2σ√n) = 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :x − zα/2

σ√n

< µ < x + zα/2σ√n

nmin =(

zα/2σ

emax

)2: taille d’échantillon minimale

H Caractère qualitatif

P

(

P − zα/2

√π(1−π)

n < π < P + zα/2

√π(1−π)

n

)

= 1 − α

Intervalle de confiance à un niveau de confiance de (1 − α)100% :

p − zα/2

√p(1−p)

n < π < p + zα/2

√p(1−p)

n

nmin =(

zα/2

emax

)2p(1 − p) : taille d’échantillon minimale

estimer p (1er échantillonage, n ≥ 30) ou prendre p = 0.5 (pire scénario)

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.

H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.

H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α

H P(

f1−α/2(ν1, ν2) <σ22S2

1

σ21S2

2< fα/2(ν1, ν2)

)

= 1 − α

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.

H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α

H P(

f1−α/2(ν1, ν2) <σ22S2

1

σ21S2

2< fα/2(ν1, ν2)

)

= 1 − α

H P(

S21

S22

1fα/2(ν1,ν2) <

σ21

σ22

<S2

1

S22

1f1−α/2(ν1,ν2)

)

= 1 − α

Estimation du rapport des variances (deux échantillons)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 109

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher - Snedecor avec ν1 et ν2 d.l.

H P (f1−α/2(ν1, ν2) < F < fα/2(ν1, ν2)) = 1 − α

H P(

f1−α/2(ν1, ν2) <σ22S2

1

σ21S2

2< fα/2(ν1, ν2)

)

= 1 − α

H P(

S21

S22

1fα/2(ν1,ν2) <

σ21

σ22

<S2

1

S22

1f1−α/2(ν1,ν2)

)

= 1 − α

H P(

S21

S22

1fα/2(ν1,ν2) <

σ21

σ22

<S2

1

S22fα/2(ν2, ν1)

)

= 1 − α

Tests d’hypothèse

Polytech’Nice Sophia, Élec 3, 2007–2008 – 110

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

H Hypothèse alternative (trois choix possibles)

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

H Hypothèse alternative (trois choix possibles)

H1 : θ 6= θ0 (test bilatéral)

H1 : θ < θ0 (test unilatéral)

H1 : θ > θ0 (test unilatéral)

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

H Hypothèse alternative (trois choix possibles)

H1 : θ 6= θ0 (test bilatéral)

H1 : θ < θ0 (test unilatéral)

H1 : θ > θ0 (test unilatéral)

H Test : procédure suivie afin d’accepter/rejeter H0

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

H Hypothèse alternative (trois choix possibles)

H1 : θ 6= θ0 (test bilatéral)

H1 : θ < θ0 (test unilatéral)

H1 : θ > θ0 (test unilatéral)

H Test : procédure suivie afin d’accepter/rejeter H0

H Rejet > Acceptation (non-rejet)

Définitions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 111

H Hypothèse : énoncé concernant les caractéristiques d’une population

H Hypothèse nulle : fixer un paramètre θ à une valeur particulière θ0

H0 : θ = θ0

H Hypothèse alternative (trois choix possibles)

H1 : θ 6= θ0 (test bilatéral)

H1 : θ < θ0 (test unilatéral)

H1 : θ > θ0 (test unilatéral)

H Test : procédure suivie afin d’accepter/rejeter H0

H Rejet > Acceptation (non-rejet)

H En pratique : formuler H0 comme l’opposé de ce qu’on veut démontrer !

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OK

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)

Préciser H1

Types et probabilités d’erreur

Polytech’Nice Sophia, Élec 3, 2007–2008 – 112

H

Types d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 OK Type II

rejet de H0 Type I OKH P (Type I) = P (rejet de H0|H0 vraie) = α

H P (Type II) = P (non-rejet de H0|H1 vraie) = β

H

Probabilités d’erreur

décision \ état du monde H0 vraie H1 vraie

non-rejet de H0 1 − α β

rejet de H0 α 1 − β

H α : seuil de signification (calculé dans l’univers de H0, ok)H 1 − β : puissance du test (calculée dans l’univers de H1, ? ? ?)

Préciser H1, ensuite calculer une valeur de β liée à cette H1

Tests : la procédure à suivre

Polytech’Nice Sophia, Élec 3, 2007–2008 – 113

Tests : la procédure à suivre

Polytech’Nice Sophia, Élec 3, 2007–2008 – 113

1. Formuler les hypothèses H0 et H1

2. Choisir le seuil de signification α (typiquement 1% ou 5%)

3. Déterminer la statistique utilisée ainsi que sa distribution

4. Définir la région critique (région de rejet de H0)

5. Adopter une règle de décision (à partir des valeurs critiques)

6. Prélever un échantillon et faire les calculs

7. Décider

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/

√n) < zα/2|µ = µ0) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/

√n) < zα/2|µ = µ0) = 1 − α

P (−zα/2 < (X − µ0)/(σ/√

n) < zα/2) = 1 − α

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/

√n) < zα/2|µ = µ0) = 1 − α

P (−zα/2 < (X − µ0)/(σ/√

n) < zα/2) = 1 − αrégion critique

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/

√n) < zα/2|µ = µ0) = 1 − α

P (−zα/2 < (X − µ0)/(σ/√

n) < zα/2) = 1 − αrégion critique : Z = (X − µ0)/(σ/

√n) < −zα/2 et

Z = (X − µ0)/(σ/√

n) > zα/2

Test sur une moyenne (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 114

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (z1−α/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < Z < zα/2|µ = µ0) = 1 − αP (−zα/2 < (X − µ)/(σ/

√n) < zα/2|µ = µ0) = 1 − α

P (−zα/2 < (X − µ0)/(σ/√

n) < zα/2) = 1 − αrégion critique : Z = (X − µ0)/(σ/

√n) < −zα/2 et

Z = (X − µ0)/(σ/√

n) > zα/2

5. Règle de décision :rejeter H0 si x < xc1 = µ0 − zα/2

σ√n

ou x > xc2 = µ0 + zα/2σ√n

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − α

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − α

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − α

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/

√n) < zα|µ = µ0) = 1 − α

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/

√n) < zα|µ = µ0) = 1 − α

P ((X − µ0)/(σ/√

n) < zα) = 1 − α

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/

√n) < zα|µ = µ0) = 1 − α

P ((X − µ0)/(σ/√

n) < zα) = 1 − αrégion critique

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/

√n) < zα|µ = µ0) = 1 − α

P ((X − µ0)/(σ/√

n) < zα) = 1 − αrégion critique : Z = (X − µ0)/(σ/

√n) > zα

Test sur une moyenne (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 115

1. H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Z = (X − µ)/(σ/√

n) si on connaît σ ou n grand (cas présenté dans la suite)T = (X − µ)/(S/

√n) si on ne connaît pas σ et n petit (population normale)

4. P (non-rejet de H0|H0 vraie) = 1 − αP (non-rejet de H0|µ = µ0) = 1 − αP (Z < zα|µ = µ0) = 1 − αP ((X − µ)/(σ/

√n) < zα|µ = µ0) = 1 − α

P ((X − µ0)/(σ/√

n) < zα) = 1 − αrégion critique : Z = (X − µ0)/(σ/

√n) > zα

5. Règle de décision :rejeter H0 si x > xc = µ0 + zα

σ√n

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δ

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/

√n)|µ = µ0 + δ)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/

√n)|µ = µ0 + δ)

H = P (Z < xc−µ0

σ/√

n− δ

σ/√

n)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/

√n)|µ = µ0 + δ)

H = P (Z < xc−µ0

σ/√

n− δ

σ/√

n)

H = P (Z < zα − δσ/

√n)

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/

√n)|µ = µ0 + δ)

H = P (Z < xc−µ0

σ/√

n− δ

σ/√

n)

H = P (Z < zα − δσ/

√n)

H −zβ = zα − δσ/

√n

Test sur une moyenne (3/3) : taille de l’échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 116

H H0 : µ = µ0, H1 : µ > µ0 (test unilatéral)H α = P (rejet de H0|H0 vraie)= P (rejet de H0|µ = µ0)= P (Z > zα|µ = µ0)

= P ((X − µ)/(σ/√

n) > zα|µ = µ0)= P ((X − µ0)/(σ/

√n) > zα)

H Règle de décision : rejeter H0 si x > xc = µ0 + zασ√n

H β = P (rejet de H1|H1 vraie)= P (non-rejet de H0|H1 vraie)= P (X < xc|H1 vraie)

H Préciser H1 : µ = µ0 + δH β = P (X < xc|µ = µ0 + δ)= P (Z < (xc − µ)/(σ/

√n)|µ = µ0 + δ)

H = P (Z < xc−µ0

σ/√

n− δ

σ/√

n)

H = P (Z < zα − δσ/

√n)

H −zβ = zα − δσ/

√n

H n = (zα + zβ)2 σ2

δ2

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − α

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

P(

χ21−α/2 < (n−1)S2

σ20

< χ2α/2

)

= 1 − α

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

P(

χ21−α/2 < (n−1)S2

σ20

< χ2α/2

)

= 1 − α

P

(χ2

1−α/2σ20

(n−1) < S2 <χ2

α/2σ20

(n−1)

)

= 1 − α

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

P(

χ21−α/2 < (n−1)S2

σ20

< χ2α/2

)

= 1 − α

P

(χ2

1−α/2σ20

(n−1) < S2 <χ2

α/2σ20

(n−1)

)

= 1 − α

région critique

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

P(

χ21−α/2 < (n−1)S2

σ20

< χ2α/2

)

= 1 − α

P

(χ2

1−α/2σ20

(n−1) < S2 <χ2

α/2σ20

(n−1)

)

= 1 − α

région critique : X2 < χ21−α/2 et X2 > χ2

α/2

Test sur une variance (1/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 117

1. H0 : σ = σ0, H1 : σ 6= σ0 (test bilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α/2 < X2 < χ2α/2|σ = σ0) = 1 − α

P(

χ21−α/2 < (n−1)S2

σ20

< χ2α/2

)

= 1 − α

P

(χ2

1−α/2σ20

(n−1) < S2 <χ2

α/2σ20

(n−1)

)

= 1 − α

région critique : X2 < χ21−α/2 et X2 > χ2

α/2

5. Règle de décision :rejeter H0 si s2 < s2

c1 = χ21−α/2σ

20/(n − 1) ou s2 > s2

c2 = χ2α/2σ

20/(n − 1)

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

P(

χ21−α < (n−1)S2

σ20

)

= 1 − α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

P(

χ21−α < (n−1)S2

σ20

)

= 1 − α

P(

χ21−ασ2

0

(n−1) < S2)

= 1 − α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

P(

χ21−α < (n−1)S2

σ20

)

= 1 − α

P(

χ21−ασ2

0

(n−1) < S2)

= 1 − α

région critique

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

P(

χ21−α < (n−1)S2

σ20

)

= 1 − α

P(

χ21−ασ2

0

(n−1) < S2)

= 1 − α

région critique : X2 < χ21−α

Test sur une variance (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 118

1. H0 : σ = σ0, H1 : σ < σ0 (test unilatéral)2. α à définir3. Statistique à utiliser : S ; distribution :

X2 = (n−1)S2

σ2 , v.a. loi du χ2 à ν = n− 1 degrés de liberté (population normale)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|σ = σ0) = 1 − αP (χ2

1−α < X2|σ = σ0) = 1 − α

P(

χ21−α < (n−1)S2

σ20

)

= 1 − α

P(

χ21−ασ2

0

(n−1) < S2)

= 1 − α

région critique : X2 < χ21−α

5. Règle de décision :rejeter H0 si s2 < s2

c = χ21−ασ2

0/(n − 1)

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − α

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − α

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2

5. Règle de décision :

rejeter H0 si p < pc1 = π0 − zα/2

√π0(1−π0)√

nou p > pc1 = π0 + zα/2

√π0(1−π0)√

n

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2

5. Règle de décision :

rejeter H0 si p < pc1 = π0 − zα/2

√π0(1−π0)√

nou p > pc1 = π0 + zα/2

√π0(1−π0)√

n

1. H0 : π = π0, H1 : π > π0 (test unilatéral)

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2

5. Règle de décision :

rejeter H0 si p < pc1 = π0 − zα/2

√π0(1−π0)√

nou p > pc1 = π0 + zα/2

√π0(1−π0)√

n

1. H0 : π = π0, H1 : π > π0 (test unilatéral). . .

5. Règle de décision : rejeter H0 si z > zα

Test sur une proportion

Polytech’Nice Sophia, Élec 3, 2007–2008 – 119

1. H0 : π = π0, H1 : π 6= π0 (test bilatéral)2. α à définir3. Statistique à utiliser : P ; distribution :

Z = (P − π)/(√

π(1 − π)/√

n)4. P (non-rejet de H0|H0 vraie) = 1 − α

P (non-rejet de H0|π = π0) = 1 − αP (−zα/2 < (P − π0)/(

π0(1 − π0)/√

n) < zα/2) = 1 − αrégion critique : Z < −zα/2 et Z > zα/2

5. Règle de décision :

rejeter H0 si p < pc1 = π0 − zα/2

√π0(1−π0)√

nou p > pc1 = π0 + zα/2

√π0(1−π0)√

n

1. H0 : π = π0, H1 : π > π0 (test unilatéral). . .

5. Règle de décision : rejeter H0 si z > zα

c.à.d. p > pc = π0 + zα

√π0(1−π0)√

n

Récapitulatif : un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 120

Statistiques d’un échantillon : moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 121

Paramètre θ µ

Population ≈ normale — ≈ normale

Écart-type σ connu connu inconnu

Échantillon — n > 30 n > 30 n < 30

Statistique Θ X

St. normalisée Z = X−µσ/

√n

Z = X−µS/

√n

T = X−µS/

√n

Distribution N(0, 1) Student (ν)

D.L. — n − 1

Mesure θ x

Statistiques d’un échantillon : proportion, variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 122

Paramètre θ π σ2

Population — ≈ normale

Écart-type σ — —

Échantillon n > 30 1 —

Statistique Θ P S2

St. normalisée Z = P−π√π(1−π)/n

X2 = (n−1)S2

σ2

Distribution N(0, 1) khi-deux (ν)

D.L. — n − 1

Mesure θ p s2

1En plus : np ≥ 5, n(1 − p) ≥ 5, ni p ≈ 0, ni p ≈ 1.

Estimation / tests : un échantillon

Polytech’Nice Sophia, Élec 3, 2007–2008 – 123

Stat. Intervalle Test d’hypothèse H0 : θ = θ0

norm. de confiance H1 : θ 6= θ0 H1 : θ < θ0 H1 : θ > θ0

Z −zα2

< z < zα2

z < −zα2

ou > zα2

z < −zα z > zα

T −tα2

< t < tα2

t < −tα2

ou > tα2

t < −tα t > tα

X2 χ21−α

2< χ2 < χ2

α2

χ2 < χ21−α

2ou > χ2

α2

χ2 < χ21−α χ2 > χ2

α

mettre sous « entrer dans le monde de H0 » :

la forme : θ = θ0, calculer z, t, χ2 à partir des mesures ;

θL < θ < θH décisions de rejet de H0

H Intervalle de confiance : niveau de confiance 1 − α

H Tests d’hypothèse : seuil de signification α

H Voir tableaux unifiés dans le document « Aide-mémoire ».

Intervalles et tests avec deux échantillons

Polytech’Nice Sophia, Élec 3, 2007–2008 – 124

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2=

σ21

n1+

σ22

n2

Distribution de la différence des moyennes (1/6) - rappel #98

Polytech’Nice Sophia, Élec 3, 2007–2008 – 125

H Conditions : σ1, σ2 connus et

populations normales N(µ1, σ1), N(µ2, σ2) ou

n1 > 30 et n2 > 30, ou

populations « presque » normales

H Échantillons aléatoires et indépendants de tailles n1, n2 ; moyennes X1, X2

X1 − X2 : normale

µX1−X2= µX1

− µX2= µ1 − µ2

σ2X1−X2

ind= σ2

X1+ σ2

X2=

σ21

n1+

σ22

n2

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance :

(x1 − x2) − zα/2

√σ21

n1+

σ22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√σ21

n1+

σ22

n2

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance :

(x1 − x2) − zα/2

√σ21

n1+

σ22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√σ21

n1+

σ22

n2

H Test d’hypothèse

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance :

(x1 − x2) − zα/2

√σ21

n1+

σ22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√σ21

n1+

σ22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance :

(x1 − x2) − zα/2

√σ21

n1+

σ22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√σ21

n1+

σ22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)

5. Règle de décision : rejeter H0 si z < −zα/2 ou z > zα/2

Distribution de la différence des moyennes (2/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 126

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales ou grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : connus

H Z = (X1−X2)−(µ1−µ2)r

σ21

n1+

σ22

n2

→ N(0, 1)

H Intervalle de confiance :

(x1 − x2) − zα/2

√σ21

n1+

σ22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√σ21

n1+

σ22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 6= d0 (test bilatéral)

5. Règle de décision : rejeter H0 si z < −zα/2 ou z > zα/2

(x1 − x2) < (x1 − x2)c1 = d0 − zα/2

√σ21

n1+

σ22

n2ou

(x1 − x2) > (x1 − x2)c2 = d0 + zα/2

√σ21

n1+

σ22

n2

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance :

(x1 − x2) − zα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√s21

n1+

s22

n2

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance :

(x1 − x2) − zα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√s21

n1+

s22

n2

H Test d’hypothèse

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance :

(x1 − x2) − zα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance :

(x1 − x2) − zα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

Distribution de la différence des moyennes (3/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 127

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et grands échantillons (n1 > 30, n2 > 30)

H σ1, σ2 : inconnus

H Z = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→≈ N(0, 1)

H Équivalent de T → Z pour grands échantillons

H Intervalle de confiance :

(x1 − x2) − zα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + zα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(x1 − x2) > (x1 − x2)c = d0 + zα

√s21

n1+

s22

n2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1)

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance :

(x1 − x2) − tα/2sc

√1n1

+ 1n2

< µ1 − µ2 < (x1 − x2) + tα/2sc

√1n1

+ 1n2

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance :

(x1 − x2) − tα/2sc

√1n1

+ 1n2

< µ1 − µ2 < (x1 − x2) + tα/2sc

√1n1

+ 1n2

H Test d’hypothèse : . . .

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance :

(x1 − x2) − tα/2sc

√1n1

+ 1n2

< µ1 − µ2 < (x1 − x2) + tα/2sc

√1n1

+ 1n2

H Test d’hypothèse : . . .

H À propos des conditions :

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance :

(x1 − x2) − tα/2sc

√1n1

+ 1n2

< µ1 − µ2 < (x1 − x2) + tα/2sc

√1n1

+ 1n2

H Test d’hypothèse : . . .

H À propos des conditions :

σ1 ≈ σ2 ou populations ≈ normales : OK

Distribution de la différence des moyennes (4/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 128

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus mais σ1 = σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S2c

n1+

S2c

n2

= (X1−X2)−(µ1−µ2)

Sc

q

1n1

+ 1n2

→ Student

H Variance commune : S2c =

Pn1i=1 (X1i−X1)2+

Pn2i=1 (X2i−X2)2

(n1−1)+(n2−1) =(n1−1)S2

1+(n2−1)S22

(n1−1)+(n2−1)

H T : Student à (n1 + n2 − 2) d.l.

H Intervalle de confiance :

(x1 − x2) − tα/2sc

√1n1

+ 1n2

< µ1 − µ2 < (x1 − x2) + tα/2sc

√1n1

+ 1n2

H Test d’hypothèse : . . .

H À propos des conditions :

σ1 ≈ σ2 ou populations ≈ normales : OK

σ1 6= σ2 et normales : OK si n1 = n2

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l.

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance :

(x1 − x2) − tα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + tα/2

√s21

n1+

s22

n2

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance :

(x1 − x2) − tα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + tα/2

√s21

n1+

s22

n2

H Test d’hypothèse

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance :

(x1 − x2) − tα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + tα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance :

(x1 − x2) − tα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + tα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)

5. Règle de décision : rejeter H0 si t < tα

Distribution de la différence des moyennes (5/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 129

H Échantillons aléatoires et indépendants de tailles n1, n2

H Populations normales et petits échantillons (n1 < 30 ou n2 < 30)

H σ1, σ2 : inconnus et σ1 6= σ2 (à tester)

H T = (X1−X2)−(µ1−µ2)r

S21

n1+

S22

n2

→ Student à ν d.l. ; ν =

S21

n1+

S22

n2

«2

(S21/n1)2

n1−1+

(S22/n2)2

n2−1

H Arrondir ν au nombre entier inférieur.

H Intervalle de confiance :

(x1 − x2) − tα/2

√s21

n1+

s22

n2< µ1 − µ2 < (x1 − x2) + tα/2

√s21

n1+

s22

n2

H Test d’hypothèse :

1. H0 : µ1 − µ2 = d0, H1 : µ1 − µ2 < d0 (test unilatéral)

5. Règle de décision : rejeter H0 si t < tα

(x1 − x2) < (x1 − x2)c = d0 − tα

√s21

n1+

s22

n2

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu :

T = D−µD

sD/√

nà (n − 1) d.l.

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu :

T = D−µD

sD/√

nà (n − 1) d.l.

H Intervalle de confiance

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu :

T = D−µD

sD/√

nà (n − 1) d.l.

H Intervalle de confiance : d − tα/2sD√

n< µD < d + tα/2

sD√n

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu :

T = D−µD

sD/√

nà (n − 1) d.l.

H Intervalle de confiance : d − tα/2sD√

n< µD < d + tα/2

sD√n

H Test d’hypothèse : . . .

Distribution de la différence des moyennes (6/6)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 130

H Échantillons aléatoires et appariés de tailles n1 = n2 = n

H Appariés : « avant / après »

H Population : nouvelle v.a. D = X1 − X2 (µD, σD)

H Échantillon : calculer di = x1i − x2i ; oublier X1, X2 !

H Population normale ou grands échantillons (n > 30), σD connu :

Z = D−µD

σD/√

n→ N(0, 1)

H Population normale et petits échantillons (n < 30), σD inconnu :

T = D−µD

sD/√

nà (n − 1) d.l.

H Intervalle de confiance : d − tα/2sD√

n< µD < d + tα/2

sD√n

H Test d’hypothèse : . . .

H Échantillons appariés : un seul nouvel échantillon !

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Si d0 = 0, π1 = π2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1

i=1 x1i+Pn2

i=1 x2i

n1+n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1

i=1 x1i+Pn2

i=1 x2i

n1+n2= n1p1+n2p2

n1+n2

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1

i=1 x1i+Pn2

i=1 x2i

n1+n2= n1p1+n2p2

n1+n2

Si d0 6= 0

Distribution de la différence des proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 131

H Échantillons aléatoires et indépendants de tailles n1, n2

H Grands échantillons (n1 > 30, n2 > 30)

H Proportions : Pi = N(πi,√

πi(1 − πi)/√

ni)

H Z = (P1−P2)−(π1−π2)r

π1(1−π1)n1

+π2(1−π2)

n2

→ N(0, 1)

H Intervalle de confiance : (p1 − p2) − zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2< π1 − π2 <

(p1 − p2) + zα/2

√π1(1−π1)

n1+ π2(1−π2)

n2; remplacer πi(1 − πi) → pi(1 − pi)

H Test d’hypothèse :

1. H0 : π1 − π2 = d0 (π1 = π2 + d0) , H1 : π1 − π2 > d0 (test unilatéral)

5. Règle de décision : rejeter H0 si z > zα

(p1 − p2) > (p1 − p2)c = d0 + zα

√π1(1−π1)

n1+ π2(1−π2)

n2

Si d0 = 0, π1 = π2 : remplacer πj → p =Pn1

i=1 x1i+Pn2

i=1 x2i

n1+n2= n1p1+n2p2

n1+n2

Si d0 6= 0 : remplacer πj → pj

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2))

Distribution du rapport des variances (1/2) - rappel #99

Polytech’Nice Sophia, Élec 3, 2007–2008 – 132

H Échantillons aléatoires et indépendants de tailles n1, n2

H Provenant de populations normales de variances σ21, σ

22

H Variances des échantillons : S21 , S2

2

H F =S2

1/σ21

S22/σ2

2= V1/ν1

V2/ν2

H Vi =(ni−1)S2

i

σ2i

: v.a. indépendantes, loi du χ2 à νi = ni − 1 d.l.

H F : loi de Fisher (1924) - Snedecor (1934) avec ν1 et ν2 d.l.

H F ≥ 0

H P (F > fα(ν1, ν2)) = α (définition de fα(ν1, ν2))

H fα(ν1, ν2) = 1f1−α(ν2,ν1) (propriété de la loi F )

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α)

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2 c-à-d s21/s2

2 < f1−α/2 ou s21/s2

2 > fα/2

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2 c-à-d s21/s2

2 < f1−α/2 ou s21/s2

2 > fα/2

H1 : σ1 > σ2

f > fα

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2 c-à-d s21/s2

2 < f1−α/2 ou s21/s2

2 > fα/2

H1 : σ1 > σ2

f > fα c-à-d s21/s2

2 > fα

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2 c-à-d s21/s2

2 < f1−α/2 ou s21/s2

2 > fα/2

H1 : σ1 > σ2

f > fα c-à-d s21/s2

2 > fα

H1 : σ1 < σ2

f < f1−α

Distribution du rapport des variances (2/2)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 133

H F =S2

1/σ21

S22/σ2

2=

S21

S22

σ22

σ21

H Intervalle de confiance (niveau de confiance 1 − α) :

f1−α/2(ν1, ν2) < f < fα/2(ν1, ν2)

s21

s22

1fα/2(ν1,ν2) <

σ21

σ22

<s21

s22

1f1−α/2(ν1,ν2)

H Test d’hypothèse H0 : σ1 = σ2

H Règle de décision : rejeter H0 si

H1 : σ1 6= σ2

f < f1−α/2 ou f > fα/2 c-à-d s21/s2

2 < f1−α/2 ou s21/s2

2 > fα/2

H1 : σ1 > σ2

f > fα c-à-d s21/s2

2 > fα

H1 : σ1 < σ2

f < f1−α c-à-d s21/s2

2 < f1−α/2

Récapitulatif : deux échantillons

Polytech’Nice Sophia, Élec 3, 2007–2008 – 134

Statistiques de deux (grands) échantillons : moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 135

Paramètre θ µ2 − µ1

Populations ≈ normales — ≈ normales

Écart-types σ1, σ2 connus connus inconnus

Échantillons — n1 > 30 et n2 > 30 n1 > 30 et n2 > 30

Statistique Θ X2 − X1

St. normalisée Z = (X2−X1)−(µ2−µ1)r

σ21

n1+

σ22

n2

Z = (X2−X1)−(µ2−µ1)r

S21

n1+

S22

n2

Distribution N(0, 1)

Degrés de liberté —

Mesure θ x2 − x1

Statistiques de deux (petits) échantillons : moyenne

Polytech’Nice Sophia, Élec 3, 2007–2008 – 136

Paramètre θ µ2 − µ1

Populations ≈ normales

Écart-types σ1, σ2 inc., σ1 = σ2 ou n1 = n2 inc., σ1 6= σ2 et n1 6= n2

Échantillons n1 < 30 ou n2 < 30

Statistique Θ X2 − X1

St. normalisée T = (X2−X1)−(µ2−µ1)

Sc

q

1n1

+ 1n2

T = (X2−X1)−(µ2−µ1)r

S21

n1+

S22

n2

Distribution Student (ν)

Degrés de liberté n1 + n2 − 2 ν∗

Mesure θ x2 − x1

Rappels Sc : diapo #128 ν∗ : diapo #129

Statistiques de deux échantillons : proportion, variance

Polytech’Nice Sophia, Élec 3, 2007–2008 – 137

Paramètre θ π2 − π1 σ21/σ2

2

Populations — ≈ normales

Écart-types σ1, σ2 — —

Échantillons n1 > 30 et n2 > 30 2 —

Statistique Θ P2 − P1 F

St. normalisée Z = (P2−P1)−(π2−π1)r

π1(1−π1)n1

+π2(1−π2)

n2

F =S2

1/σ21

S22/σ2

2

Distribution N(0, 1) Fischer (ν1, ν2)

Degrés de liberté — n1 − 1, n2 − 1

Mesure θ p2 − p1 s21/s2

2

2En plus : nipi ≥ 5, ni(1 − pi) ≥ 5, ni pi ≈ 0, ni pi ≈ 1 (i = 1, 2).

Estimation / tests : deux échantillons

Polytech’Nice Sophia, Élec 3, 2007–2008 – 138

Stat. Intervalle Test d’hypothèse H0 : θ = θ0

norm. de confiance H1 : θ 6= θ0 H1 : θ < θ0 H1 : θ > θ0

Z −zα2

< z < zα2

z < −zα2

ou > zα2

z < −zα z > zα

T −tα2

< t < tα2

t < −tα2

ou > tα2

t < −tα t > tα

F f1−α2

< f < fα2

f < f1−α2

ou f > fα2

f < f1−α f > fα

mettre sous « entrer dans le monde de H0 » :

la forme : θ = θ0, calculer z, t, χ2 à partir des mesures ;

θL < θ < θH décisions de rejet de H0

H Intervalle de confiance : niveau de confiance 1 − α

H Tests d’hypothèse : seuil de signification α

H Voir tableaux unifiés dans le document « Aide-mémoire ».

Tests : au délà du seuil de signification

Polytech’Nice Sophia, Élec 3, 2007–2008 – 139

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de α

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de αH Alternative

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de αH Alternative

Calculer αp (p-value) telle que θ = θc

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de αH Alternative

Calculer αp (p-value) telle que θ = θc

αp : rejeter H0 de façon marginale

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de αH Alternative

Calculer αp (p-value) telle que θ = θc

αp : rejeter H0 de façon marginaleH P-value (seuil descriptif) : la plus petite valeur de α = P (rejeterH0|H0 vraie)

qui conduirait au rejet de H0

Seuil descriptif (p-value)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 140

H Test statistique : « 2. Choisir le seuil de signification α »H « Typiquement 1% ou 5% »H Comment choisir ?H Comment décider ?H Pourquoi choisir α ?H Tests classiques :

Mesurer θ ; comparer θ aux valeurs critiques θc

Valeurs critiques dépendent de αH Alternative

Calculer αp (p-value) telle que θ = θc

αp : rejeter H0 de façon marginaleH P-value (seuil descriptif) : la plus petite valeur de α = P (rejeterH0|H0 vraie)

qui conduirait au rejet de H0

H La probabilité de se retrouver « au moins aussi loin » de la H0 – dans le sens dela H1 – que l’échantillon examiné, si H0 est vraie.

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

T = (X − µ)/(S/√

n)

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

T = (X − µ)/(S/√

n)4. Région critique : T < −tα/2 et T > tα/2

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

T = (X − µ)/(S/√

n)4. Région critique : T < −tα/2 et T > tα/2

5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

T = (X − µ)/(S/√

n)4. Région critique : T < −tα/2 et T > tα/2

5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2

6. Prélever un échantillon et faire les calculs

Seuil descriptif (p-value) : exemple (1/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 141

H Test sur la moyenne, petit échantillon, population normale, σ inconnu

1. H0 : µ = µ0, H1 : µ 6= µ0 (test bilatéral)2. α à définir3. Statistique à utiliser : X ; distribution :

T = (X − µ)/(S/√

n)4. Région critique : T < −tα/2 et T > tα/2

5. Règle de décision :rejeter H0 si t < −tα/2 ou > tα/2

6. Prélever un échantillon et faire les calculs7. Décider

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculs

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445

7. Décider

Seuil descriptif (p-value) : exemple (2/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 142

6. Prélever un échantillon et faire les calculsPopulation N(0.5, 1), n = 5x <- rnorm(5, mean=0.5, sd=1)> x[1] 0.4303745 -1.2195277 -0.3570756 2.2734783 -0.5112132> mean(x)[1] 0.1232073> sd(x)[1] 1.337359µ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029α = 0.05, calculer tc = tα/2 :> qt(0.025, df=4, lower.tail=F)[1] 2.776445

7. Décider : −tα/2 < t < tα/2, on ne peut pas rejeter H0 : µ = µ0 = 0

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculs

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488

7. Décider

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488

7. Décider : échantillon très probable si H0 est vraie

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488

7. Décider : échantillon très probable si H0 est vraieH T-test avec R :

> t.test(x, mean=0, alternative = c("two.sided"))

Seuil descriptif (p-value) : exemple (3/3)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 143

6. Prélever un échantillon et faire les calculsµ0 = 0, calculer t :> t = ( mean(x) - 0 ) / ( sd(x) / sqrt(5) )> t[1] 0.2060029Quelle est la valeur de α qui donne t = tc = tα/2 ?> pt(t, df=4, lower.tail=F)[1] 0.4234244p-value/2 = 0.4234244, p-value = 0.8468488

7. Décider : échantillon très probable si H0 est vraieH T-test avec R :

> t.test(x, mean=0, alternative = c("two.sided"))One Sample t-testdata : xt = 0.206, df = 4, p-value = 0.8468alternative hypothesis : true mean is not equal to 095 percent confidence interval :-1.537343 1.783758

Test du χ2

Polytech’Nice Sophia, Élec 3, 2007–2008 – 144

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value

H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value

H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)

H Condition : ei ≥ 5 au moins pour 80% des classes ; ei > 0 pour les autres

Définition – cadre général

Polytech’Nice Sophia, Élec 3, 2007–2008 – 145

Comparer, à l’issue d’une expérience aléatoire, des fréquencesexpérimentales aux fréquences prévues par la théorie (Pearson, 1900).

H k : nombre de fréquences à comparer (nombre de classes)H oi : fréquences Observées (obtenues expérimentalement)H ei : fréquences « Espérées » (théoriques, à calculer)H

χ2 =k∑

i=1

(oi − ei)2

ei

H Loi du χ2 à ν degrés de liberté ; si oi = ei, χ2 = 0, sinon χ2 > 0H Calculer χ2 à partir de oi, ei ; obtenir α = P (X2 > χ2), la p-value

H ν = k − 1 − (nombre de paramètres estimés utilisés dans le calcul de ei)

H Condition : ei ≥ 5 au moins pour 80% des classes ; ei > 0 pour les autresH Applications : test d’adéquation, d’indépendance, d’homogénéité, de proportions

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =

pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =

pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =

pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%H Commande R :

obs.vec = c(1037, 937, 1055, 1034, 929, 1008)

Test d’adéquation (ou d’ajustement)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 146

H0 : les données expérimentales ont été obtenues à partir d’unepopulation suivant la loi pX(x) (p.ex., normale, uniforme, etc).

H Example : données sur plusieurs lancers d’un dé (données simulées. . . )

HFace 1 2 3 4 5 6 Total N

Fréquence (oi) 1037 937 1055 1034 929 1008 6000

H H0 : le dé est bien équilibré ; pi = 1/6, ei = piN = 1000

H Conditions : OK (sinon grouper des classes voisines)H Calculer χ2 = 14.624H ν = 6 − 1 − 0 = 5H p-value : P (X2 > 14.624) =

pchisq( 14.624, df=5, lower.tail=FALSE ) = 0.01210H On peut rejeter H0 au seuil de signification 5%H Commande R :

obs.vec = c(1037, 937, 1055, 1034, 929, 1008)

chisq.test( obs.vec, p = rep( 1/6, times=6 ) )

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Pli=1 oij

n

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Pli=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Pli=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)]

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Pli=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)

Test d’indépendance / tableau de contingence

Polytech’Nice Sophia, Élec 3, 2007–2008 – 147

On mesure, sur chaque individu d’un échantillon aléatoire de taille n,deux caractères X et Y , à l et c modalités, respectivement.

H0 : les deux caractères X et Y sont indépendants.

H Example : le tabac et les jeunes, INPES, baromètre santé 2000 (tr. #18)

H

Sexe \ Fumeur Oui Non TotalHomme 340 (310) 314 (344) 654Femme 289 (319) 384 (354) 673Total 629 698 1327

H H0 : X et Y sont indépendants ; πij = πiπj (i = 1, . . . , l ; j = 1, . . . , c)H On estime πi et πj à partir des fréquences marginales de l’échantillon

H πij = πiπj → eij

n =Pc

j=1 oij

n

Pli=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)

H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =

pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =

pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =

pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%H Commande R :

tableau.cont = rbind( c(340, 314), c(289, 384) )

Test d’indépendance : correction de Yates

Polytech’Nice Sophia, Élec 3, 2007–2008 – 148

H Si ν = 1 (tableau 2 × 2) utiliser :

χ2 =∑

i,k

(|oij − eij | − 0.5)2

eij

H Calculer χ2 = 10.5256H ν = (2 − 1)(2 − 1) = 1H p-value : P (X2 > 10.5256) =

pchisq( 10.5256, df=1, lower.tail=FALSE ) = 0.00118H On peut rejeter H0 au seuil de signification 1%H Commande R :

tableau.cont = rbind( c(340, 314), c(289, 384) )

chisq.test( tableau.cont, correct=TRUE )

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 149

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 149

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.

H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 149

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.

H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).

H Example : notes (fictives) échantillonnées dans trois parcours

H

Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 149

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.

H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).

H Example : notes (fictives) échantillonnées dans trois parcours

H

Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700

H H0 : proportion de chaque modalité constante ;πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 149

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à l modalités.

H0 : la proportion d’individus appartenant à la i-ème modalité(i = 1, . . . , l), reste la même pour toutes les populations (les populationssont homogènes par rapport au caractère étudié).

H Example : notes (fictives) échantillonnées dans trois parcours

H

Note \ Parcours I II III Total0 ≤ x < 6 32 15 8 556 ≤ x < 12 123 60 43 22612 ≤ x ≤ 20 145 125 149 419Total (nj) 300 200 200 700

H H0 : proportion de chaque modalité constante ;πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)

H On estime πi à partir des fréquences marginales de l’échantillon

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi → eij

nj=

Pcj=1 oij

n

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi → eij

nj=

Pcj=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

︸ ︷︷ ︸

nj

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi → eij

nj=

Pcj=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

︸ ︷︷ ︸

nj

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi → eij

nj=

Pcj=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

︸ ︷︷ ︸

nj

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)

H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 150

H

Note \ Parcours I II III Total

0 ≤ x < 6 32 (23.57) 15 (15.71) 8 (15.71) 556 ≤ x < 12 123 (96.86) 60 (64.57) 43 (64.57) 22612 ≤ x ≤ 20 145 (179.57) 125 (119.71) 149 (119.71) 419

Total (nj) 300 200 200 700H H0 : proportion de chaque modalité constante ;

πi1 = πi2 = . . . = πic = πi (i = 1, . . . , l)H On estime πi à partir des fréquences marginales de l’échantillon

H πij = πi → eij

nj=

Pcj=1 oij

n → eij =1

n

c∑

j=1

oij

l∑

i=1

oij

︸ ︷︷ ︸

nj

H Degrés de liberté ν = (lc − 1) − 1 − [(l − 1) + (c − 1)] = (l − 1)(c − 1)

H Conditions : OK (sinon ? augmenter la taille de l’échantillon !)H Même formule que le test d’indépendance !

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =

pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =

pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7

H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =

pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7

H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !H Commande R :

tableau = cbind(c(32, 123, 145), c(15, 60, 125), c(8, 43, 149))

Test d’homogénéité

Polytech’Nice Sophia, Élec 3, 2007–2008 – 151

H

χ2 =∑

i,k

(oij − eij)2

eij

H Calculer χ2 = 35.4729H ν = (3 − 1)(3 − 1) = 4H p-value : P (X2 > 35.4729) =

pchisq( 35.4729, df=4, lower.tail=FALSE ) = 3.714 · 10−7

H On peut rejeter H0 pratiquement à n’importe quel seuil de signification !H Commande R :

tableau = cbind(c(32, 123, 145), c(15, 60, 125), c(8, 43, 149))

chisq.test( tableau )

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = π

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon

H « Oui » : πj = π

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon

H « Oui » : πj = π → e1j

nj=

Pcj=1 o1j

n

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon

H « Oui » : πj = π → e1j

nj=

Pcj=1 o1j

n

H « Non » : 1 − πj = 1 − π

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 152

À partir de c populations, on obtient c échantillons aléatoires etindépendants, de taille nj (j = 1, . . . , c). On mesure sur chaque individule même caractère X, à 2 modalités (« oui » / « non »).

H0 : la proportion de « oui » reste la même pour toutes les populations(cas spécial du test d’homogénéité, l = 2).

H Example : nombre de pièces défectueuses et moment de productionH

Pièces\ Créneau Matin Après-midi Nuit TotalDéfectueuses (« O ») 45 (56.97) 55 (56.67) 70 (56.37) 170

Normales (« N ») 905 (893.03) 890 (888.33) 870 (883.63) 2665Total (nj) 950 945 940 2835

H H0 : π1 = π2 = . . . = πc = πH On estime π à partir des fréquences marginales de l’échantillon

H « Oui » : πj = π → e1j

nj=

Pcj=1 o1j

n

H « Non » : 1 − πj = 1 − π → e2j

nj=

Pcj=1 o2j

n

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =

pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =

pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =

pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :

oui.non = rbind(c(45, 55, 70), c(905, 890, 870))

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =

pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :

oui.non = rbind(c(45, 55, 70), c(905, 890, 870))chisq.test( oui.non )

Test de proportions

Polytech’Nice Sophia, Élec 3, 2007–2008 – 153

H eij =nj

n

∑cj=1 oij → eij =

1

n

c∑

j=1

oij

l∑

i=1

oij

H Même formule que le test d’indépendance / d’homogénéité !

H Degrés de liberté ν = (2 − 1)(c − 1) = c − 1

H Conditions : OK (sinon ? augmenter les tailles des échantillons !)H Calculer χ2 = 6.2339H ν = (3 − 1) = 2H p-value : P (X2 > 6.2339) =

pchisq( 6.2339, df=2, lower.tail=FALSE ) = 0.04429H On peut rejeter H0 au seuil de signification 5%H Commande R :

oui.non = rbind(c(45, 55, 70), c(905, 890, 870))chisq.test( oui.non )ou, pour plus d’informations :oui = c( 45, 55, 70) ; essais = c( 950, 945, 940)prop.test( oui, essais )

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de liberté

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002H On ne peut pas rejeter H0

Test de proportions sans estimation de paramètres

Polytech’Nice Sophia, Élec 3, 2007–2008 – 154

Même contexte qu’avant : c populations, c échantillons, caractère X àdeux modalités.

H0 : les proportions de « oui », π1, . . . , πc, sont égales à p1, . . . , pc (pasd’estimation de paramètres).

H « Oui » : πj = pj → e1j

nj= pj

H « Non » : 1 − πj = 1 − pj → e2j

nj= 1 − pj

H ν = c : on ne perd aucun degré de libertéH Example précédent avec :

p1 = 0.05, p2 = 0.06, p3 = 0.08 (6= 170/2835 ≈ 0.06)H Calculer χ2 = 0.5836H ν = 3H p-value : P (X2 > 0.5836) = 0.9002H On ne peut pas rejeter H0

H Commande R :prop.test( oui, essais, p=c(0.05, 0.06, 0.08) )

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classes

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjn

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)

H Procédure spécifique : test de Shapiro–Wilk

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)

H Procédure spécifique : test de Shapiro–WilkH Commande R :

data = rnorm(100, mean=10, sd=2) % un exemple...

Test d’adéquation à la loi normale (Shapiro–Wilk)

Polytech’Nice Sophia, Élec 3, 2007–2008 – 155

H0 : les données expérimentales (échantillon de taille n) ont étéobtenues à partir d’une population normale.

H Procédure « classique » : test du χ2 (cf. TD 5)

1. Répartir les données en classes (histogramme)2. Estimer µ et σ avec qqnorm

3a. Calculer les probabilités théoriques pj des classesCalculer les fréquences théoriques ej = pjnVérifier les conditions sinon regrouper les classes

3b. Ou répartir en (M + 1) classes équiprobables : ej = n/(M + 1)4. Calculer χ2 (on perd deux d.l. avec l’estimation de µ et σ !)

H Procédure spécifique : test de Shapiro–WilkH Commande R :

data = rnorm(100, mean=10, sd=2) % un exemple...shapiro.test( data )

H Une grande p-value permet de ne pas rejetter l’hypothèse de normalité