statistiques, deuxième séance
DESCRIPTION
Statistiques, deuxième séance. Licence de psychologie. 2. Régression linéaire double. Cas de deux facteurs. Un exemple et sa formalisation Les conditions d’application La procédure L’interprétation des résultats Exemples supplémentaires. Plan. 2.1. Un exemple. Psychologie du « travail ». - PowerPoint PPT PresentationTRANSCRIPT
PlanPlan
1. Un exemple et sa formalisation2. Les conditions d’application3. La procédure4. L’interprétation des résultats5. Exemples supplémentaires
Greeley, ColoradoGreeley, ColoradoYou can smell Greeley,
Colorado, long before you can see it. The smell is hard to forget but not easy to describe, a combination of live animals, manure, and dead animals being rendered into dog food.
Eric Schlosser, Fast Food Nation, Peguin Books, 2002. P 149.
On sent Greeley (Colorado) bien avant de le voir. L’odeur est difficile à oublier, mais pas facile à décrire. Une combinaison d’animaux vivants, de fumier, de cadavres transformés en pâtée pour chiens.
Satisfaction au travail…Satisfaction au travail…
Grâce à un questionnaire détaillé, nous pouvons mesurer la satisfaction au travail d’employés attachés à des entreprises de l’industrie alimentaire. Le résultat du questionnaire, une fois codé, nous donne un score S de satisfaction
Nous aimerions savoir dans quelle mesure cette satisfaction dépend de l’ancienneté A (en années) et des responsabilités R (score) incombant aux employés.
Formalisation de l’exemple
Formalisation de l’exemple
Nous cherchons à déterminer dans quelle mesure la satisfaction dépend des responsabilités et de l’ancienneté
Cela pourrait permettre de prédire la satisfaction des futurs employés
On étudie le lien entre deux facteurs catégoriels quantitatifs X1 et X2, et une variable dépendante, également quantitative, X0
Afin de prédire la VD en fonction des deux VI
Formalisation de l’exemple
Formalisation de l’exemple
Nous voulons un modèle linéaire
Nous voulons généraliser la régression linéaire simple
Il faut doncIl faut donc
Pouvoir mesurer l’erreur d’estimationMinimiser cette erreur pour déterminer les
coefficients ci
Déterminer les rôles respectifs des deux facteurs et leur éventuelle interaction dans leur effet sur la variable dépendante
Situation statistiqueSituation statistique
Nous disposons dedeux facteurs numériques
Et d’unevariable dépendante numérique
NotationsNotations
Nous noterons la variable X0 et les facteurs X1 et X2.
Nous noterons les coefficients de corrélation simples
0 101
i j
X X
ij X X
r au lieuder
r au lieuder
Coefficients de corrélation simples
Coefficients de corrélation simples
On calcule les coefficients de corrélations simplesQui donnent la matrice des coefficients de corrélation
simples
01 02
10 12
20 21
11
1
r r
R r r
r r
Coefficients de corrélation simples
Coefficients de corrélation simples
On calcule les coefficients de corrélations simplesQui donnent la matrice des coefficients de corrélation
simples
01 02
12
1* 1* * 1
r r
R r
AlphaAlpha
On calcule ensuite les coefficients de régression partiels
01 02 121 2
12
02 01 122 2
12
1
1
r r r
r
r r r
r
Corrélation doubleCorrélation double
Qui donnent le coefficient de corrélation double
0,12 1 01 2 02R r r
Enfin !Enfin !
De là, on tire les coefficients de régression :
02 2
2
01 1
1
0 1 1 2 2
c
c
y c c x c x
Interprétation graphiqueInterprétation graphiqueOn cherche le meilleur plan pour représenter le nuage en dimension 3.
C’est illisible, aussi ne représente-t-on pas habituellement le nuage de points. -10
0
10
20
30
40
50
60
0 2 4 6 8 10
Corrélation partielleCorrélation partielle
Il arrive qu’on ait besoin des coefficients de corrélation partiels
2 2 2 20,12 02 0,12 01
0,1.2 0,2.12 202 01
;1 1
R r R rR R
r r
Premières remarquesPremières remarques
Le coefficient de corrélation double R(0;1,2) est l’équivalent double de |r|, et non de r
Les « alpha » mesurent le caractère plus ou moins important des facteurs sur la VD
Les c renseignent sur le sens des liens entre facteurs et VD. Ils sont de même signe que les « alpha » correspondant. Il s’agit du sens du lien dans le modèle incorporant les deux facteurs!
Corrélation simple et partielle
Corrélation simple et partielle
r(0,1) mesure le lien qui existe, de fait, entre X1 et X0
Entre « glace » et « lunette », le coefficient est élevé
R(0,1.2) mesure le lien qui existerait entre X1 et X0 si X2 n’intervenait pas
Entre « glace » et « lunette », si l’on supprime l’effet du soleil, le coefficient est faible
Causalités possiblesCausalités possiblesX(0) et X(1) sont liés
Causalitédirecte
0-1
Causalitédirecte
1-0
Causalitédouble2-0; 2-1
« AucuneCausalité »
SalaireSatisfaction
Maladie defoie
Alcool
GlaceLunettes
Note,Évolution
Alpha et cAlpha et c
Alors que les « alpha » mesurent le caractère plus ou moins prédictif des facteurs
Les « c » mesurent le caractère plus ou moins discriminant des facteurs
Est discriminant un facteur tel qu’une petite variation entraîne une grande variation de la VD
Est prédictif un facteur dont la connaissance renseigne efficacement sur celle de la VD
SituationSituation
Nous disposions d’un échantillon d’employés, appartenant à la population des employés travaillant dans les abattoirs.
Nous avions relevé sur cet échantillon les trois variables numériques suivantes :
1) La satisfaction au travail S (VD)2) L’ancienneté A (en années, VI)3) Les responsabilités R (score, VI)
Données prétraitéesDonnées prétraitées
La matrice des corrélations simples est, en posant VI(1)=A :
1 .23 .671 .57
1
Coefficients simplesCoefficients simples
L’ancienneté est liée aux responsabilitésLa satisfaction est liée aux responsabilitésLa satisfaction est peu liée linéairement à
l’anciennetéTous les liens sont positifs
1 .23 .671 .57
1
AlphaAlpha
On calcule à partir des coefficients de corrélation simple :
01 02 121 2
12
02 01 122 2
12
.231
.801
r r r
r
r r r
r
1 .23 .671 .57
1
InterprétationInterprétationOn voit également que les responsabilités sont
plus prédictives de la satisfaction (le alpha correspondant étant plus grand en valeur absolue).
On voit que le premier facteur est lié négativement, dans l’équation de régression, à la VD. Ainsi, le modèle prévoit que la satisfaction diminue avec l’ancienneté, à responsabilités égales. (pourtant le r est positif).
MystèreMystèreLa satisfaction est liée négativement à l’ancienneté (c1)La satisfaction est liée positivement à l’ancienneté (r(01))On peut concevoir les choses comme suit :
L’ancienneté à un effet négatif (1 an: -1)Les responsabilités ont un effet positif (1 point: +2)L’ancienneté est les responsabilités sont liées: (1 an: +1)Dans ce cas, bien que l’ancienneté ait un effet négatif, visible
dans le modèle double, le r est positif à cause de RMais il est également évident qu’on a pu oublier un
facteur important…
InterprétationInterprétation
Le coefficient ne semble pas mauvais. On a donc raison ici d’utiliser (avec prudence toutefois !) le modèle de régression linéaire, qui permet de prévoir la satisfaction.
On peut presque affirmer que la satisfaction dépend de l’ancienneté et des responsabilités
InterprétationInterprétation
On voit donc que la responsabilité est plus discriminante que l’ancienneté.
L’équation de régression ainsi obtenu permet de prédire les valeurs de S connaissant A et T, en remplaçant tout simplement A et T par leur valeurs.
InterprétationInterprétationIl semble donc que l’ancienneté ait un effet plutôt
négatif. Cela provient entre autre (on a déjà donné une explication) sans doute du fait que si l’ancienneté augmente mais pas les responsabilités, cela est considéré comme un déclassement, peu ou prou.
Pour augmenter la satisfaction, il faut sans doute donner plus de responsabilités. Cela n’est pourtant pas sûr : ne donne-t-on pas déjà les responsabilités aux personnes les plus motivées ?
La régression linéaire double (multiple) dépend grandement du choix des facteurs. (conditions de travail, lieu de travail)
Comme dans le cas simple, corrélation n’est pas causalité
R est une estimation
Il n’y a rien de surprenant à obtenir un lien croissant ou décroissant selon la deuxième VI avec les mêmes données
Du fait que la représentation graphique est illisible, on ne voit pas bien les valeurs aberrantes.