L’analyse des effets simples
A quoi sert cette méthode statistique?
Lorsqu’une interaction entre deux facteurs est significative, nous ne sommes pas en mesure de déterminer à quoi est due cette interaction. Il est possible par exemple qu’une interaction entre la religion et le type de comportement soit due au fait que les Musulmans ont tendance à expliquer un comportement positif de façon plus interne qu’un comportement négatif alors que le score d’internalité des Hindous n’est pas affecté par le type de comportement. Mais la configuration inverse donnerait également lieu à une interaction significative. Lorsqu’on examine les effet d’une variable à un niveau d’une autre variable , on parle d’effet simple (par exemple l’effet du type de comportement chez les Hindous uniquement). Comme une analyse de variance à un facteur, un effet simple est associé à une statistique F(dl1,dl2) qui nous dit si au moins deux groupes concernés par l’effet simple diffèrent. Les degrés de liberté du F correspondront respectivement au nombre de niveaux de la variable dont on mesure l’effet moins 1 (pour dl 1: donc s’il y a deux niveaux, comme pour le sexe, dl1 vaut 1) et aux degrés de liberté de l’erreur (within subject) de l’ANOVA.
Comme une analyse de variance factorielle comprend toujours au moins deux facteurs (appelons les A et B), il est clair qu’on peut analyser les effets simples de deux façons: soit on examine les effets simples de A à chaque niveau de B, soit on examine les effets simples de B à chaque niveau de A. Notre choix se portera sur la comparaison la plus pertinente théoriquement. Par exemple, imaginons que l’on veuille tester l’hypothèse imaginaire suivante: les hommes ont tendance à se montrer plus autoritaires en présence d’une personne de bas que de haut statut ; par contre les femmes ne sont pas affectées par le statut de leur interlocuteur. Le plan (design) est le sexe de l’acteur (femme, homme) x statut du partenaire (haut, bas). L’hypothèse est formulée de telle façon qu’on examine l’effet du statut pour chaque sexe et pas l’inverse. Choisissez donc les effets simples que vous comptez tester judicieusement en fonction des hypothèses.
Deux questions sur les effets simples:
Quelle est la différence entre un effet simple et un test t? Si la variable concernée par l’effet simple (comme le statut dans l’exemple ci-dessus), n’a que deux niveaux, on pourrait effectivement être tenté de comparer les deux groupes concernés avec un simple test t pour échantillons indépendants. La différence entre ces deux méthodes est double: premièrement un effet simple peut concerner une variable qui a plus de deux niveaux (par ex 3: statut bas, moyen, élevé). Deuxièmement, le test d’un effet simple utilise comme terme d’erreur (MSerror) une estimation qui concerne l’ensemble des groupes concernés par l’analyse de variance factorielle (les 4 groupes dans ce cas-ci) alors qu’un test t utiliserait un terme d’erreur associé uniquement aux deux groupes concernés. Le terme d’erreur de l’effet simple constitue une meilleure estimation de la variance réelle car il concerne un plus grand nombre d’observations. Par conséquent, les degrés de liberté sont également plus élevés pour un effet simple et ce test est généralement plus puissant.
Que se passe-t-il si mon effet simple concerne plus de deux groupes? Dans ce cas, un effet simple significatif signifie qu’au moins deux parmi les x groupes sont différents l’un de l’autres. Par exemple un effet simple du statut (bas, moyen, élevé) chez les hommes indiquerait que soit:
– le niveau d’autoritarisme en présence d’un statut bas diffère du niveau d’autoritarisme en présence d’un statut élevé.
– le niveau d’autoritarisme en présence d’un statut bas diffère du niveau d’autoritarisme en présence d’un statut moyen.
– le niveau d’autoritarisme en présence d’un statut moyen diffère du niveau d’autoritarisme en présence d’un statut élevé.
Pour savoir quels groupes diffèrent, il est nécessaire d’opérer des comparaisons multiples.
Distinction entre effets simple d’une variable intra ou inter sujets
Dans l’exemple ci-dessus, le statut pourrait constituer une variable intersujets si des sujets différents interagissent avec les personnes de statut faible, moyen et élevé. Par contre, elle pourrait constituer une variable intra-sujets si les mêmes sujets interagissent avec des personnes de statut faible, moyen ou élevé. L’analyse statistiques des effets simples dépendra du type de variable impliquée, selon qu’elle soit inter- ou intra-sujets.
Effets simples d’une variable intersujets
Commandes SPSS
Pour analyser les effets simples, il est nécessaire d’utiliser la fonction syntaxe de SPSS. Pour ce faire, après avoir ouvert votre fichier, cliquez sur “File/New/Syntax”.
Ensuite copiez et collez dans la fenêtre qui vient de s’ouvrir les lignes qui suivent.
GLM vd BY vi_1 vi_2
/EMMEANS=TABLES(vi_1*vi_2)compare(vi_1)
/POSTHOC = condition(SNK).
execute.
Remplacez “vd” par le nom de votre variable dépendante (par ex., l’autoritarisme dans l’exemple ci-dessus).
Remplacez “vi_1” par le nom de la variable dont vous voulez mesurer l’effet simple (par ex., le statut dans l’exemple ci-dessus).
Remplacez “vi_2” par le nom de la variable aux niveaux de laquelle vous voulez mesurer l’effet simple de la variable précédent (par ex., le sexe dans l’exemple ci-dessus).
Remplacez min et max par le minimum et le maximum de chaque variable.
Sélectionnez ensuite l’ensemble (en maintenant la souris appuyée de “glm” à “execute”) et cliquez sur run/selection.
Vous verrez non seulement apparaître les effets simples mais un test de comparaison multiples (le test de Student Newman Keuls) comparant les moyennes correspondant aux différences entre les différentes modalités de la variables de la variable indépendante.
Comment lire l’output
Ci-dessous vous pouvez voir le résultats d’une analyse des effets simples d’une variable “positivité” sur les scores d’internalité observé chez des hindous (niveau 1 de la variable “culture”) et des musulmans (niveau 2 de la variable “culture”). Ces données proviennent du fichier anofac.por et sont inspirées de l’exemple présenté dans la page consacrée à l’analyse factorielle. La syntaxe utilisée est donc la suivante:
MANOVA int BY pos(0,1) culture(1,2)
/DESIGN = pos WITHIN culture(1) pos WITHIN culture(2).
execute.
* * * * * * A n a l y s i s o f V a r i a n c e — design 1 * * *
Tests of Significance for INT using UNIQUE sums of squares
Source of Variation SS DF MS F Sig of F
WITHIN+RESIDUAL 533.30 59 9.04
POS WITHIN CULTURE(1) 68.67 1 68.67 7.60 .008
POS WITHIN CULTURE(2) 2.08 1 2.08 .23 .633
(Model) 70.75 2 35.38 3.91 .025
(Total) 604.05 61 9.90
R-Squared = .117
Adjusted R-Squared = .087
– – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – – –
Comme il y a deux niveaux du facteur culture, nous voyons deux ligne a l’output. Nous voyons que pour le niveau 1 de la culture (hindous), il y a un effet simple significatif (F(1,59) = 7.60, p = .008) mais pas pour l’autre (musulman), F(1,59) = .23, p = .63. Remarquons que le premier degré de liberté se trouve dans la colonne df et dans la ligne correspondant à l’effet et que les degrés de liberté de l’erreur (dl2) dans la ligne “within+residual”. Toutefois, nous ne connaissons pas la direction de cet effet simple. Pour la connaître, il est nécessaire d’observer les moyennes grâce à la commande means.
Qu’observe-t-on? Sur le tableau ci-dessous, nous constatons que la moyenne d’internalité est plus élevée pour les comportements négatifs que positifs chez les Hindous.
Report Internalité
Culture | POS | Mean | N | Std. Deviation |
---|---|---|---|---|
Hindous | négatifs | 5.9742 | 17 | 3.4994 |
positifs | 3.1318 | 17 | 2.9321 | |
Total | 4.5530 | 34 | 3.4909 | |
Musulmans | négatifs | 3.2424 | 15 | 2.6362 |
positifs | 3.7038 | 13 | 2.6561 | |
Total | 3.4566 | 28 | 2.6065 | |
Total | négatifs | 4.6936 | 32 | 3.3730 |
positifs | 3.3797 | 30 | 2.7831 | |
Total | 4.0579 | 62 | 3.1468 |
Effets simples d’une variable intrasujets
Commandes SPSS
Si on est familier avec l’analyse de variance à mesures répétées, il est extrêmement aisé d’analyser les effets simples d’une variable intrasujets. Il suffit pour ce faire d’effectuer successivement des analyses de variances à un facteur répété dans chaque groupe. Considérons l’exemple donné sur la page dédiée à l’anova répétée et le design mixte suivant: menace (absente, présente) x temps (avant, après discussion). Les données sont accessible sur le fichier anovrep.por. Nous ne nous intéresserons ici qu’au jugement de la sociabilité des belges (socbel1,socbel2). Comment mesurer les effets simples du temps en fonction de la présence d’une menace? Ou, en d’autres termes, quels sont les effets séparés de la discussion si on considère distinctement l’absence et la présence de menace? Pour le savoir, nous allons effectuer deux analyse de variance séparées dans la condition menace et absence de menace respectivement. Pour ce faire, cliquez sur DATA/Split file. Introduisez la variable condit (menace). Cliquez sur “Organize output by groups/OK”.
Ensuite, effectuez l’anova à mesure répétées en ignorant le facteur “condit”:
- Analyse Data/ General Linear Model/ Univariate/ Repeated Measures.
- Vous voyez apparaître une fenêtre vous demandant de spécifier les noms des facteurs intra-sujets. Dans “Within-factor” subject name, indiquez “temps”. Dans “number of levels”, indiquez 2. Poussez sur “Add” et ensuite sur “Define”.
- Sur l’écran suivant, vous devez indiquez les noms des variables qui correspondent à chaque combinaison de facteurs répétés. Faites glissez socbel1 et socbel2 dans “dependent” et cliquez sur OK.
Comment lire l’output
Comme espéré, nous voyons apparaître deux analyses séparées en fonction de la présence ou non d’une menace. Je ne reprends ici que les “multivariate tests”, qui nous préoccupent:
condition = Pas de menace
Between-Subjects Factors(a)
Value Label | N | ||
---|---|---|---|
condition | 1.00 | Pas de menace | 30 |
a condition = Pas de menace |
Multivariate Tests(b,c)
Effect | Value | F | Hypothesis df | Error df | Sig. | |
---|---|---|---|---|---|---|
TEMPS | Pillai’s Trace | .517 | 31.051(a) | 1.000 | 29.000 | .000 |
Wilks’ Lambda | .483 | 31.051(a) | 1.000 | 29.000 | .000 | |
Hotelling’s Trace | 1.071 | 31.051(a) | 1.000 | 29.000 | .000 | |
Roy’s Largest Root | 1.071 | 31.051(a) | 1.000 | 29.000 | .000 | |
a Exact statistic | ||||||
b Design: Intercept+CONDIT Within Subjects Design: TEMPS |
||||||
c condition = Pas de menace |
condition = Menace
Between-Subjects Factors(a)
Value Label | N | ||
---|---|---|---|
condition | 2.00 | Menace | 31 |
a condition = Menace |
Multivariate Tests(b,c)
Effect | Value | F | Hypothesis df | Error df | Sig. | |
---|---|---|---|---|---|---|
TEMPS | Pillai’s Trace | .178 | 6.490(a) | 1.000 | 30.000 | .016 |
Wilks’ Lambda | .822 | 6.490(a) | 1.000 | 30.000 | .016 | |
Hotelling’s Trace | .216 | 6.490(a) | 1.000 | 30.000 | .016 | |
Roy’s Largest Root | .216 | 6.490(a) | 1.000 | 30.000 | .016 | |
a Exact statistic | ||||||
b Design: Intercept+CONDIT Within Subjects Design: TEMPS |
||||||
c condition = Menace |
Ces analyses nous montrent que dans les deux cas, l’effet du temps est significatif. Lorsqu’il n’y a pas de menace, F(1,29) = 31,09, p < .001. Dans le second F(1,30) = 6.49, p = .016. Toutefois, nous ne savons toujours pas dans quelle direction vont ces effets. Pour le savoir, nous utilisons la commande “means” après avoir supprimé la commande “split file” qui divise l’output en fonction de la condition (cliquez sur “split file”, “analyse all cases”, “ok”). Grâce à la commande means (socbel1 et 2 en dependent, condit en independent), vous obtenez le tableau suivant:
Report
condition | Sociabilité Belges 1 | Sociabilité Belges 2 | |
---|---|---|---|
Pas de menace | Mean | 4.0238 | 9.4254 |
N | 31 | 30 | |
Std. Deviation | 3.4173 | 3.7446 | |
Menace | Mean | 5.3329 | 7.6941 |
N | 31 | 31 | |
Std. Deviation | 3.4589 | 3.3664 | |
Total | Mean | 4.6783 | 8.5456 |
N | 62 | 61 | |
Std. Deviation | 3.4731 | 3.6339 |
Nous constatons donc que lorsqu’il n’y a pas de menace, la sociabilité augmente après la discussion, alors qu’elle baisse lorsqu’il y en a une.