L’analyse factorielle en composantes principales

Niveau de mesure: ll importe tout d'abord de signaler que cette méthode s'applique à des variables considérées comme continues ou, techniquement, comme des variables d'intervalle. Souvent, les réponses à un questionnaire sur des échelles de type Likert (par exemple avec des options "pas du tout" à "tout à fait" avec réponses intermédiaires) peuvent être considérées comme telles. En revanche, pour les variables nominales, une autre technique d'analyse factorielle est disponible: l'analyse factorielle des correspondances.

But : Cette méthode a généralement deux fonctions distinctes.

 
–          Regrouper des variables: La première consiste à chercher à simplifier des variables s. Si l’on dispose d'un grand nombre de variables mesurant un même construit unidimensionnel, ou supposé tel (par exemple, la « confiance en soi ») ou plusieurs  dimensions d’un même construit (par exemple, l’intelligence verbale et numérique), on peut utiliser cette analyse afin de regrouper les variables qui semblent mesurer « la même chose » et de pouvoir ainsi calculer un score synthétique (comme leur moyenne) ce qui s’avérera beaucoup plus économique que de mener des analyses individuelles sur chaque item isolé. Remarquons que lorsque le nombre de variables est très réduit (moins de 10), que l'effectif est faible (- de 100 sujets) et/ou que l'on s'attend à ce qu'elles mesurent toute la même dimension, il est souvent préférable de recourir à une autre techniquue: l'Alpha de Cronbach.  
–         Mettre en évidence les dimensions organisant les relations entre des variables: Dans certains cas, notre objectif n’est pas de synthétiser des variables mais d’explorer la façon dont celles-ci s’organisent. Par exemple, si j’ai construit un questionnaire mesurant la représentation de l’Europe chez les étudiants, je pourrais utiliser une analyse factorielle afin de déterminer les « axes » qui organisent cette perception de l’Europe. Par exemple, je pourrais constater que cette perception s’organise selon deux grands axes : économique vs. politique (premier axe) et tolérante vs. fermée (deuxième axe). Pour parvenir à de telles interprétations, je me fonderai sur la façon dont les items se « structurent » sur ces deux axes.
 
La logique de l’analyse en composantes principales
Combiner deux variables : Commençons par un exemple simple. Imaginez que nous mesurions les réponses aux items « Je m’identifie à la Belgique » et « J’aime la Belgique » sur des échelles à 1 à 7 (de « pas du tout » à « très fort »). Si nous calculions la corrélation entre ces deux variables, elle serait fort probablement élevée (dans une de nos études, elle vaut .56). Une représentation graphique de cette corrélation nous permettrait même de représenter cette relation par une droite de régression (comme dans la figure ci-dessous). Une façon de rendre compte de cette corrélation consiste à suggérer qu’un facteur psychologique commun rend compte de la relation forte entre ces deux variables, par exemple dans ce cas « l’identification à la Belgique », tout comme une corrélation positive entre le poids et la taille d’un individu pourrait s’expliquer par un facteur commun (la « corpulence »). Il serait possible d’examiner la position des sujets sur cette droite de régression en examinant à quelle «hauteur » il ou elle se trouve sur l’axe. Comme chaque point correspond à une observation (un sujet), la position des points par rapport à la droite de régression nous permettrait à cet égard de disposer d’une estimation de leur degré d’identification à la Belgique. En calculant un score correspondant à la position des sujets sur cette droite de régression, ce score pourrait donc mesurer « l’essence » de ces deux items, ce qu’ils mesurent en commun. De cette façon, on synthétiserait ces deux items en un seul, en perdant toutefois une partie de l’information associée à chacun d’eux (et plus spécifiquement la partie de leur variance qui n’est pas commune à  l’autre item).
Combiner davantage que deux variables : Selon ce principe, nous voyons donc que l’on peut « réduire » deux items à un seul score grâce à la technique de la corrélation bivariée. Le principe de l’analyse factorielle en composantes principales (ACP) consiste à adopter la même logique sur davantage de variables. On pourrait ainsi réduire 3, 4, voire plus de variables à un seul score. Toutefois, dans certains cas, il est possible qu’il soit plus légitime de regrouper nos variables différemment. Ainsi, si nous disposons de 4 items, A, B, C et D, il est envisageable que la meilleure solution consiste à considérer A, B, et C comme mesurant une même entité psychologique (ou s’expliquant par le même facteur) alors que D en mesurerait une autre. L’ACP nous permettra de savoir quel regroupement est le plus judicieux.  Au lieu de déterminer une droite, comme une régression linéaire, elle isole ce que l’on appelle des « composantes principales », qui correspondent à des « vecteurs » expliquant les relations entre les variables. Ces composantes sont couramment qualifiées de « facteurs ». J’utiliserai donc les deux termes de façon interchangeable. Souvent, on leur attribue une interprétation psychologique.
 
Combien de sujets faut-il ? Généralement on ne fait pas une analyse factorielle sur moins de 5 à 6 variables et on recommande de disposer d’un effectif correspondant au moins au triple du nombre de variables avec un minimum de 100 observations.
 
 
La procédure d’extraction des composantes: L’analyse se fonde sur un tableau de corrélations entre toutes les variables et ce, en considérant la variance de chaque variable comme égale à 1 de telle sorte que la variance totale à expliquer est égale au nombre total de variables. Sans rentrer dans le détail, le principe d’extraction des composantes principales consiste initialement à choisir les composantes de façon séquentielle en fonction de la variance qu’elle explique. La première « composante » sera celle qui explique la variance la plus importante. Son pouvoir explicatif est en partie exprimé par sa « valeur propre » (ou eigenvalue) qui correspond à sa variance. Cela signifie également qu’une valeur propre de 1 indique que le facteur n’explique pas davantage que la variance d’une variable (il est donc de relativement de peu d’intérêt dès lors que le but d’une ACP est précisément de synthétiser plusieurs variables).
 

L’interprétation des composantes : Dès lors que les composantes constituent des sortes de « nouvelles » variables synthétiques, on peut examiner la relation entre les variables originales et les composantes. Plus cette relation est forte, plus la variable est « expliquée » par le facteur. Cette relation, qui peut s’exprimer par un chiffre variant de -1 à +1 s’appelle la « saturation » (factor loading) de la variable sur le facteur. Typiquement, on considère qu’une variable n’est associée à un facteur que si sa saturation dépasse 0,30 en valeur absolue. Par exemple, si, dans une échelle mesurant le stéréotype d’un groupe, les items « chaleureux », « sociable » et « gentil » ont une saturation positive et les items « froid », « asocial » et « malhonnête » ont une saturation négative, on sera tenté d’interpréter notre facteur comme mesurant la perception  de sociabilité de ce groupe. Pour interpréter un facteur, on recherche effectivement les items qui ont les saturations les plus élevées en valeur absolue. Lorsque l’on peut « opposer » des items par le signe (l’un à une forte saturation positive et l’autre une forte saturation négative) cela facilite l’interprétation car on peut plus facilement déterminer la dimension qui organise le facteur.

Exemple 1: :L'item « chaleureux » aune saturation positive, les items « stupide » et « froid » ont une saturation négative sur un facteur,
Exemple 2: L’item « chaleureux » aune saturation positive et que l’item « froid » à une saturation négative alors que la saturation de « bête » est très faible.

Alors que dans le premier cas, on pencher davantage pour une composante évaluative (positif, négatif), dans le second, on penchera pour une composante associée plus spécifiquement à la chaleur humaine (vu que l’item « bête » n’est pas saturé sur cette composante).

Pour savoir si tous les items d’une échelle soumis à une analyse mesurent le même construit psychologique, il importe donc :
1.      Que le premier facteur explique une part importante de leur variance globale (typiquement au moins 30 à 40%).
2.      Qu’ils aient tous des saturations élevées sur ce premier facteur.
 
La rotation : Dans certains cas, nos items mesurent plusieurs dimensions mais la procédure mentionnée ci-dessus ne permet pas de les isoler de la façon la plus pertinente. Prenons un exemple : imaginez que vous mesuriez la perception que des employés ont de leur chef en termes de compétence et de chaleur humaine à travers les 4 items suivants : intelligent, incompétent, chaleureux, froid. Lorsque vous soumettrez vos résultats à une ACP, que peut-il se passer ? Une possibilité consiste à ce qu’elle extraie d’abord une première dimension « évaluative » sur lesquels les items « chaleureux » et «intelligent » seraient positivement saturés et « incompétent » et « froid » négativement. La seconde dimension correspondrait alors à une opposition entre la dimension « chaleur » et la dimension « sociabilité » (ainsi les items 1 et 2 seraient positivement saturés et les items 3 et 4 négativement). Dans cet exemple, les facteurs nous aident peu à regrouper les variables de façon pertinente dès lors que chaque variable est « expliquée » par deux facteurs.
 

Dès lors que l'objectif d'une analyse factorielle est de réduire l'information disponible à un nombre limité de variables, il serait beaucoup plus simple de pouvoir « expliquer » chaque variable par un seul facteur (plutôt que par deux). Pour ce faire, il est préférable de recourir à une technique que l’on qualifie de « rotation » (et dans le cas présent, plus précisément à la méthode varimax) et qui consiste à faire « tourner » les facteurs de façon à ce que les items soient saturés sur le moins de facteurs possible. Si l’on choisit la solution représentée dans le graphique ci-dessous (qui correspond à une simple rotation), c’est ce que l’on observe : cette fois, les items sont uniquement saturés sur un facteur (et ont une saturation de 0 sur l’autre). Ce qui signifie que l’on peut plus aisément « regrouper » les items par facteur. Remarquons que la nouvelle solution n’est pas moins légitime que la solution initiale : elle repose simplement sur d’autres critères (plutôt que de maximiser la variance expliquée par le premier facteur, on maximise la variance spécifique à chaque facteur).

 
 
 
Comment faire une analyse factorielle en composantes principales dans SPSS?
 
Dans SPSS, cliquez sur: analyse/data reduction/factor. Vous faites glisser toutes les variables concernées dans l'écran de droite. Je vous conseille dans "options" de cocher sur "sorted by size" et "omit absolute values less than .30" (cela n'a aucune influence sur l'analyse mais cela facilite la lecture car les saturations faibles ne sont pas représentées).
 
Comment savoir combien de facteurs retenir ?
 
Pour savoir si l’analyse comporte plusieurs facteurs, consultez le tableau « total variance explained » (variance totale expliquée) dans la partie « initial eigenvalues » (valeurs propres initiales). Vous examinez ensuite si un seul facteur explique à lui seul une grande partie de la variance totale (plus de 40%) alors que le suivant n’en n’explique comparativement que très peu, vous pouvez vous généralement considérer qu’une solution unifactorielle est acceptable. Dans le cas contraire, afin de savoir combien de facteurs il est opportun d’inclure, on cherche généralement à examiner le graphique qualifié de « scree plot » (qu’on peut obtenir en cliquant sur la case appropriée dans «analyse/data reduction / factor analysis/extraction). Ce graphique présente les « eigenvalues » (« valeurs propres ») de chaque facteur en ordonnée et le numéro du facteur en abcisse. Les valeurs propres associées à chaque facteur successif diminuent. Une façon de sélectionner le nombre de facteurs consiste à s’arrêter là ou la « pente » devient plus abrupte indiquant une baisse radicale du pouvoir explicatif du facteur. Par exemple, dans l’exemple ci-dessous (qui porte sur 10 items mesurant le stéréotype d’un groupe imaginaire, « les jamayens »), on constate une baisse importante du premier au second item. Ensuite la baisse est beaucoup plus faible (la pente est beaucoup plus « plate »). Par ailleurs, le premier facteur a une valeur propre proche de 3 (il « explique » près de 3 items) alors qu’à partir du second ou du troisième, il n’en n’explique plus qu’entre 1 et 1.5. Or, il est inutile de disposer d’un facteur qui n’explique pas plus d’un item. Donc, dans le cas présent, bien que le premier facteur n’explique que près de 30% de la variance totale, je serais tenté de choisir une solution unifactorielle en éliminant de mon échelle les items qui ont des « saturations » très faible sur l’item en question.
 

La rotation : 

 Si l’on doit conclure à l’existence de plusieurs facteurs, il est souvent idéal d'effectuer une rotation (en cliquant sur "rotation" et en cochant "varimax"). Vous verrez alors apparaître les deux solutions : la solution initiale et la solution avec rotation. Ci-dessous, vous pouvez consulter un exemple portant sur une échelle d’identification à la Belgique. Le premier tableau que nous pouvons consulter comporte les valeurs propres et pourcentage de valeur expliquée. On constate que, dans la solution initiale, le premier facteur explique 62% de la variance à lui tout seul (on pourrait en fait se contenter d’une solution unifactorielle ici). Avec rotation, le nouveau premier facteur explique moins de variance mais le second davantage (le but n’étant plus de maximiser le pouvoir explicatif du premier facteur).

Total Variance Explained

Component

Initial Eigenvalues

Rotation Sums of Squared Loadings

 

Total

% of Variance

Cumulative %

Total

% of Variance

Cumulative %

1

4,384

62,633

62,633

3,520

50,290

50,290

2

1,060

15,140

77,773

1,924

27,484

77,773

3

,477

6,814

84,587

 

 

 

4

,368

5,261

89,849

 

 

 

5

,277

3,959

93,808

 

 

 

6

,234

3,340

97,148

 

 

 

7

,200

2,852

100,000

 

 

 

Extraction Method: Principal Component Analysis.
 
Consultant à présent le premier tableau intitulé « component matrix », qui reprend les saturations de chaque item sur deux facteurs isolés par l’analyse. On y constate que tous les items ont des saturations élevées sur le premier facteur. Ceci est peu étonnant vu que la méthode d’extraction initiale a précisément eu pour principe de maximiser le pouvoir explicatif du premier facteur. Par ailleurs, deux items ont également une saturation élevée sur le second facteur.
 
Component Matrix(a)

 

Component

1

« Je suis heureux(e) d'être belge »

,872

 

« Je me sens belge »

,843

 

« Je m'identifie à la Belgique »

,828

 

« Le fait d'être belge est un aspect important de la façon dont je me vois »

,813

 

« J'aime la Belgique »

,803

 

« Si l'existence de la Belgique était sérieusement menacée par des mouvements séparatistes, je serais prêt(e) à m'engager personnellement pour la défendre. »

,684

,635

« Si la Belgique était menacée de l'extérieur, je serais prêt(e) à m'engager personnellement pour la défendre »

,673

,650

Extraction Method: Principal Component Analysis a  2 components extracted.
 
En revanche, quand on consulte le tableau intitulé « rotated component matrix » (c’est-à-dire les saturations correspondant à la solution « rotée »), que constate-t-on ?
 
                          Rotated Component Matrix(a)

 

Component

1

« Je m'identifie à la Belgique »

,856

 

« Je me sens belge »

,856

 

« Je suis heureux(e) d'être belge »

,836

 

« Le fait d'être belge est un aspect important de la façon dont je me vois »

,809

 

« J'aime la Belgique »

,754

,303

« Si la Belgique était menacée de l'extérieur, je serais prêt(e) à m'engager personnellement pour la défendre »

 

,902

« Si l'existence de la Belgique était sérieusement menacée par des mouvements séparatistes, je serais prêt(e) à m'engager personnellement pour la défendre. »

 

,895

 

Extraction Method: Principal Component Analysis.  Rotation Method: Varimax with Kaiser Normalization.
a  Rotation converged in 3 iterations.
 
Cette fois, nos deux items ont des saturations très faibles (inférieures à .30) sur le premier facteur mais des saturations élevées sur le second. Alors que les autres items ont des saturations élevées sur le premier facteur. Seul l’item « j’aime la Belgique » est saturé également sur le second (ce qui ici n’est pas idéal si l’on souhaite des facteurs « purs »). Si l’on veut créer deux échelles « pures », il serait donc pertinent ici de les élaborer en ignorant cet item.

 

L'indice KMO: Fourni au début de l'anayse, l'indice de Kaiser-Meyer-Olkin nous indique si les corrélations entre les paires de variables peuvent être expliquées par d’autres variables incluses. SI ce n’est pas le cas, cela ne sert à rien de faire une AF. Plus cet indice ce rapproche de 1, plus l'analyse factorielle est recommandée. Kaiser propose les critères d'appréciations suivant:

.90 ou +: Merveilleux
.80 à .90: Méritoire
.70 à .80: Moyen
.60 à .70: Médiocre
.50: Misérable
Sous .50: L'analyse factorielle n'est pas recommandée. 

 
 Sauvegarder les scores factoriels : Comme il est possible de situer la position d’un sujet sur une droite de régression, il est également possible de situer sa position sur un facteur. Effectivement, un sujet qui a obtenu des scores élevés sur les items saturés positivement (ou des scores faibles aux items saturés négativement) sera caractérisé par un score factoriel élevé sur ce facteur. On peut ainsi calculer le score factoriel de chaque sujet sur un facteur qui varie généralement entre -1 et 1 (bien qu’il puisse excéder ces limites). Comment faire dans SPSS ? En cliquant sur analyse / Reduce variables / Factor Analysis / Scores / Save as variable. C’est là une façon particulièrement simple de créer des scores « synthétiques » regroupant des variables.

 

 
 
 

 

Leave a Reply

Your email address will not be published. Required fields are marked *