SPSS

Données

Analyse

Graphiques

Utilitaires

Transformation

Extensiosn

stat

Mesures répétées à deux facteurs : un facteur intra-sujets et un facteur inter-sujets dans IBM SPSS

  Nous allons  présenter une ANOVA à mesures répétées comportant non seulement un facteur intra-sujets  mais également un facteur inter-sujets. Pour ces données, supposons que certains rats aient été soumis à un régime spécial (facteur inter-sujets), et nous souhaitons également savoir si le traitement a eu un effet Apprentissage en fonction de l’essai et du traitement (Données hypothétiques) Entrées dans SPSS, nos données sont : Pour lancer l’analyse, nous sélectionnons comme précédemment : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → MESURES RÉPÉTÉES Nous nommons une fois de plus le facteur intra-sujets, mais il faudra aussi inclure le facteur treat (traitement) dans l’analyse : Remarquez ci-dessus que nous avons déplacé treat dans la boîte des facteurs inter-sujets. Nous procédons ensuite à l’analyse : Les tests multivariés montrent qu’il existe une preuve d’un effet de l’essai (p = 0.007), mais pas d’une interaction essai*traitement (p = 0.434). Test de sphéricité de Mauchlya Le test de sphéricité de Mauchly donne une valeur p = 0.245, donc nous n’avons pas de preuve pour rejeter l’hypothèse nulle de sphéricité. Cela signifie que nous pourrions, en théorie, interpréter la sortie avec sphéricité supposée (mais nous interpréterons de toute façon le test de Greenhouse–Geisser, qui est plus conservateur). Tests des effets intra-sujets Les tests univariés ci-dessus révèlent un effet pour l’essai (p = 0.000), mais aucun pour l’interaction essai*traitement (G–G, p = 0.194). Tests des effets inter-sujets Les effets inter-sujets indiquent la présence d’un effet pour le traitement (p = 0.005), avec un eta carré partiel de 0.891. Un graphique illustrant les résultats montre clairement cette tendance :   Une ANOVA à mesures répétées 2 × 3 a été réalisée, où le traitement était le facteur inter-sujets avec deux niveaux, et l’essai était le facteur intra-sujets avec trois niveaux. Un effet de traitement (p = 0.005) ainsi qu’un effet d’essai (p < 0.001) ont été observés. Aucune preuve d’un effet d’interaction n’a été trouvée (Greenhouse–Geisser, p = 0.194).

Mesures répétées à deux facteurs : un facteur intra-sujets et un facteur inter-sujets dans IBM SPSS Lire la suite »

ANOVA à Mesures Répétées à un Facteur dans IBM SPSS

Considérons les données fictives suivantes sur l’apprentissage en fonction de l’essai. Pour ces données, six rats ont été observés dans une boîte de Skinner, et le temps (en minutes) que chaque rat a pris pour appuyer sur un levier a été enregistré. Si le rat apprend la réponse « appuyer sur le levier », alors le temps nécessaire pour appuyer sur le levier devrait diminuer au fil des essais. Apprentissage en fonction de l’essai (Données hypothétiques) Essai Rat 1 2 3 Moyennes des rats 1 10.0 8.2 5.3 7.83 2 12.1 11.2 9.1 10.80 3 9.2 8.1 4.6 7.30 4 11.6 10.5 8.1 10.07 5 8.3 7.6 5.5 7.13 6 10.5 9.5 8.1 9.37 Moyennes des essais M=10.28M=10.28 M=9.18M=9.18 M=6.78M=6.78 Nous observons que, globalement, le temps de réponse moyen diminue au fil du temps, passant de 10.28 à 6.78. Pour ces données, chaque rat sert essentiellement de son propre « témoin », car chaque rat est observé de manière répétée à travers les essais. C’est ce qui rend ces données des mesures répétées. Notons qu’il n’y a que 6 rats utilisés dans cette étude. Dans un plan inter-sujets classique, chaque point de données représenterait une observation sur un rat différent, ce qui donnerait ici 18 observations. Pour nos données, la variable dépendante est le temps de réponse en minutes, tandis que la variable indépendante est l’essai. Les données nécessitent une ANOVA à mesures répétées à un facteur. Nous souhaitons évaluer l’hypothèse nulle selon laquelle les moyennes des essais sont égales : Hypothèse nulle : Moyenne de l’essai 1 = Moyenne de l’essai 2 = Moyenne de l’essai 3 Un rejet de l’hypothèse nulle suggérerait qu’il existe une différence entre les essais. L’ANOVA à mesures répétées viole l’hypothèse d’indépendance entre les conditions, et donc une hypothèse supplémentaire est requise pour ces plans : l’hypothèse de sphéricité, que nous évaluerons dans SPSS. La saisie des données dans SPSS est légèrement différente pour une ANOVA à mesures répétées par rapport à un plan inter-sujets classique. Nous entrons les données comme suit : Chaque colonne correspond aux données d’un essai. Pour analyser ces données, nous procédons comme suit : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → MESURES RÉPÉTÉES SPSS affiche par défaut le facteur 1 dans le champ « Nom du facteur intra-sujet ». Nous le renommons en « trial » et entrons « 3 » dans « Nombre de niveaux », car il y a trois essais. Cliquez sur « Ajouter », ce qui affiche maintenant la variable « trial » dans la boîte (trial(3)). Ensuite, cliquez sur « Définir ».   Déplacez « trial_1 », « trial_2 » et « trial_3 » vers les emplacements respectifs dans la fenêtre « Variables intra-sujets (trial) ». Dans la fenêtre « Graphiques de profil », déplacez « trial » vers l’axe horizontal, puis cliquez sur « Ajouter » pour que « trial » apparaisse dans la fenêtre des graphiques en bas de la boîte. Cliquez sur « Continuer ». Nous obtiendrons également un graphique des moyennes. Sélectionnez Tracés puis deplacer la variable Trial dans Axe horizontal . Enfin, nous obtiendrons une mesure de la taille de l’effet avant de procéder à l’analyse. Sélectionnez Options puis Estimations d’effets de taille. Sélectionnez Moyenne marginale estimée. puis deplacez « trial » vers la fenêtre « Afficher les moyennes pour » et cochez la case « Comparer les effets principaux », avec un ajustement de l’intervalle de confiance égal à LSD (aucun).  Syntaxe générée par SPSS : SPSS confirme d’abord que notre facteur intra-sujets comprend trois niveaux. Ensuite, SPSS fournit les tests multivariés : Une ANOVA à mesures répétées a été réalisée sur « trial » avec trois niveaux. Tous les tests multivariés suggèrent un rejet de l’hypothèse nulle selon laquelle les temps d’apprentissage moyens par essai sont différents dans la population d’où proviennent les données. La trace de Pillai, le lambda de Wilks, la trace de Hotelling et la plus grande racine de Roy étaient tous statistiquement significatifs (p=0.003). Le test de sphéricité de Mauchly a été réalisé pour évaluer l’hypothèse nulle de sphéricité entre les essais. Il n’y a pas suffisamment de preuves pour suggérer une violation de la sphéricité (p=0.076). Les tests univariés de significativité sur le facteur « trial » rejettent l’hypothèse nulle d’absence de différences moyennes entre les essais (p<0.001). Environ 94 % de la variance (ηp2=0.936) des temps d’apprentissage moyens peut être expliquée par « trial ». Le test de Greenhouse-Geisser, plus conservateur et protégeant contre une éventuelle violation de la sphéricité, rejette également l’hypothèse nulle (p<0.001). Les tests multivariés sont un peu plus complexes à interpréter que le F univarié. Nous les détaillerons davantage dans le chapitre sur la MANOVA. Pour faire simple : au lieu de considérer le temps de réponse comme une seule variable dépendante, on le considère comme trois variables (essais 1, 2 et 3), ce qui transforme l’analyse en une ANOVA multivariée. Tous les tests multivariés (trace de Pillai, lambda de Wilks, trace de Hotelling, racine maximale de Roy) indiquent un effet significatif, avec une valeur de p = 0,003. L’eta partielle au carré est de 0,942, indiquant un effet fort des essais sur le temps de réponse. Test de sphéricité de Mauchly Ce test est essentiel en ANOVA à mesures répétées. Ici, p = 0,076, ce qui signifie qu’il n’y a pas de violation significative de l’hypothèse de sphéricité. Tests univariés des effets intra-sujets Nous observons que l’effet du facteur trial est significatif (p < 0,001). L’eta partielle au carré est de 0,936, soit 94 % de la variance du temps de réponse expliquée par les essais. SPSS propose plusieurs corrections (sphéricité supposée, Greenhouse–Geisser, Huynh–Feldt, borne inférieure). Bien que la sphéricité ne soit pas violée ici, la correction de Greenhouse–Geisser est souvent recommandée. Tests de contrastes intra-sujets Les tests indiquent qu’une tendance linéaire explique mieux les différences entre essais (p = 0,000) qu’une tendance quadratique (p = 0,004). Le graphique suivant le confirme : On voit que le temps moyen diminue de manière presque linéaire entre les essais 1 et 3. Effets inter-sujets Ici, aucun facteur inter-sujet n’a été inclus. Toutefois, SPSS désigne la variabilité inter-sujets comme erreur. On peut démontrer cela en incluant manuellement une variable « sujet » comme facteur inter-sujet. Comparaisons par paires Les comparaisons montrent des différences significatives entre tous les essais (p < 0,05). Les intervalles

ANOVA à Mesures Répétées à un Facteur dans IBM SPSS Lire la suite »

Analyse de Puissance pour l’Analyse de Variance dans IBM SPSS

Supposons que nous souhaitons estimer la taille d’échantillon pour une ANOVA factorielle inter-sujets 2×2 : Pour obtenir la fenêtre ANOVA permettant d’estimer la puissance et la taille d’échantillon, sélectionnez TESTS → MOYENNES → PLUSIEURS GROUPES : ANOVA (Effets principaux et interactions (deux variables indépendantes ou plus)). Ci-dessous, nous estimons la taille d’échantillon pour une taille d’effet de f=0,25, à un seuil de significativité de 0,05, avec une puissance de 0,95. Chaque variable indépendante a deux niveaux, donc les degrés de liberté du numérateur, qui représentent le croisement des facteurs, sont égaux à 1 (c’est-à-dire (2−1)(2−1)(2−1)(2−1)). Le nombre de groupes est égal au nombre de cellules dans le design de l’interaction d’ordre le plus élevé, soit 4 (c’est-à-dire 2×2). Nous pouvons voir que dans ces conditions, la taille d’échantillon totale requise est de N=210, ce qui signifie 210/4 par groupe (soit 52,5, que nous arrondissons à 53 par groupe). Remarque : Le nombre de groupes correspond au nombre de cellules générées par le terme d’interaction d’ordre le plus élevé dans le modèle. Si nous avions un troisième facteur, par exemple, avec trois niveaux, le nombre de groupes aurait été égal à 2×2×3=12. Et si nous étions toujours intéressés uniquement par l’interaction 2×2, les degrés de liberté du numérateur seraient toujours égaux à 1. Une analyse de puissance a été réalisée pour estimer la taille d’échantillon requise pour une ANOVA factorielle 2×2 avec une taille d’effet de f=0,25 (effet de taille moyenne), un seuil de significativité de 0,05 et une puissance de 0,95. La taille d’échantillon totale estimée pour détecter cet effet est de N=210.

Analyse de Puissance pour l’Analyse de Variance dans IBM SPSS Lire la suite »

Analyse de la Covariance (ANCOVA) dans IBM SPSS

Il arrive parfois que, lors de la planification d’une ANOVA pour nos données, nous ayons une ou plusieurs variables que nous souhaitons garder constantes ou éliminer de la relation qui nous intéresse. Autrement dit, nous aimerions réaliser une ANOVA classique tout en incluant une ou plusieurs covariables dans le modèle. La technique idéale pour cela est l’Analyse de la Covariance (ANCOVA). La covariable est généralement une variable à distribution continue que l’on inclut dans l’ANOVA. L’intérêt principal d’ajouter des covariables dans un modèle est d’espérer obtenir un test plus puissant de l’effet d’intérêt (c.-à-d. la variable indépendante) en permettant à la covariable d’absorber une partie du terme d’erreur.  Exemple d’une ANCOVA : Nous allons à nouveau utiliser les données sur le QI. Cette fois, nous voulons voir s’il existe des différences entre les groupes sur la variable dépendante verbal, tout en incluant quantitatif comme covariable : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → UNIVARIÉ Pour effectuer l’ANCOVA dans SPSS : Déplacez verbal dans la boîte  Variable dependente Déplacez groupe dans la boîte Facteur(s) Fixes Déplacez quantitatif dans la boîte Covariable(s)   Hypothèse d’Homogénéité des Pentes de Régression L’ANCOVA suppose toutes les hypothèses classiques de l’ANOVA, mais nous devons également supposer l’absence d’interaction entre la covariable et la variable indépendante. C’est-à-dire que, pour chaque niveau de la variable indépendante, la régression de la variable dépendante sur la covariable doit être linéaire et approximativement identique On peut évaluer l’existence d’une interaction en incluant le terme d’interaction dans le modèle : Choisissez « Model » Cliquez sur « Termes construits» Ajoutez tous les termes (group, quant, et group*quant) Ou bien exécutez le modèle factoriel complet Appuyez sur “Shift” pour sélectionner group et quant et obtenir le terme d’interaction dans la fenêtre « Model » La valeur p pour l’interaction group*quant est 0.107, ce qui n’est pas significatif, suggérant une absence d’interaction. Donc, l’hypothèse d’homogénéité des pentes de régression est respectée. Résumé : La variable indépendante « groupe » est statistiquement significative (p = 0.011). La covariable « quantitatif » est incluse dans le modèle, mais non significative (p = 0.639). Dans nos données, inclure la covariable a augmenté l’erreur moyenne quadratique, rendant le test moins sensible sur groupe (essayez l’ANOVA avec seulement group comme facteur). Pour plus de détails sur ce phénomène, voir Warner (2013), qui discute également de l’utilisation des somme des carrés de type I vs. type III. La décision sur l’hypothèse nulle pour groupe aurait été la même avec les SS de type I, recommandées par Warner pour l’ANCOVA

Analyse de la Covariance (ANCOVA) dans IBM SPSS Lire la suite »

Effets Principaux Simples dans IBM SPSS

Après avoir obtenu des preuves d’une interaction, une étape logique suivante consiste à « explorer » l’effet d’interaction. Rappelons ce que l’interaction entre enseignement et manuel nous a révélé – elle nous a indiqué que les différences moyennes de manuel n’étaient pas cohérentes à travers les niveaux de enseignement. Eh bien, si elles ne sont pas les mêmes à travers les niveaux de enseignement, une question logique à se poser est : en quoi diffèrent-elles ? Autrement dit, nous aimerions examiner les différences moyennes de manuel à chaque niveau de enseignement. Voici quelques exemples d’effets principaux simples que nous aimerions analyser (à titre d’exemples seulement, nous voudrions probablement en analyser davantage en pratique). Le premier est la différence moyenne de manuel au niveau enseignement = 1, tandis que le second est la différence moyenne de manuel au niveau enseignement = 3  :​ Le graphique de gauche illustre deux effets principaux simples : À enseignement=1 , quelle est la différence moyenne entre les manuels 1 et 2 ? À enseignement = 3, quelle est la différence moyenne entre les manuels et 2 ? Pour calculer les effets principaux simples dans SPSS, nous avons besoin du code suivant : Le code ci-dessus générera la même ANOVA que celle obtenue précédemment (nous ne la reproduisons donc pas ci-dessous), mais, en plus, exécutera les effets principaux simples des comparaisons moyennes de manuel à chaque niveau de enseignement (c’est-à-dire /EMMEANS) : Basé sur les moyennes marginales estimées La différence moyenne est significative au niveau .05. Ajustement pour les comparaisons multiples : Bonferroni. Le tableau de gauche contient les moyennes des cellules comparées. Le tableau de droite contient les comparaisons par paires de manuel à chaque niveau de enseignement, avec un ajustement de Bonferroni pour contrôler l’inflation du taux d’erreur de type I. Ce que le tableau nous dit, c’est qu’à chaque niveau de enseignement, nous avons des preuves de différences de manuel, sauf pour enseignement=4, où les deux moyennes sont exactement les mêmes (92.667), d’où p=1.000. Nous pourrions également calculer les effets principaux simples des différences de enseignement à chaque niveau de manuel en ajustant quelque peu la syntaxe (remarquez COMPARE (enseignement) au lieu de COMPARE (manuel) sur la ligne /EMMEANS) : Analyse de Variance : Effets Fixes et Aléatoires Basé sur les moyennes marginales estimées La différence moyenne est significative au niveau .05. b. Ajustement pour les comparaisons multiples : Bonferroni. Quelques observations basées sur ces effets simples : À manuel = 1, toutes les différences par paires de enseignement sont statistiquement significatives, sauf enseignement=1 vs. enseignement = 2 (p=1.000). À manuel = 2, il n’y a aucune preuve de différences moyennes entre enseignement=1 et enseignement=2, ni entre enseignement=1 et enseignement=3. Nous interprétons les effets simples restants de manière analogue. Les effets principaux simples ont été réalisés pour décomposer l’interaction entre enseignant et manuel. Des différences entre enseignants ont été trouvées à manuel 1, sauf pour enseignement 1 vs. enseignement 2, tandis que les enseignants 1 et 4, 2 et 4, et 3 et 4 ont été trouvés différents à manuel 2.

Effets Principaux Simples dans IBM SPSS Lire la suite »

ANOVA Factorielle à Effets Fixes et Interactions dans IBM SPSS

Rappelons que dans une ANOVA à un facteur à effets fixes, il n’y a qu’une seule variable indépendante, et donc nous ne pouvons tirer de conclusions que sur les différences de moyennes dans la population selon cette seule variable. Cependant, il arrive souvent que nous souhaitions considérer plus d’une variable à la fois. Cela nous permet d’émettre des hypothèses non seulement sur les effets principaux (c’est-à-dire l’effet d’un seul facteur sur la variable dépendante) mais aussi sur les interactions. Qu’est-ce qu’une interaction ? Une interaction est l’effet d’une variable indépendante sur la variable dépendante, mais dont l’effet n’est pas constant selon les niveaux d’une autre variable indépendante dans le modèle. Un exemple aidera à illustrer la nature d’une interaction. Exemple d’ANOVA factorielle Supposons qu’au lieu d’étudier simplement l’effet de l’enseignant sur la réussite, nous souhaitions ajouter une deuxième variable indépendante, à savoir le manuel utilisé. Notre hypothèse globale serait donc que l’enseignant et le manuel ont un effet sur les scores de réussite. Nos données apparaissent maintenant comme suit : Lorsque nous élargissons notre fichier de données SPSS, nos données ressemblent à ceci : Lancer l’ANOVA factorielle dans SPSS Pour exécuter l’ANOVA factorielle dans SPSS : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → UNIVARIÉ Nous plaçons score dans la boîte de la variable dépendante comme d’habitude, puis enseignant et manuel dans la boîte facteurs fixes (à gauche). Dans l’onglet Options,dans  Affichage, et nous cochons  Estimation de la taille de l’effet et Test d’homogénéité. Syntaxe SPSS Voici la syntaxe générée par SPSS :  SPSS confirme qu’il y a 6 observations dans chaque niveau d’enseignant et 12 dans chaque groupe de manuel. Le test de Levene sur l’égalité des variances ne rejette pas l’hypothèse nulle, donc nous n’avons pas de raison de douter que les variances soient égales. Résultats principaux de l’ANOVA Les effets sont les suivants : Effet principal de l’enseignant : significatif (p = 0,000) Effet principal du manuel : non significatif (p = 0,231) Effet d’interaction enseignant*manuel : significatif (p = 0,000) Test de Levene Analyse des tailles d’effet Rappel : l’Eta² partiel est similaire à l’Eta², mais il exclut les autres sources de variance dans le dénominateur. Il est donc généralement plus élevé que l’Eta². Formule : Exemple pour enseignant :   Graphique de l’interaction Résumé de l’analyse   Une ANOVA factorielle à deux facteurs à effets fixes a été réalisée sur les données de réussite pour déterminer s’il existait des différences moyennes selon l’enseignant et le manuel, ainsi qu’une interaction entre les deux facteurs. Effet principal significatif de l’enseignant (p < 0,001) Interaction significative entre enseignant et manuel (p < 0,001) Aucun effet significatif du manuel seul (p = 0,231) Observations sur le graphique d’interaction L’effet d’interaction est évident : les différences de moyennes selon le manuel ne sont pas constantes selon l’enseignant. Pour enseignant = 1, la moyenne est plus élevée pour manuel = 2. Pour enseignant = 2, même tendance mais les deux moyennes augmentent. Pour enseignant = 3, inversion : manuel = 1 donne une moyenne bien plus élevée. Pour enseignant = 4, pas de différence notable entre les manuels.

ANOVA Factorielle à Effets Fixes et Interactions dans IBM SPSS Lire la suite »

ANOVA à effets aléatoires dans IBM SPSS

Il y a des moments où nous souhaitons généraliser nos résultats non seulement à ces enseignants utilisés dans l’expérience, mais aussi à l’ensemble des enseignants, qu’ils soient présents dans notre échantillon ou absents. Dans ce modèle, les enseignants étudiés sont considérés comme un échantillon aléatoire de tous les enseignants qui auraient pu être sélectionnés. Ce modèle est appelé modèle à effets aléatoires, puisque le facteur d’intérêt (ici, les enseignants) est considéré comme un échantillon aléatoire de tous les enseignants que nous aurions pu utiliser pour représenter les niveaux de la variable indépendante. Les hypothèses nulles dans une ANOVA à effets aléatoires ne concernent pas réellement les différences de moyennes de la même manière que dans un modèle à effets fixes, mais plutôt les variances. Pourquoi cela ? Parce que, littéralement, nous ne cherchons pas à estimer des différences de moyennes dans une population particulière. Ce qui nous intéresse, c’est de mesurer dans quelle mesure la variance de la variable dépendante peut être expliquée par les niveaux de la variable indépendante, qu’ils soient échantillonnés ou non. Dans une ANOVA à effets aléatoires à un facteur, notre hypothèse nulle est formulée comme suit : H₀ : σ²A = 0 Et l’hypothèse alternative : H₁ : σ²A > 0 Les hypothèses dans l’ANOVA  à effets aléatoires sont les mêmes que pour les effets fixes. Cependant, on suppose en plus que l’effet aléatoire est tiré d’une distribution normale. Pour exécuter une ANOVA à effets aléatoires dans SPSS, suivez les étapes suivantes : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → COMPOSANTES DE LA VARIANCE Déplacez nc dans la case Variable dépendante (comme dans une ANOVA à effets fixes), mais au lieu de déplacer enseignement dans Facteurs fixes, placez-le dans Facteurs aléatoires. Ensuite, cliquez sur Options : ● Il est nécessaire de choisir une méthode d’estimation des paramètres pour le modèle à effets aléatoires.  ● Pour nos besoins, sélectionnez Maximum de vraisemblance restreint (REML), qui est souvent considéré comme l’estimateur de choix pour ce type de modèle. ● C’est la seule case à cocher ; vous pouvez laisser les autres paramètres par défaut. Cliquez sur Continuer. Après exécution du modèle, on obtient la syntaxe suivante :   SPSS nous confirme qu’il y a six observations dans chaque groupe d’enseignants. Voici comment interpréter les estimations de variance : ● La variance due à enseignement est de 94,867. Cela représente la variance due aux différents niveaux du facteur enseignant – qu’ils soient présents dans notre expérience ou dans la population. Rappelons que dans une ANOVA à effets aléatoires, les niveaux de facteur dans notre expérience sont un échantillon aléatoire des niveaux possibles. ● La variance d’erreur est de 18,842, soit la variance non expliquée par le modèle. Ces composantes de variance ne sont pas encore des proportions. Pour obtenir la proportion de variance expliquée par enseignement, on divise la variance associée à teach par la somme des deux composantes de variance : C’est-à-dire qu’environ 83 % de la variance des scores de performance peut être attribuée aux niveaux de enseignement, qu’ils soient dans l’échantillon ou dans la population. Si ces données étaient réelles, ce serait très impressionnant car cela suggère que le fait de changer d’enseignant pourrait entraîner une grande variation dans la performance. Ce qui précède constitue seulement une introduction aux modèles à effets aléatoires, une simple démonstration pour montrer leur fonctionnement et comment effectuer une ANOVA à un facteur avec effets aléatoires. Pour plus de détails, Hays (1994) constitue une excellente référence. Une ANOVA à effets aléatoires à un facteur a été menée sur les données de performance pour tester l’hypothèse nulle selon laquelle la variance due aux enseignants est égale à 0. Il a été constaté qu’environ 83 % de la variance dans les scores de performance peut être attribuée aux différences entre enseignants, que ceux-ci aient été échantillonnés dans l’expérience ou proviennent de la population.

ANOVA à effets aléatoires dans IBM SPSS Lire la suite »

Tests post hoc alternatifs et comparaisons dans IBM SPSS

Nous réalisons ci-dessous deux tests supplémentaires pour démontrer que lorsqu’il s’agit d’examiner les données a posteriori, nous avons plusieurs options à notre disposition. Le premier est le test de Bonferroni, qui maintient l’erreur de type I globale à un niveau nominal en divisant le seuil de signification souhaité par le nombre de comparaisons effectuées. Par exemple, si nous voulons faire 3 comparaisons tout en gardant un alpha global égal à 0,05, nous pouvons exécuter chaque comparaison à 0,05 / 3 = 0,0167. Le test de Bonferroni peut être utilisé comme comparaison a priori ou post hoc, mais il faut noter qu’il est généralement préférable lorsqu’il y a un petit nombre de moyennes (par exemple 3 ou 4). Si vous avez de nombreuses moyennes dans votre ANOVA, alors diviser alpha par un grand nombre donnerait à chaque test une puissance très faible. Par exemple, si vous avez 10 comparaisons à faire, alors 0,05 / 10 = 0,005, ce qui est un seuil de signification assez difficile à rejeter pour une hypothèse nulle moyenne. Nous réalisons aussi le test de Scheffé, qui est un test très conservateur. Si vous parvenez à rejeter l’hypothèse nulle avec le test de Scheffé, vous pouvez avoir une grande confiance qu’une véritable différence existe. Comparaisons multiples Variable dépendante : ac Tableau des différences moyennes, erreurs standards, intervalles de confiance à 95 % et significations pour les comparaisons multiples via Scheffé et Bonferroni. Comme nous l’avons fait lors du test de Tukey, nous avons déplacé enseugnment de « Facteur(s) » vers la partie droite, en sélectionnant cette fois Bonferroni et Scheffé comme nos tests post hoc souhaités. Les différences de moyennes sont interprétées de la même manière qu’avec le test de Tukey ; cependant, nous constatons que le test de Scheffé ne rejette plus l’hypothèse nulle dans la comparaison entre les niveaux 2 et 3 de teach (p = 0,056), alors que le test de Tukey l’avait fait (p = 0,033). Cela s’explique par le fait que, comme mentionné précédemment, le test de Scheffé est beaucoup plus strict et conservateur que celui de Tukey. Quant au test de Bonferroni, il rejette également l’hypothèse nulle entre teach 2 et teach 3, mais avec une valeur p de 0,043, comparée à 0,033 pour Tukey. Ces différences de valeurs p illustrent bien les divergences de résultats qui peuvent apparaître selon le test post hoc choisi. SPSS propose de nombreuses autres options de tests post hoc. Howell (2002) offre un excellent résumé de ces procédures et peut être consulté pour plus d’informations. Le point le plus important pour le moment est que vous compreniez qu’un test post hoc peut être plus conservateur ou plus libéral, et qu’en cas de doute, si vous rapportez généralement les résultats du test de Tukey, vous restez généralement sur un terrain sûr en termes de crédibilité statistique. Tracer les différences de moyennes Souvenez-vous que nous avions demandé une courbe de profil des moyennes, qui apparaît ci-dessous :   Le graphique confirme qu’en passant du niveau 1 au niveau 4 de teach, la performance moyenne augmente. On peut aussi y voir pourquoi les tests post hoc n’ont pas trouvé de différences entre, par exemple, teach 1 et teach 2 (les moyennes sont très proches sur le graphique), mais ont détecté une différence significative entre d’autres niveaux (par exemple 1 vs 4, 2 vs 4, etc.). Rappelons également que nous avons effectué une ANOVA à effets fixes, et que dans ce type d’analyse, le chercheur souhaite uniquement généraliser les conclusions aux niveaux spécifiques étudiés dans l’analyse. Ainsi, pour nos données, le fait d’avoir trouvé une différence significative globale entre les moyennes dans l’ANOVA suggère qu’il existe des différences spécifiques entre ces enseignants en particulier. Si nous avions voulu conclure qu’il existe des différences entre ces enseignants ou d’autres que nous aurions échantillonnés au hasard, nous aurions dû effectuer une ANOVA à effets aléatoires, un sujet que nous abordons brièvement maintenant.

Tests post hoc alternatifs et comparaisons dans IBM SPSS Lire la suite »

Contrastes et Tests Post Hoc sur l’Enseignant dans IBM SPSS

Contrastes et Tests Post Hoc sur l’Enseignant Le rejet de l’hypothèse nulle dans l’ANOVA suggère qu’il existe des différences entre les moyennes de la population. Cependant, un résultat significatif de FF ne nous indique pas où se situent ces différences. Théoriquement, nous pourrions examiner les différences par paires en effectuant plusieurs tests tt entre les enseignants 1 vs. 2, 1 vs. 3, 1 vs. 4, 2 vs. 3, etc. Mais rappelons qu’à chaque test tt est associé un taux d’erreur de type I, fixé au niveau de signification du test. Ce taux d’erreur s’accumule à travers les tests, ce qui signifie que pour l’ensemble des comparaisons, le taux d’erreur global sera assez élevé. En revanche, si nous n’avions qu’une ou deux comparaisons à effectuer, nous pourrions nous permettre de ne pas contrôler le taux d’erreur global, surtout si nous ne souhaitons pas faire toutes les comparaisons. Cela est particulièrement vrai si nous savons a priori (c’est-à-dire avant d’examiner les données) quelles comparaisons nous voulons effectuer, basées sur la théorie. Par exemple, supposons que nous souhaitions uniquement comparer les moyennes des enseignants 1 et 2 avec celles des enseignants 3 et 4 : 71.00+72.50 vs. 80.0+92.67 Effectuer uniquement cette comparaison maintiendrait le taux d’erreur de type I à 0.05, le niveau que nous avons fixé pour la comparaison. En d’autres termes, en ne faisant qu’une seule comparaison, nous n’avons pas à craindre que le taux d’erreur augmente. Pour réaliser cette comparaison entre les moyennes, nous pouvons formuler ce qu’on appelle un contraste. Un contraste est une combinaison linéaire de la forme : Ci=c1μ1+c2μ2+c3μ3+c4μ4​ où c1 à c4 sont des poids entiers tels que la somme des poids est égale à 0. Autrement dit, un contraste est une combinaison linéaire de moyennes où la somme des cj est nulle. Comment attribuer les poids ? Pour notre contraste, puisque nous voulons comparer les moyennes des enseignants 1 et 2 à celles des enseignants 3 et 4, nous devons attribuer des poids qui permettent cela. La solution suivante fonctionnerait : Ci=(1)μ1+(1)μ2+(−1)μ3+(−1)μ4 ​Remarquez que la somme des poids est égale à 0, et s’il n’y a pas de différence entre les enseignants 1 et 2 vs. 3 et 4, alors Ci​ sera égal à 0. S’il y a une différence ou un « déséquilibre » entre ces groupes, nous nous attendrions à ce que Ci soit différent de 0. Nous aurions pu utiliser d’autres poids, comme 2, -2, par exemple, car la somme des cj est nulle serait toujours respecté. Théoriquement, nous pourrions utiliser n’importe quels poids entiers tant qu’ils représentent le contraste qui nous intéresse. Pour effectuer ce contraste dans SPSS, nous utilisons la syntaxe suivante : ANOVA ac Somme des Carrés Carré Moyen F Sig. Entre Groupes 174.125 3 588.042 Dans les Groupes 378.833 20 18.842 Total 214.058 23 Coefficients de Contraste Contraste 1.00 2.00 3.00 4.00 1 1 1 -1 -1 Tests de Contraste Contraste Valeur du Contraste Erreur Standard t dl Sig. (bilatéral) ac 1 -29.1667 3.54417 -8.229 20 Ne suppose pas des variances égales 1 -29.1667 3.54417 -8.229 15.034 Un contraste comparant les moyennes de réussite des enseignants 1 et 2 avec celles des enseignants 3 et 4 a été effectué. Que les variances soient supposées égales ou non, l’hypothèse nulle d’égalité a été rejetée (p<0.001). Nous avons donc des preuves pour suggérer une différence de moyenne entre les enseignants 1 et 2 vs. 3 et 4. Nous voyons à gauche que SPSS effectue à nouveau l’ANOVA pour les données de réussite, puis poursuit avec le contraste sous le tableau récapitulatif. Les coefficients 1, 1, -1, -1 correspondent au contraste que nous voulions effectuer. Les Tests de Contraste révèlent la valeur pp du contraste. En supposant que les variances ne sont pas égales (pour cet exemple), la valeur du contraste est de -29.1667, avec une statistique tt de -8.229, évaluée avec 15.034 degrés de liberté. La valeur pp bilatérale est de 0.000, donc nous rejetons l’hypothèse nulle Ci=0 et concluons que Ci≠0. Autrement dit, nous avons des preuves que dans la population dont ces données sont tirées, les moyennes des enseignants 1 et 2, prises ensemble, diffèrent de celles des enseignants 3 et 4. Nous aurions obtenu la même valeur de contraste en le calculant manuellement, en utilisant les moyennes échantillonnées : La valeur de -29.17 correspond à celle générée par SPSS. Peu importe le signe du contraste ; nous nous intéressons seulement à savoir s’il est suffisamment différent de zéro pour rejeter l’hypothèse nulle Ci=0Ci​=0. Nous avons donc des preuves que, collectivement, les moyennes des enseignants 1 et 2 diffèrent de celles des enseignants 3 et 4. Les contrastes sont utiles lorsque nous avons une théorie nous guidant sur les comparaisons à effectuer, afin de ne pas augmenter le taux d’erreur de type I. Cependant, souvent, nous n’avons pas de théorie solide et souhaitons effectuer beaucoup plus de comparaisons. Dans ce cas, les tests Post Hoc nous permettent de faire des comparaisons par paires tout en contrôlant le taux d’erreur global. Il existe plusieurs tests Post Hoc, variant en termes de conservatisme : Un test conservateur indiquera une différence seulement s’il y a de solides preuves. Il est plus difficile de rejeter l’hypothèse nulle, mais si elle est rejetée, la confiance dans le résultat est élevée. Un test libéral indiquera une différence plus facilement, mais avec moins de confiance dans sa validité. Pour la plupart des situations de recherche, le test Tukey est considéré comme un bon compromis. Il contrôle raisonnablement le taux d’erreur tout en ayant une puissance suffisante pour rejeter les hypothèses nulles. Résultats du test Tukey : Comparaisons Multiples Variable Dépendante : ac Tukey HSD (i) teach (J) teach Différence de Moyenne (I-J) Erreur Standard Sig. Borne Inférieure Borne Supérieure 1.00 2.00 -1.5000 2.5610 .931 -8.5144 5.5144 3.00 -9.0000* 2.5610 .009 -16.0144 -1.9856 4.00 -21.6667* 2.5610 .000 -28.6811 -14.6522 2.00 1.00 1.5000 2.5610 .931 -5.5144 8.5144 3.00 -7.5000* 2.5610 .033 -14.5144 -1.9856 4.00 -20.1667* 2.5610 .000 -27.1811 -13.1522 3.00 1.00 9.0000* 2.5610 .009 1.9856 16.0144 2.00 7.5000* 2.5610 .033 0.4856 14.5144 4.00 -12.6667* 2.5610 .000 -19.6811 -5.6522 4.00 1.00 21.6667* 2.5610 .000 14.6522 28.6811 2.00 20.1667* 2.5610 .000 13.1522 27.1811 3.00 12.6667* 2.5610 .000 5.6522 19.6811 La différence de moyenne

Contrastes et Tests Post Hoc sur l’Enseignant dans IBM SPSS Lire la suite »

Taille de l’Effet sans IBM SPSS

Comme nous l’avons demandé via la taille de l’effet, SPSS génère ce que l’on appelle l’Eta Carré Partiel, qui pour ces données est simplement égal au rapport SS enseignant / SS Total Corrigé. Comme nous n’avons qu’une seule variable indépendante (ici, enseignant), l’Eta Carré Partiel est égal à l’Eta Carré simple. Nous le rapporterons donc ainsi (pour le rapporter en tant qu’Eta Carré Partiel, nous aurions inclus un indice p comme dans η/p) : Nous interprétons le chiffre de 0,82 comme signifiant que 82 % de la variance des scores de réussite peut être expliquée par le regroupement des enseignants. Le reste, soit 1−0,82=0,18, représente une variation inexpliquée. Remarquez que l’Eta Carré formalise ce dont nous avions discuté précédemment : si les moyennes varient selon l’enseignant, alors SS enseignant devrait être grand par rapport à SS erreur. Comme SS total = SS entre + SS dans, l’Eta Carré nous dit essentiellement la même chose, mais en comparant SS entre avec SS total au lieu de SS entre avec SS within. Par curiosité, le rapport de SS entre à SS dans nous aurait donné une valeur de 4,681, connue sous le nom de Valeur Propre dans des analyses statistiques multivariées plus avancées. L’Eta Carré de 0,82 est le carré de ce que l’on appelle la corrélation canonique. Ces concepts sont présents dans des procédures comme l’analyse de variance multivariée et l’analyse discriminante . Pour plus de détails sur la corrélation canonique en tant que méthode statistique, ou pour une étude plus approfondie. La statistique Eta Carré est une description raisonnable de la taille de l’effet dans l’échantillon. Cependant, en tant qu’estimateur de la taille de l’effet dans la population, elle est biaisée à la hausse. Autrement dit, elle surestime souvent l’effet réel dans la population. Pour obtenir une statistique moins biaisée, nous pouvons calculer ce que l’on appelle l’Oméga Carré : ​ où les valeurs de SS entre, MS within et SS total sont tirées du tableau ANOVA, et J−1J−1 est égal au nombre de groupes dans la variable indépendante moins 1. Pour nos données, ω2 est égal à : Nous constatons que ω2 est légèrement plus petit que η2 et constitue une estimation plus précise de la taille de l’effet dans la population d’où ces données sont tirées.

Taille de l’Effet sans IBM SPSS Lire la suite »