SPSS

Données

Analyse

Graphiques

Utilitaires

Transformation

Extensiosn

Moyo Nya

Tests post hoc alternatifs et comparaisons dans IBM SPSS

Nous réalisons ci-dessous deux tests supplémentaires pour démontrer que lorsqu’il s’agit d’examiner les données a posteriori, nous avons plusieurs options à notre disposition. Le premier est le test de Bonferroni, qui maintient l’erreur de type I globale à un niveau nominal en divisant le seuil de signification souhaité par le nombre de comparaisons effectuées. Par exemple, si nous voulons faire 3 comparaisons tout en gardant un alpha global égal à 0,05, nous pouvons exécuter chaque comparaison à 0,05 / 3 = 0,0167. Le test de Bonferroni peut être utilisé comme comparaison a priori ou post hoc, mais il faut noter qu’il est généralement préférable lorsqu’il y a un petit nombre de moyennes (par exemple 3 ou 4). Si vous avez de nombreuses moyennes dans votre ANOVA, alors diviser alpha par un grand nombre donnerait à chaque test une puissance très faible. Par exemple, si vous avez 10 comparaisons à faire, alors 0,05 / 10 = 0,005, ce qui est un seuil de signification assez difficile à rejeter pour une hypothèse nulle moyenne. Nous réalisons aussi le test de Scheffé, qui est un test très conservateur. Si vous parvenez à rejeter l’hypothèse nulle avec le test de Scheffé, vous pouvez avoir une grande confiance qu’une véritable différence existe. Comparaisons multiples Variable dépendante : ac Tableau des différences moyennes, erreurs standards, intervalles de confiance à 95 % et significations pour les comparaisons multiples via Scheffé et Bonferroni. Comme nous l’avons fait lors du test de Tukey, nous avons déplacé enseugnment de « Facteur(s) » vers la partie droite, en sélectionnant cette fois Bonferroni et Scheffé comme nos tests post hoc souhaités. Les différences de moyennes sont interprétées de la même manière qu’avec le test de Tukey ; cependant, nous constatons que le test de Scheffé ne rejette plus l’hypothèse nulle dans la comparaison entre les niveaux 2 et 3 de teach (p = 0,056), alors que le test de Tukey l’avait fait (p = 0,033). Cela s’explique par le fait que, comme mentionné précédemment, le test de Scheffé est beaucoup plus strict et conservateur que celui de Tukey. Quant au test de Bonferroni, il rejette également l’hypothèse nulle entre teach 2 et teach 3, mais avec une valeur p de 0,043, comparée à 0,033 pour Tukey. Ces différences de valeurs p illustrent bien les divergences de résultats qui peuvent apparaître selon le test post hoc choisi. SPSS propose de nombreuses autres options de tests post hoc. Howell (2002) offre un excellent résumé de ces procédures et peut être consulté pour plus d’informations. Le point le plus important pour le moment est que vous compreniez qu’un test post hoc peut être plus conservateur ou plus libéral, et qu’en cas de doute, si vous rapportez généralement les résultats du test de Tukey, vous restez généralement sur un terrain sûr en termes de crédibilité statistique. Tracer les différences de moyennes Souvenez-vous que nous avions demandé une courbe de profil des moyennes, qui apparaît ci-dessous :   Le graphique confirme qu’en passant du niveau 1 au niveau 4 de teach, la performance moyenne augmente. On peut aussi y voir pourquoi les tests post hoc n’ont pas trouvé de différences entre, par exemple, teach 1 et teach 2 (les moyennes sont très proches sur le graphique), mais ont détecté une différence significative entre d’autres niveaux (par exemple 1 vs 4, 2 vs 4, etc.). Rappelons également que nous avons effectué une ANOVA à effets fixes, et que dans ce type d’analyse, le chercheur souhaite uniquement généraliser les conclusions aux niveaux spécifiques étudiés dans l’analyse. Ainsi, pour nos données, le fait d’avoir trouvé une différence significative globale entre les moyennes dans l’ANOVA suggère qu’il existe des différences spécifiques entre ces enseignants en particulier. Si nous avions voulu conclure qu’il existe des différences entre ces enseignants ou d’autres que nous aurions échantillonnés au hasard, nous aurions dû effectuer une ANOVA à effets aléatoires, un sujet que nous abordons brièvement maintenant.

Tests post hoc alternatifs et comparaisons dans IBM SPSS Lire la suite »

Contrastes et Tests Post Hoc sur l’Enseignant dans IBM SPSS

Contrastes et Tests Post Hoc sur l’Enseignant Le rejet de l’hypothèse nulle dans l’ANOVA suggère qu’il existe des différences entre les moyennes de la population. Cependant, un résultat significatif de FF ne nous indique pas où se situent ces différences. Théoriquement, nous pourrions examiner les différences par paires en effectuant plusieurs tests tt entre les enseignants 1 vs. 2, 1 vs. 3, 1 vs. 4, 2 vs. 3, etc. Mais rappelons qu’à chaque test tt est associé un taux d’erreur de type I, fixé au niveau de signification du test. Ce taux d’erreur s’accumule à travers les tests, ce qui signifie que pour l’ensemble des comparaisons, le taux d’erreur global sera assez élevé. En revanche, si nous n’avions qu’une ou deux comparaisons à effectuer, nous pourrions nous permettre de ne pas contrôler le taux d’erreur global, surtout si nous ne souhaitons pas faire toutes les comparaisons. Cela est particulièrement vrai si nous savons a priori (c’est-à-dire avant d’examiner les données) quelles comparaisons nous voulons effectuer, basées sur la théorie. Par exemple, supposons que nous souhaitions uniquement comparer les moyennes des enseignants 1 et 2 avec celles des enseignants 3 et 4 : 71.00+72.50 vs. 80.0+92.67 Effectuer uniquement cette comparaison maintiendrait le taux d’erreur de type I à 0.05, le niveau que nous avons fixé pour la comparaison. En d’autres termes, en ne faisant qu’une seule comparaison, nous n’avons pas à craindre que le taux d’erreur augmente. Pour réaliser cette comparaison entre les moyennes, nous pouvons formuler ce qu’on appelle un contraste. Un contraste est une combinaison linéaire de la forme : Ci=c1μ1+c2μ2+c3μ3+c4μ4​ où c1 à c4 sont des poids entiers tels que la somme des poids est égale à 0. Autrement dit, un contraste est une combinaison linéaire de moyennes où la somme des cj est nulle. Comment attribuer les poids ? Pour notre contraste, puisque nous voulons comparer les moyennes des enseignants 1 et 2 à celles des enseignants 3 et 4, nous devons attribuer des poids qui permettent cela. La solution suivante fonctionnerait : Ci=(1)μ1+(1)μ2+(−1)μ3+(−1)μ4 ​Remarquez que la somme des poids est égale à 0, et s’il n’y a pas de différence entre les enseignants 1 et 2 vs. 3 et 4, alors Ci​ sera égal à 0. S’il y a une différence ou un « déséquilibre » entre ces groupes, nous nous attendrions à ce que Ci soit différent de 0. Nous aurions pu utiliser d’autres poids, comme 2, -2, par exemple, car la somme des cj est nulle serait toujours respecté. Théoriquement, nous pourrions utiliser n’importe quels poids entiers tant qu’ils représentent le contraste qui nous intéresse. Pour effectuer ce contraste dans SPSS, nous utilisons la syntaxe suivante : ANOVA ac Somme des Carrés Carré Moyen F Sig. Entre Groupes 174.125 3 588.042 Dans les Groupes 378.833 20 18.842 Total 214.058 23 Coefficients de Contraste Contraste 1.00 2.00 3.00 4.00 1 1 1 -1 -1 Tests de Contraste Contraste Valeur du Contraste Erreur Standard t dl Sig. (bilatéral) ac 1 -29.1667 3.54417 -8.229 20 Ne suppose pas des variances égales 1 -29.1667 3.54417 -8.229 15.034 Un contraste comparant les moyennes de réussite des enseignants 1 et 2 avec celles des enseignants 3 et 4 a été effectué. Que les variances soient supposées égales ou non, l’hypothèse nulle d’égalité a été rejetée (p<0.001). Nous avons donc des preuves pour suggérer une différence de moyenne entre les enseignants 1 et 2 vs. 3 et 4. Nous voyons à gauche que SPSS effectue à nouveau l’ANOVA pour les données de réussite, puis poursuit avec le contraste sous le tableau récapitulatif. Les coefficients 1, 1, -1, -1 correspondent au contraste que nous voulions effectuer. Les Tests de Contraste révèlent la valeur pp du contraste. En supposant que les variances ne sont pas égales (pour cet exemple), la valeur du contraste est de -29.1667, avec une statistique tt de -8.229, évaluée avec 15.034 degrés de liberté. La valeur pp bilatérale est de 0.000, donc nous rejetons l’hypothèse nulle Ci=0 et concluons que Ci≠0. Autrement dit, nous avons des preuves que dans la population dont ces données sont tirées, les moyennes des enseignants 1 et 2, prises ensemble, diffèrent de celles des enseignants 3 et 4. Nous aurions obtenu la même valeur de contraste en le calculant manuellement, en utilisant les moyennes échantillonnées : La valeur de -29.17 correspond à celle générée par SPSS. Peu importe le signe du contraste ; nous nous intéressons seulement à savoir s’il est suffisamment différent de zéro pour rejeter l’hypothèse nulle Ci=0Ci​=0. Nous avons donc des preuves que, collectivement, les moyennes des enseignants 1 et 2 diffèrent de celles des enseignants 3 et 4. Les contrastes sont utiles lorsque nous avons une théorie nous guidant sur les comparaisons à effectuer, afin de ne pas augmenter le taux d’erreur de type I. Cependant, souvent, nous n’avons pas de théorie solide et souhaitons effectuer beaucoup plus de comparaisons. Dans ce cas, les tests Post Hoc nous permettent de faire des comparaisons par paires tout en contrôlant le taux d’erreur global. Il existe plusieurs tests Post Hoc, variant en termes de conservatisme : Un test conservateur indiquera une différence seulement s’il y a de solides preuves. Il est plus difficile de rejeter l’hypothèse nulle, mais si elle est rejetée, la confiance dans le résultat est élevée. Un test libéral indiquera une différence plus facilement, mais avec moins de confiance dans sa validité. Pour la plupart des situations de recherche, le test Tukey est considéré comme un bon compromis. Il contrôle raisonnablement le taux d’erreur tout en ayant une puissance suffisante pour rejeter les hypothèses nulles. Résultats du test Tukey : Comparaisons Multiples Variable Dépendante : ac Tukey HSD (i) teach (J) teach Différence de Moyenne (I-J) Erreur Standard Sig. Borne Inférieure Borne Supérieure 1.00 2.00 -1.5000 2.5610 .931 -8.5144 5.5144 3.00 -9.0000* 2.5610 .009 -16.0144 -1.9856 4.00 -21.6667* 2.5610 .000 -28.6811 -14.6522 2.00 1.00 1.5000 2.5610 .931 -5.5144 8.5144 3.00 -7.5000* 2.5610 .033 -14.5144 -1.9856 4.00 -20.1667* 2.5610 .000 -27.1811 -13.1522 3.00 1.00 9.0000* 2.5610 .009 1.9856 16.0144 2.00 7.5000* 2.5610 .033 0.4856 14.5144 4.00 -12.6667* 2.5610 .000 -19.6811 -5.6522 4.00 1.00 21.6667* 2.5610 .000 14.6522 28.6811 2.00 20.1667* 2.5610 .000 13.1522 27.1811 3.00 12.6667* 2.5610 .000 5.6522 19.6811 La différence de moyenne

Contrastes et Tests Post Hoc sur l’Enseignant dans IBM SPSS Lire la suite »

Taille de l’Effet sans IBM SPSS

Comme nous l’avons demandé via la taille de l’effet, SPSS génère ce que l’on appelle l’Eta Carré Partiel, qui pour ces données est simplement égal au rapport SS enseignant / SS Total Corrigé. Comme nous n’avons qu’une seule variable indépendante (ici, enseignant), l’Eta Carré Partiel est égal à l’Eta Carré simple. Nous le rapporterons donc ainsi (pour le rapporter en tant qu’Eta Carré Partiel, nous aurions inclus un indice p comme dans η/p) : Nous interprétons le chiffre de 0,82 comme signifiant que 82 % de la variance des scores de réussite peut être expliquée par le regroupement des enseignants. Le reste, soit 1−0,82=0,18, représente une variation inexpliquée. Remarquez que l’Eta Carré formalise ce dont nous avions discuté précédemment : si les moyennes varient selon l’enseignant, alors SS enseignant devrait être grand par rapport à SS erreur. Comme SS total = SS entre + SS dans, l’Eta Carré nous dit essentiellement la même chose, mais en comparant SS entre avec SS total au lieu de SS entre avec SS within. Par curiosité, le rapport de SS entre à SS dans nous aurait donné une valeur de 4,681, connue sous le nom de Valeur Propre dans des analyses statistiques multivariées plus avancées. L’Eta Carré de 0,82 est le carré de ce que l’on appelle la corrélation canonique. Ces concepts sont présents dans des procédures comme l’analyse de variance multivariée et l’analyse discriminante . Pour plus de détails sur la corrélation canonique en tant que méthode statistique, ou pour une étude plus approfondie. La statistique Eta Carré est une description raisonnable de la taille de l’effet dans l’échantillon. Cependant, en tant qu’estimateur de la taille de l’effet dans la population, elle est biaisée à la hausse. Autrement dit, elle surestime souvent l’effet réel dans la population. Pour obtenir une statistique moins biaisée, nous pouvons calculer ce que l’on appelle l’Oméga Carré : ​ où les valeurs de SS entre, MS within et SS total sont tirées du tableau ANOVA, et J−1J−1 est égal au nombre de groupes dans la variable indépendante moins 1. Pour nos données, ω2 est égal à : Nous constatons que ω2 est légèrement plus petit que η2 et constitue une estimation plus précise de la taille de l’effet dans la population d’où ces données sont tirées.

Taille de l’Effet sans IBM SPSS Lire la suite »

Le Test F pour l’ANOVA dans IBM SPSS

Nous avons mentionné que les carrés moyens représentent une sorte de moyenne pour chaque source de variation, celle de l’enseignement et celle de l’erreur. Nous pouvons en dire un peu plus sur les carrés moyens : ce sont, en réalité, des variances. Ainsi, nous avons une variance (valeur MS) pour l’enseignement et une variance (valeur MS) pour l’erreur. Avec ces deux variances en main, nous pouvons maintenant expliquer la logique du test F pour l’ANOVA. Sous l’hypothèse nulle de moyennes de population égales, nous nous attendrions à ce que MS enseignement soit à peu près égal à MS erreur. Autrement dit, si nous générons un ratio de MS enseignement sur MS erreur, nous nous attendrions, sous l’hypothèse nulle, à ce que ce ratio soit approximativement égal à 1,0. Sous l’hypothèse nulle H0:μ1=μ2=μ3=μ4, nous nous attendrions à ce que le ratio MS enseignement sur MS erreur soit approximativement égal à 1,0. Si l’hypothèse nulle est fausse, nous nous attendrions à ce que MS enseignement soit plus grand que MS erreur, et donc que le ratio résultant soit supérieur à 1,0. Lorsque nous calculons le ratio F pour nos données, nous obtenons MS enseignement/MS erreur = 588,042/18,842 = 31,210. Autrement dit, notre statistique F obtenue est égale à 31,210, ce qui est bien plus élevé que ce à quoi nous nous attendrions sous l’hypothèse nulle d’absence de différences entre les moyennes (rappelons que cette attente était d’environ 1,0). La question que nous nous posons maintenant, comme dans pratiquement tous les tests de signification, est la suivante : Quelle est la probabilité d’observer une statistique F comme celle-ci ou plus extrême sous l’hypothèse nulle ? Si cette probabilité est très faible, cela suggère qu’une telle valeur de F est très improbable sous l’hypothèse nulle. Par conséquent, nous pouvons décider de rejeter l’hypothèse nulle et d’inférer une hypothèse alternative selon laquelle, parmi les moyennes de population, il existe une différence quelque part. La valeur p pour notre ratio F est indiquée comme étant égale à 0,000. Elle n’est pas réellement égale à zéro, et si nous cliquons sur le nombre 0,000 dans SPSS, cela révèlera la valeur exacte : Nous notons que la valeur p est égale à 9,6772E-8, ce qui correspond à 0,000000096772, ce qui est statistiquement significatif pour p<0,05, 0,001, etc. Par conséquent, nous avons des preuves pour rejeter l’hypothèse nulle et pouvons inférer l’hypothèse alternative selon laquelle, parmi les moyennes de population, il existe une différence quelque part. Nous ne savons pas immédiatement où se trouve cette différence, mais nous avons des preuves via notre ratio F qu’une telle différence entre les moyennes existe quelque part.

Le Test F pour l’ANOVA dans IBM SPSS Lire la suite »

Réalisation de l’ANOVA dans SPSS

Pour effectuer une ANOVA, nous sélectionnons : ANALYSE → MODÈLE LINÉAIRE GÉNÉRAL → UNIVARIÉ. Nous déplaçons la variable nc dans la boîte Variable dépendante et enseignement dans la boîte Facteur(s) Fixe(s). Configuration de l’ANOVA Graphiques : Cliquez sur Tracés, déplacez enseignement sous Axes horizontal, puis cliquez sur Ajouter. Tests Post Hoc : Sélectionnez Post Hoc, déplacez enseignement dans Tests Post Hoc pour et choisissez Tukey sous Hypothese de variances égales . Cliquez sur Continue. 3. Options : Cochez Estimations l’effet de la taille et Tests d’homogénéité (ce dernier fournira le test de Levene pour évaluer l’égalité des variances). Cliquez sur Poursuivre. 4. Moyenne marginale estimée Déplacez enseignement dans Moyens d’affichage pour. Syntaxe et résultats La syntaxe SPSS correspondante est générée pour reproduire les commandes. Voici les principaux résultats : Test de Levene Évalue l’hypothèse nulle : H0:σ12=σ22=σ32=σ42. Pour ces données, p=0.001, indiquant une inégalité des variances. Malgré cela, l’ANOVA est robuste (surtout avec des effectifs égaux), donc nous poursuivons. SS Teach : Variation due aux différences entre enseignants. SS Erreur : Variation résiduelle non expliquée. Eta carré : 0,824, indiquant que 82 % de la variance de ac est expliquée par teach. Test robuste de Welch Utilisé en cas de violation de l’homogénéité des variances. Résultat : p<0.001p<0.001, confirmant le rejet de l’hypothèse nulle. Interprétation Une ANOVA à un facteur a révélé une différence significative entre les moyennes des quatre enseignants (F=31,210;p<0,001), avec un effet important (η² = 0,82). Bien que le test de Levene ait indiqué une inégalité des variances, le test robuste de Welch a corroboré ces résultats. Capture d’écran de la fenêtre Univariate. Graphique des profils des moyennes. Tableaux de résultats SPSS (Tests of Between-Subjects Effects, Robust Tests).

Réalisation de l’ANOVA dans SPSS Lire la suite »

Analyse de Variance (ANOVA) : Une Procédure Statistique dans IBM SPSS

Nous examinons la procédure d’analyse de variance, généralement désignée par l’acronyme ANOVA. Rappelons que dans le test t, nous évaluions des hypothèses nulles du type H0 : μ1=μ2​ contre des hypothèses alternatives statistiques du type H1 : μ1≠μ2​. Ces tests t pour échantillons indépendants comparaient les moyennes de deux groupes. Mais que faire si nous avions plus de deux groupes à comparer ? Et si nous en avions trois ou plus ? C’est là qu’intervient l’ANOVA. Dans l’ANOVA, nous évaluerons des hypothèses nulles du type H0:μ1=μ2=μ3​ contre une hypothèse alternative selon laquelle il existe une différence quelque part entre les moyennes (par exemple, H1:μ1≠μ2=μ3​). Ainsi, à cet égard, l’ANOVA peut être considérée comme une extension du test t pour échantillons indépendants, ou inversement, le test t peut être interprété comme un « cas particulier » de l’ANOVA. Prenons un exemple pour illustrer la procédure ANOVA. Considérons les données sur la réussite scolaire tirées de Denis (2016) : La réussite en fonction de l’enseignant Bien que nous puissions constater que les moyennes d’échantillon diffèrent selon l’enseignant, la question qui nous intéresse est de savoir si ces différences entre les groupes sont suffisantes pour suggérer une différence entre les moyennes de la population. Un résultat statistiquement significatif (par exemple, p<0.05) indiquerait que l’hypothèse nulle H0:μ1=μ2=μ3=μ4 peut être rejetée en faveur d’une hypothèse alternative selon laquelle il existe une différence quelque part entre les moyennes de la population (mais nous ne saurons pas où se situent ces différences sans effectuer des contrastes ou des tests post hoc, dont nous parlerons plus tard). Dans cette expérience, nous ne nous intéressons qu’à généraliser les résultats à ces enseignants spécifiques inclus dans l’étude, et non à d’autres dans la population. Cette approche donne lieu à ce que l’on appelle le modèle ANOVA à effets fixes (nous opposerons cela plus tard au modèle ANOVA à effets aléatoires). Les inférences dans l’ANOVA à effets fixes reposent sur des hypothèses de normalité (au sein de chaque niveau de la variable indépendante), d’indépendance et d’homogénéité des variances (entre les niveaux de la variable indépendante). Nous organisons nos données dans SPSS comme indiqué précédemment. Pour avoir une première idée de ces données, nous pouvons obtenir quelques statistiques descriptives via la fonction EXPLORE par niveaux du facteur enseignant : Ces statistiques descriptives nous donnent une idée de la distribution des scores de réussite (nc) pour les différents niveaux de enseignement. Remarque : Les espaces laissés vides sont destinés à accueillir des tableaux, graphiques ou images qui pourraient accompagner le texte original. Les données et les résultats statistiques ont été conservés tels quels pour assurer la fidélité à l’article original.

Analyse de Variance (ANOVA) : Une Procédure Statistique dans IBM SPSS Lire la suite »

Analyse de Puissance et Estimation de la Taille d’Échantillon dans IBM SPSS

Introduction Lorsque nous parlons de la puissance d’un test statistique, nous faisons référence à sa capacité à détecter un effet si celui-ci est réellement présent dans la population. Pour illustrer cela, imaginez que vous êtes microbiologiste et que vous placez un échantillon de tissu sous un microscope pour détecter une souche virale. La détection ne sera possible que si votre microscope est suffisamment puissant. De même, en recherche statistique, vous avez besoin d’un test suffisamment puissant pour détecter un effet, comme une différence de moyenne entre deux groupes, si cette différence existe réellement. Formellement, la puissance statistique se définit comme suit : La puissance statistique est la probabilité de rejeter une hypothèse nulle sachant qu’elle est fausse. Facteurs Influençant la Puissance Statistique Plusieurs éléments contribuent à la puissance d’un test statistique : Taille de l’effet : Plus l’effet est grand, plus il est facile à détecter. Par exemple, dans un test de corrélation, une corrélation de 0,10 est plus difficile à détecter qu’une corrélation de 0,30. Variabilité de la population : Moins il y a de variabilité (ou « bruit ») dans la population, plus il est facile de détecter un effet. Cela revient à observer l’impact d’une pierre dans l’eau : c’est plus facile dans une eau calme que dans une eau agitée. Taille de l’échantillon : Plus la taille de l’échantillon est grande, plus la puissance statistique est élevée. Comme les chercheurs ont peu de contrôle sur la taille de l’effet ou la variabilité de la population, augmenter la taille de l’échantillon est souvent la méthode privilégiée pour améliorer la puissance. Exemple avec G*Power : Estimation de la Taille d’Échantillon pour une Corrélation Prenons un exemple concret avec le logiciel GPower. Supposons que nous souhaitons estimer la taille d’échantillon nécessaire pour détecter une corrélation de Pearson de ρ=0,10ρ=0,10 dans la population, avec un seuil de signification de 0,05 et une puissance de 0,90. Voici les étapes dans GPower : Sélectionner un test bilatéral. Entrer la corrélation attendue sous l’hypothèse alternative (0,10). Définir le seuil de signification à 0,05. Fixer la puissance à 0,90. La corrélation sous l’hypothèse nulle est 0. Résultat : Un échantillon d’environ 1046 participants est nécessaire pour atteindre une puissance de 0,90 dans ces conditions. Courbes de Puissance Les courbes de puissance montrent que pour une corrélation plus grande (par exemple, r=0,30), la taille d’échantillon requise diminue considérablement. Puissance pour un Test d’Ajustement du Khi-deux Pour un test d’ajustement du Khi-deux avec un effet moyen (w=0,30), une puissance de 0,95, un seuil de signification de 0,05 et 3 degrés de liberté, la taille d’échantillon estimée est de 191 sujets Puissance pour un Test t à Échantillons Indépendants Pour détecter une différence de moyenne correspondant à un dd de Cohen de 0,50, avec un seuil de signification de 0,05 et une puissance de 0,95, la taille d’échantillon requise est de 105 participants par groupe Puissance pour un Test t Apparié Avec les mêmes paramètres que ci-dessus (effet d=0,50d=0,50, seuil de 0,05, puissance de 0,95), un test t apparié ne nécessite qu’un échantillon total de 54 sujets. Cela montre l’avantage des plans appariés ou à mesures répétées : une puissance élevée avec un échantillon plus petit. Conclusion G*Power permet de réaliser des analyses de puissance pour une grande variété de tests statistiques.

Analyse de Puissance et Estimation de la Taille d’Échantillon dans IBM SPSS Lire la suite »

Test t pour échantillons indépendants dans IBM SPSS

Test t pour comparer deux moyennes Imaginons que nous souhaitions comparer deux moyennes provenant de groupes indépendants, plutôt que de tester une moyenne d’échantillon contre une moyenne de population. Pour cela, le test t pour échantillons indépendants est approprié. Nous utilisons des données hypothétiques de Denis (2016) sur les notes (réussite vs échec) et le temps d’étude pour un séminaire : Où « 0 » représente un échec et « 1 » une réussite. Les hypothèses sont : H0:μ1=μ2 H1:μ1≠μ2 La formule du test t est : Degrés de liberté et variances pondérées Le test est évalué avec (n1−1)+(n2−1) degrés de liberté. Pour des tailles d’échantillon inégales, nous utilisons les variances pondérées : ​​ où  Réalisation du test dans SPSS Pour effectuer le test dans SPSS : ANALYSE → COMPARER LES MOYENNES → TEST T POUR ÉCHANTILLONS INDÉPENDANTS Sélectionnez « studytime » comme variable test Sélectionnez « grade » comme variable de groupe Définissez les groupes (0 pour échec, 1 pour réussite) Configurez les options avec un intervalle de confiance de 95% Résultats et interprétation Le test donne les résultats suivants : Interprétation : Test de Levene (p=0.097) : variances supposées égales t = -5.351, p = 0.001 (très significatif) Différence moyenne = -85.60 Intervalle de confiance à 95% : [-122.48, -48.71] d de Cohen = 3.38 (effet très large) Conclusion Le test montre une différence significative (p=0.001) entre les groupes, avec un très grand effet (d=3.38). Les étudiants ayant réussi ont étudié significativement plus longtemps.

Test t pour échantillons indépendants dans IBM SPSS Lire la suite »

Test t pour un échantillon unique concernant une moyenne dans IBM SPSS

Un test t pour un échantillon unique est utilisé pour évaluer l’hypothèse nulle selon laquelle un échantillon que vous avez collecté provient d’une population ayant une moyenne spécifique. Par exemple, considérons les données hypothétiques suivantes de Denis (2016) sur les scores de QI : QI : 105, 98, 110, 105, 95 Cela signifie que le premier sujet a un QI de 105, le deuxième un QI de 98, etc. Supposons que vous souhaitiez savoir si un tel échantillon pourrait provenir d’une population ayant une moyenne de 100, qui est considérée comme le « QI moyen » sur de nombreux tests d’intelligence. La moyenne de l’échantillon est égale à 102,6, avec un écart-type de 6,02. La question que vous vous posez est la suivante : Quelle est la probabilité d’obtenir une moyenne d’échantillon de 102,6 à partir d’une population avec une moyenne égale à 100 ? Si la probabilité d’obtenir de telles données (102,6) est élevée sous l’hypothèse nulle que la moyenne de la population est égale à 100, alors vous n’avez aucune raison de douter de l’hypothèse nulle. Cependant, si cette probabilité est faible sous l’hypothèse nulle, il est peu probable qu’un tel échantillon provienne d’une population avec une moyenne égale à 100, et vous avez des preuves que l’échantillon provient probablement d’une autre population (peut-être une population de personnes avec un QI plus élevé). Ainsi, nous formulons nos hypothèses nulle et alternative comme suit : H0:μ=100 H1:μ≠100 où l’hypothèse nulle indique que la moyenne (μμ est le symbole pour la moyenne de la population) de QI est égale à 100 et l’hypothèse alternative indique que la moyenne de QI est différente de 100. Les inférences pour les tests sur un échantillon unique nécessitent généralement une distribution normale de la population ainsi que l’hypothèse d’indépendance. La normalité peut être vérifiée via des histogrammes ou d’autres graphiques, tandis que l’indépendance est généralement assurée par une méthode appropriée de collecte de données. Nous entrons nos données dans SPSS comme suit : ANALYSER→COMPARER LES MOYENNES→TEST T POUR ÉCHANTILLON UNIQUE Nous déplaçons la variable QI sous Variables de test et spécifions une Valeur de test de 100 (la valeur sous l’hypothèse nulle) : Si nous sélectionnons Options, nous obtenons : Par défaut, SPSS nous fournira un intervalle de confiance à 95% de la différence entre les moyennes (nous l’interpréterons dans nos résultats). Lorsque nous exécutons le test, nous obtenons : Nous interprétons les résultats : SPSS nous donne le nombre d’observations dans l’échantillon (N=5), ainsi que la moyenne, l’écart-type et l’erreur standard estimée de la moyenne de 2,69, calculée comme : SPSS nous présente ensuite les résultats du test pour un échantillon unique : Nous interprétons : La valeur t obtenue est égale à 0,965, avec des degrés de liberté égaux au nombre d’observations moins un (soit 5−1=4). La valeur p bilatérale est égale à 0,389. Nous interprétons cela comme signifiant que la probabilité d’obtenir des données comme celles que nous avons obtenues si elles provenaient réellement d’une population avec une moyenne de 100 est p=0,389p=0,389. Comme ce nombre n’est pas inférieur à 0,05, nous ne rejetons pas l’hypothèse nulle. Autrement dit, nous n’avons pas de preuves suggérant que notre échantillon ne provient pas d’une population avec une moyenne de 100. Un test t pour un échantillon unique a été effectué sur les données de QI pour évaluer l’hypothèse nulle selon laquelle ces données pourraient provenir d’une population avec un QI moyen de 100. Le test t n’a pas été statistiquement significatif (p=0,389p=0,389). Par conséquent, nous n’avons pas suffisamment de preuves pour douter que ces données pourraient provenir d’une population avec une moyenne égale à 100. SPSS nous fournit également la différence de moyenne, calculée comme 102,6 (moyenne de l’échantillon) moins 100,0 (moyenne de la population, valeur de test). Un intervalle de confiance à 95% de la différence est également fourni. Nous interprétons cela comme signifiant que dans 95% des échantillons tirés de cette population, nous nous attendrions à ce que la vraie différence de moyenne se situe entre −4,8810−4,8810 et 10,081010,0810. Notez que cet intervalle est centré sur la différence de moyenne obtenue de 2,60. Nous pouvons utiliser l’intervalle de confiance comme un test d’hypothèse. Toute valeur de population se trouvant en dehors de l’intervalle peut être rejetée avec p<0,05p<0,05. Notez que puisque l’intervalle contient la valeur de différence de population de zéro, cela suggère qu’une différence de moyenne de zéro est une valeur de paramètre plausible. Si zéro se trouvait en dehors de l’intervalle, cela suggérerait que la différence de moyenne dans la population n’est pas égale à 0, et nous pourrions rejeter l’hypothèse nulle selon laquelle la différence de moyenne de la population est égale à 0. Par conséquent, notre conclusion est que nous n’avons pas suffisamment de preuves pour rejeter l’hypothèse nulle. Autrement dit, nous n’avons pas de preuves pour douter que l’échantillon provient d’une population avec une moyenne égale à 100.

Test t pour un échantillon unique concernant une moyenne dans IBM SPSS Lire la suite »

Test d’ajustement du Chi-carré (Chi-square Goodness-of-fit Test) dans IBM SPSS

Introduction Ce test est utile pour des données sous forme de comptages (comme pour le kappa de Cohen) et permet d’évaluer s’il existe une association entre deux variables. Un exemple illustrera le mieux le type de données approprié. Exemple hypothétique Considérons le tableau de contingence 2×2 suivant où chaque cellule représente des comptages pour chaque catégorie. Les données hypothétiques proviennent de Denis (2016, p. 92) : Variable colonne : « Condition » (Présente vs Absente) Variable ligne : « Exposition » (Exposé vs Non exposé) Imaginons que la variable « Condition » représente le trouble de stress post-traumatique (TSPT) et que la variable « Exposition » représente l’expérience de guerre. Question de recherche : L’exposition à la guerre est-elle associée à la présence de TSPT ? Condition présente (1) Condition absente (0) Total Exposition oui (1) 20 10 30 Exposition non (2) 5 15 20 Total 25 25 50 Hypothèse nulle et fréquences attendues Nous testons l’hypothèse nulle que les fréquences dans les cellules sont distribuées aléatoirement selon les attentes sous l’hypothèse nulle. Les fréquences attendues sont calculées comme suit : Condition présente (1) Condition absente (0) Total Exposition oui (1) (30×25)/50 = 15 (30×25)/50 = 15 30 Exposition non (2) (20×25)/50 = 10 (20×25)/50 = 10 20 Total 25 25 50 Analyse avec SPSS Pour effectuer l’analyse dans SPSS, les données sont entrées comme suit : La syntaxe SPSS utilisée est : Résultats Le test du Chi-carré de Pearson donne une valeur de 8.333 avec un degré de liberté (p = 0.004). Comme cette probabilité est inférieure à 0.05, nous rejetons l’hypothèse nulle et concluons à une association entre l’exposition et la condition. Le test exact de Fisher donne une valeur p bilatérale de 0.009 (et unilatérale de 0.004), particulièrement utile lorsque les effectifs attendus sont faibles (par exemple, moins de 5 dans certaines cellules). Conclusion Un test d’ajustement du Chi-carré d’indépendance a été réalisé sur les fréquences pour évaluer l’hypothèse nulle selon laquelle l’exposition à la guerre n’est pas associée au TSPT. La valeur obtenue du Chi-carré était de 8.333 et s’est avérée statistiquement significative (p = 0.004) pour un test bilatéral. Il existe donc des preuves suggérant que l’exposition à la guerre est associée au TSPT dans la population dont ces données sont issues.

Test d’ajustement du Chi-carré (Chi-square Goodness-of-fit Test) dans IBM SPSS Lire la suite »