{"id":331,"date":"2015-01-30T14:18:56","date_gmt":"2015-01-30T13:18:56","guid":{"rendered":"http:\/\/perso.ens-lyon.fr\/lise.vaudor\/?p=331"},"modified":"2020-09-02T10:50:23","modified_gmt":"2020-09-02T08:50:23","slug":"non-respect-des-hypotheses-du-modele-lineaire-anova-regression-cest-grave-docteur","status":"publish","type":"post","link":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/non-respect-des-hypotheses-du-modele-lineaire-anova-regression-cest-grave-docteur\/","title":{"rendered":"Non-respect des hypoth\u00e8ses du mod\u00e8le lin\u00e9aire (ANOVA, r\u00e9gression): c&rsquo;est grave, docteur??"},"content":{"rendered":"<p><img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Non_respect_hyp_mod_lin\/Lise_Vaudor_headband.png\" alt=\"plot of chunk\nLise_Vaudor_headband\" \/><\/p>\n<h2>Les hypoth\u00e8ses du mod\u00e8le lin\u00e9aire<\/h2>\n<p>Beaucoup de personnes, lorsqu&rsquo;elles souhaitent utiliser un mod\u00e8le lin\u00e9aire classique (r\u00e9gression lin\u00e9aire ou ANOVA), se retrouvent confront\u00e9es au probl\u00e8me du <strong>non-respect des hypoth\u00e8ses<\/strong> de ce mod\u00e8le.<\/p>\n<p>En effet, les hypoth\u00e8ses du mod\u00e8le sont les suivantes:<\/p>\n<ul>\n<li><strong>distribution gaussienne<\/strong> des r\u00e9sidus<\/li>\n<li><strong>homoscedasticit\u00e9<\/strong> des r\u00e9sidus (i.e. les r\u00e9sidus ont la m\u00eame variance quel que soit le groupe consid\u00e9r\u00e9, ou quelle que soit la valeur de la variable explicative consid\u00e9r\u00e9e)<\/li>\n<\/ul>\n<p>Autrement dit, si on travaille sur des donn\u00e9es comme \u00e7a, tout va bien: <img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Non_respect_hyp_mod_lin\/hypoth\u00e8ses_respect\u00e9es.png\" alt=\"plot of chunk\nhypoth\u00e8ses_respect\u00e9es\" \/><\/p>\n<p>En revanche, si on travaille sur des donn\u00e9es comme \u00e7a, les hypoth\u00e8ses ne sont a priori pas respect\u00e9es, et tout <em>pourrait<\/em> aller mal&#8230;<\/p>\n<p><img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Non_respect_hyp_mod_lin\/hypoth\u00e8ses_fausses.png\" alt=\"plot of chunk\nhypoth\u00e8ses_fausses\" \/><\/p>\n<h2>Robustesse du mod\u00e8le lin\u00e9aire<\/h2>\n<p>En fait, m\u00eame si les hypoth\u00e8ses du mod\u00e8le lin\u00e9aire ne sont pas respect\u00e9es, il se pourrait que tout aille bien tout de m\u00eame (ouf!). La raison \u00e0 cela, c&rsquo;est que, comme on dit, le mod\u00e8le lin\u00e9aire est <strong>robuste<\/strong>, c&rsquo;est-\u00e0-dire que <em>sous r\u00e9serve qu&rsquo;il y ait une taille d&rsquo;\u00e9chantillon suffisante, les r\u00e9sultats du mod\u00e8le lin\u00e9aire restent valables<\/em>. En termes matheux, on parle de <strong>propri\u00e9t\u00e9s asymptotiques<\/strong> (i.e. des propri\u00e9t\u00e9s valables si <em>n<\/em>, la taille d&rsquo;\u00e9chantillon \u00ab\u00a0tend vers l&rsquo;infini\u00a0\u00bb&#8230;).<\/p>\n<h2>Tester les hypoth\u00e8ses&#8230; une mauvaise id\u00e9e!!<\/h2>\n<p>Alors, comment savoir si tout va bien ou tout va mal, si l&rsquo;application du mod\u00e8le lin\u00e9aire \u00e0 ses donn\u00e9es est possible ou pas?<\/p>\n<p>Les \u00ab\u00a0bons \u00e9l\u00e8ves\u00a0\u00bb vont la plupart du temps essayer (avec beaucoup de diligence et de bonne volont\u00e9) de tester les hypoth\u00e8ses du mod\u00e8le. Ils testeront la normalit\u00e9 des r\u00e9sidus avec un test comme le test de Shapiro-Wilk, ils testeront l&rsquo;homosc\u00e9dasticit\u00e9 des r\u00e9sidus avec un test comme le test de Fisher-Snedecor.<\/p>\n<p>Dans la plupart des cas, les tests leur r\u00e9v\u00e9leront que les r\u00e9sidus ne sont ni gaussiens, ni homosc\u00e9dastiques. Plus pr\u00e9cis\u00e9ment, ni <em>exactement<\/em> gaussiens, ni <em>exactement<\/em> homosc\u00e9dastiques&#8230; Et donc, ils se retrouveront pi\u00e9g\u00e9s, ne pouvant ou n&rsquo;osant pas braver le scandale en appliquant un mod\u00e8le lin\u00e9aire \u00e0 ces donn\u00e9es.<\/p>\n<p>Sauf que, en vrai, l&rsquo;application du mod\u00e8le lin\u00e9aire n&rsquo;exige pas un <em>respect exact<\/em> des hypoth\u00e8ses, mais un respect approximatif (cf le paragraphe ci-dessus concernant la robustesse de ce mod\u00e8le). Il vaut donc mieux \u00e9viter de tester le respect exact des hypoth\u00e8ses (au risque -tr\u00e8s grand- de se retrouver coinc\u00e9 par exc\u00e8s de z\u00e8le) et tenter de v\u00e9rifier l&rsquo;applicabilit\u00e9 du mod\u00e8le d&rsquo;une autre mani\u00e8re&#8230;<\/p>\n<h2>Alors qu&rsquo;est-ce qu&rsquo;on fait?<\/h2>\n<p>Reprenons donc Les propri\u00e9t\u00e9s asymptotiques de l&rsquo;ANOVA signifient que <strong>plus on a de donn\u00e9es \u00e0 disposition, plus l&rsquo;ANOVA est capable de supporter un \u00e9cart important aux hypoth\u00e8ses<\/strong>&#8230; Le probl\u00e8me \u00e9tant \u00e9videmment qu&rsquo;il y a mille et une mani\u00e8re de s&rsquo;\u00e9carter des hypoth\u00e8ses et que du coup on a pas vraiment de \u00ab\u00a0seuil magique\u00a0\u00bb en terme de nombre de donn\u00e9es qui permette de dire \u00ab\u00a0c&rsquo;est pas gaussien\/c&rsquo;est pas homoscedastique, mais on s&rsquo;en fiche\u00a0\u00bb. C&rsquo;est bien l\u00e0 que le b\u00e2t blesse. Le Chercheur qui, dans l&rsquo;espoir fou d&rsquo;acc\u00e9der \u00e0 la V\u00e9rit\u00e9, se soumet dans la douleur \u00e0 l&rsquo;exercice ingrat et complexe des statistiques, s&rsquo;exasp\u00e8re: \u00e0 quoi \u00e7a sert d&rsquo;essayer d&rsquo;\u00eatre rigoureux si, au final, on se retrouve \u00e0 estimer, au pifom\u00e8tre, si on peut appliquer l&rsquo;ANOVA ou pas?<\/p>\n<p>Quand j&rsquo;\u00e9tais jeune et \u00e9tudiante, mes professeurs de stats (pour \u00e9viter sans doute que nous soyions trop perdus ou d\u00e9go\u00fbt\u00e9s par cette rigueur hasardeuse -bel oxymore, n&rsquo;est-il pas?-) essayaient parfois de nous fournir un petit point de rep\u00e8re qui \u00e9tait: <em>\u00ab\u00a0Si il y a plus de 30 individus dans l&rsquo;\u00e9chantillon (ou par groupe), alors m\u00eame si les hypoth\u00e8ses ne sont pas respect\u00e9es on peut appliquer les r\u00e9sultats du mod\u00e8le lin\u00e9aire\u00a0\u00bb<\/em>.<\/p>\n<p>Evidemment, c&rsquo;est un point de rep\u00e8re un petit peu arbitraire, et un petit peu -possiblement du moins- faux (si les hypoth\u00e8ses ne sont vraiment pas du tout respect\u00e9es, 30 individus n&rsquo;y suffiront pas). MAIS \u00e7a a le m\u00e9rite d&rsquo;essayer de donner un ordre de grandeur.<\/p>\n<p>Essayons donc, concr\u00e8tement, d&rsquo;aller un peu plus loin (\u00e0 travers quelques exemples simul\u00e9s) pour appr\u00e9cier les effets d&rsquo;un \u00e9cart aux hypoth\u00e8ses sur les r\u00e9sultats d&rsquo;un mod\u00e8le lin\u00e9aire, et pour appr\u00e9cier quelle grandeur d&rsquo;\u00e9chantillon permet de pallier \u00e0 cet \u00e9cart&#8230;<\/p>\n<h2>Simulations: erreur de type I d&rsquo;une ANOVA dont les r\u00e9sidus sont non homosc\u00e9dastiques<\/h2>\n<p>Imaginons que l&rsquo;on s&rsquo;int\u00e9resse \u00e0 <a href=\"..\/..\/lise.vaudor\/Rdata\/Non_respect_hyp_mod_lin\/exemple_donnees.csv\">ces donn\u00e9es<\/a>.<\/p>\n<p>Je veux tester la diff\u00e9rence de moyenne de <em>Y<\/em> entre les groupes d\u00e9finis par <em>X<\/em>:<\/p>\n<p><img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Non_respect_hyp_mod_lin\/exemple_donn\u00e9es_ANOVA.png\" alt=\"plot of chunk\nexemple_donn\u00e9es_ANOVA\" \/><\/p>\n<p>Si l&rsquo;on teste l&rsquo;effet du groupe (X) sur la variable Y \u00e0 travers une ANOVA, alors on est amen\u00e9 \u00e0 conclure \u00e0 un effet significatif:<\/p>\n<pre><code>mod=lm(data$Y~data$X)\nanova(mod)\n\n## Analysis of Variance Table\n## \n## Response: data$Y\n##            Df Sum Sq Mean Sq F value Pr(&gt;F)   \n## data$X      2   3.77   1.884    6.34 0.0025 **\n## Residuals 103  30.62   0.297                  \n## ---\n## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1\n<\/code><\/pre>\n<p>Faisons un essai, et testons le respect des hypoth\u00e8ses de normalit\u00e9 et d&rsquo;homoscedasticit\u00e9 des r\u00e9sidus:<\/p>\n<pre><code>shapiro.test(mod$residuals)\n\n## \n##  Shapiro-Wilk normality test\n## \n## data:  mod$residuals\n## W = 0.9917, p-value = 0.7646\n\nbartlett.test(mod$residuals,X)\n\n## \n##  Bartlett test of homogeneity of variances\n## \n## data:  mod$residuals and X\n## Bartlett's K-squared = 14.87, df = 2, p-value = 0.00059\n<\/code><\/pre>\n<p>Le test de Shapiro-Wilkes n&rsquo;am\u00e8ne pas \u00e0 rejeter l&rsquo;hypoth\u00e8se de normalit\u00e9. En revanche, d&rsquo;apr\u00e8s le test de Bartlett, il y a des <strong>diff\u00e9rences significatives de variance<\/strong> entre les groupes.<\/p>\n<p>Si on s&rsquo;en tenait strictement \u00e0 ces r\u00e9sultats, donc, on pourrait renoncer \u00e0 utiliser l&rsquo;ANOVA pour analyser l&rsquo;effet du groupe X sur Y.<\/p>\n<p>Pour savoir si l&rsquo;on peut utiliser l&rsquo;ANOVA dans ce cas malgr\u00e9 l&rsquo;h\u00e9teroscedasticit\u00e9 des r\u00e9sidus, donc, on en vient \u00e0 se poser la question suivante: <em>Est-ce que l&rsquo;\u00e9cart aux hypoth\u00e8ses du mod\u00e8le est tel que la taille d&rsquo;\u00e9chantillon ne parvient pas \u00e0 compenser cet \u00e9cart? Ou au contraire peut-on tout de m\u00eame utiliser l&rsquo;ANOVA?<\/em><\/p>\n<p>En fait, ce dont on veut \u00eatre s\u00fbr lorsque l&rsquo;on utilise l&rsquo;ANOVA, c&rsquo;est (la plupart du temps), qu&rsquo;<strong>on ne va pas affirmer qu&rsquo;il existe une diff\u00e9rence de moyenne entre les groupes alors qu&rsquo;en fait cette diff\u00e9rence pourrait \u00eatre simplement due au hasard de l&rsquo;\u00e9chantillonnage<\/strong>. C&rsquo;est \u00e0 dire qu&rsquo;on veut limiter les risques de dire \u00ab\u00a0il y a un effet\u00a0\u00bb alors qu&rsquo;il n&rsquo;y en a pas. Autrement dit, on veut limiter les <strong>risques d&rsquo;erreur de type I<\/strong>.<\/p>\n<p>Lorsque l&rsquo;on utilise les r\u00e9sultats du test de l&rsquo;ANOVA, on rejette l&rsquo;hypoth\u00e8se nulle (selon laquelle X n&rsquo;a pas d&rsquo;effet sur Y) si la p-value issue de l&rsquo;ANOVA est inf\u00e9rieure \u00e0 un certain seuil <em>\u03b1<\/em>. Dans un cas \u00ab\u00a0id\u00e9al\u00a0\u00bb (c&rsquo;est-\u00e0-dire quand l&rsquo;ANOVA \u00ab\u00a0fonctionne bien\u00a0\u00bb), le risque d&rsquo;erreur de type I est \u00e9gal \u00e0 cette valeur <em>\u03b1<\/em>. Autrement dit, en d\u00e9cidant de rejeter l&rsquo;hypoth\u00e8se nulle en de\u00e7a de (par exemple) <em>\u03b1<\/em>\u2004=\u20045% on escompte avoir une probabilit\u00e9 de 5% seulement de se tromper en concluant \u00e0 un effet en fait inexistant.<\/p>\n<p>Dans un cas <strong>non-id\u00e9al<\/strong> (en cas de non-respect des hypoth\u00e8ses, et quand les tailles d&rsquo;\u00e9chantillon sont insuffisantes), le risque d&rsquo;erreur de type I peut en fait \u00eatre <strong>plus important (ou plus faible!) que la valeur escompt\u00e9e <em>\u03b1<\/em><\/strong> (cette valeur escompt\u00e9e est dite <em>valeur nominale<\/em>) .<\/p>\n<p>V\u00e9rifions, \u00e0 travers des simulations, <strong>l&rsquo;\u00e9galit\u00e9 (\u00e0 quelques variations -li\u00e9es \u00e0 l&rsquo;al\u00e9as d&rsquo;\u00e9chantillonnage- pr\u00e8s) entre valeur nominale de <em>\u03b1<\/em> et risque d&rsquo;erreur de type I dans un cas \u00ab\u00a0id\u00e9al\u00a0\u00bb<\/strong>. Pour ce faire, je vais simuler 10000 jeux de donn\u00e9es tels que :<\/p>\n<ul>\n<li>la moyenne de Y soit la m\u00eame dans tous les groupes (hypoth\u00e8se nulle vraie)<\/li>\n<li>la distribution de Y par groupe soit normale (hypoth\u00e8se de distribution gaussienne vraie)<\/li>\n<li>la variance de Y soit la m\u00eame dans tous les groupes (hypoth\u00e8se d&rsquo;homoscedasticit\u00e9 vraie)<\/li>\n<\/ul>\n<p><!-- --><\/p>\n<pre><code>n=table(X)              ## les effectifs par groupe\nmu=c(3.9,3.9,3.9)       ## les moyennes par groupe   \nsigma=c(0.6,0.6,0.6) ## les variances par groupe\n\npval1=rep(NA,10000)\nfor (k in 1:10000){\n     Y=c(rnorm(n[1],mu[1],sigma[1]),\n         rnorm(n[2],mu[2],sigma[2]),\n         rnorm(n[3],mu[3],sigma[3]))\n     myaov=anova(lm(Y~X))\n     pval1[k]=myaov$\"Pr(&gt;F)\"[1]  \n}\n\nrisque_cas_ideal=length(which(pval1&lt;=0.05))\/length(pval1)\nprint(risque_cas_ideal)\n\n## [1] 0.0487\n<\/code><\/pre>\n<p>On conclut bien \u00e0 une diff\u00e9rence significative de moyenne entre les groupes (alors que ces moyennes sont en fait les m\u00eames) dans <strong>seulement environ 5% des cas<\/strong>.<\/p>\n<p>V\u00e9rifions maintenant, toujours \u00e0 travers des simulations, l&rsquo;<strong>\u00e9cart<\/strong> entre valeur nominale de <em>\u03b1<\/em> et risque d&rsquo;erreur de type I dans un cas \u00ab\u00a0probl\u00e9matique\u00a0\u00bb. Pour ce faire, je vais simuler 10000 jeux de donn\u00e9es tels que :<\/p>\n<ul>\n<li>la moyenne de Y soit la m\u00eame dans tous les groupes (hypoth\u00e8se nulle vraie)<\/li>\n<li>la distribution de Y par groupe soit normale (hypoth\u00e8se de distribution gaussienne vraie)<\/li>\n<li>la variance de Y soit l\u00e9g\u00e8rement diff\u00e9rente entre les groupes (hypoth\u00e8se d&rsquo;homoscedasticit\u00e9 <strong>fausse<\/strong>)<\/li>\n<\/ul>\n<p>Cette situation probl\u00e9matique est param\u00e9tr\u00e9e pour g\u00e9n\u00e9rer des jeux de donn\u00e9es \u00ab\u00a0proches\u00a0\u00bb de celui auquel nous avons affaire&#8230;<\/p>\n<pre><code>n=table(X)              ## les effectifs par groupe\nmu=c(3.9,3.9,3.9)       ## les moyennes par groupe   \nsigma=c(0.5,0.7,0.4)    ## les variances par groupe        \n\npval2=rep(NA,10000)\nfor (k in 1:10000){\n     Y=c(rnorm(n[1],mu[1],sigma[1]),\n         rnorm(n[2],mu[2],sigma[2]),\n         rnorm(n[3],mu[3],sigma[3]))\n     myaov=anova(lm(Y~X))\n     pval2[k]=myaov$\"Pr(&gt;F)\"[1]  \n}\n\nrisque_cas_problematique=length(which(pval2&lt;=0.05))\/length(pval2)\nprint(risque_cas_problematique)\n\n## [1] 0.0535\n<\/code><\/pre>\n<p>Au final, au vu des effectifs et des gammes de valeur pour la moyenne et la variance par groupe, l&rsquo;\u00e9cart aux hypoth\u00e8ses du mod\u00e8le lin\u00e9aire n&rsquo;entra\u00eene pas un risque d&rsquo;erreur de type I (environ 5%) tellement plus important que le risque nominal&#8230;<\/p>\n<p>Si j&rsquo;avais des tailles d&rsquo;\u00e9chantillon plus grandes encore (ici environ quatre fois plus importantes), alors j&rsquo;aurais a priori un risque d&rsquo;erreur de type I encore plus proche de la valeur nominale de 5%:<\/p>\n<pre><code>n=c(150,150,150)        ## les effectifs par groupe\nX=c(rep(\"A\",n[1]),\n    rep(\"B\",n[2]),\n    rep(\"C\",n[3]))\nmu=c(3.9,3.9,3.9)    ## les moyennes par groupe   \nsigma=c(0.5,0.7,0.4) ## les variances par groupe        \n\npval3=rep(NA,10000)\nfor (k in 1:10000){\n     Y=c(rnorm(n[1],mu[1],sigma[1]),\n         rnorm(n[2],mu[2],sigma[2]),\n         rnorm(n[3],mu[3],sigma[3]))\n     myaov=anova(lm(Y~X))\n     pval3[k]=myaov$\"Pr(&gt;F)\"[1]  \n}\n\nrisque_cas_problematique_2=length(which(pval3&lt;=0.05))\/length(pval3)\nprint(risque_cas_problematique_2)\n\n## [1] 0.0535\n<\/code><\/pre>\n<p>On pourrait multiplier ce genre de simulations \u00e0 l&rsquo;envi&#8230; pour tester par exemple, l&rsquo;effet d&rsquo;effectifs tr\u00e8s in\u00e9gaux dans les groupes, ou l&rsquo;effet d&rsquo;un groupe avec un effectif tr\u00e8s bas, etc.<\/p>\n<h2>R\u00e9f\u00e9rences<\/h2>\n<p>A la suite de la publication de ce billet, plusieurs personnes m&rsquo;ont demand\u00e9 dans les commentaires quelles \u00e9taient mes sources&#8230;<\/p>\n<p>Ce que j&rsquo;\u00e9cris dans cet article est le fruit de lectures de th\u00e8se (en biostatistique, sur des questions \u00e9troitement reli\u00e9es) et de nombreuses exp\u00e9rimentations (tirages al\u00e9atoires suivant divers \u00ab\u00a0mod\u00e8les\u00a0\u00bb et analyse des cons\u00e9quences sur les tests statistiques usuels, comme dans l&rsquo;article). Je n&rsquo;ai pas de r\u00e9f\u00e9rence bibliographique majeure \u00e0 mettre en avant puisque c&rsquo;est une sorte de synth\u00e8se entre exp\u00e9rimentation personnelle et litt\u00e9rature grise.<\/p>\n<p>Je comprends le besoin qu&rsquo;\u00e9prouveront certains (parfois \u00e0 la demande de reviewers&#8230;) de justifier leur propos par un article qui ferait argument d&rsquo;autorit\u00e9 mais ce que j&rsquo;explique dans cet article est cens\u00e9 faire partie d&rsquo;un savoir commun et reconnu (je ne suis pas n\u00e9cessairement d&rsquo;accord avec cela, mais pour avoir essay\u00e9 en vain de publier des articles scientifiques plus ou moins sur ce sujet je sais que les statisticiens trouvent \u00e7a trop basique et que les non-statisticiens trouvent \u00e7a trop statistique :-p ).<\/p>\n<p>Je vous encourage donc \u00e0 citer directement cet article de blog (si citer un blog, et en fran\u00e7ais en plus, ne vous semble pas probl\u00e9matique d&rsquo;un point de vue de l'\u00a0\u00bbapparence de s\u00e9rieux\u00a0\u00bb -mais ne nous lan\u00e7ons pas dans des consid\u00e9rations qui pourraient nous emmener trop loin-)!&#8230;<\/p>\n<h2>Citation<\/h2>\n<p>Merci de citer ce billet de la mani\u00e8re suivante:<\/p>\n<p>Vaudor L (2015). \u201cNon-respect des hypoth\u00e8ses du mod\u00e8le lin\u00e9aire (ANOVA, r\u00e9gression): c&rsquo;est grave, docteur??\u201d <url: http:\/\/perso.ens-lyon.fr\/lise.vaudor\/non-respect-des-hypotheses-du-modele-lineaire-anova-regression-cest-grave-docteur><\/url:>.<\/p>\n<p>@misc{vaudor_hypotheses_modele_lineaire, type = {blog}, title = {Non-respect des hypoth\u00e8ses du mod\u00e8le lin\u00e9aire ({ANOVA}, r\u00e9gression): c&rsquo;est grave, docteur??}, url = {http:\/\/perso.ens-lyon.fr\/lise.vaudor\/non-respect-des-hypotheses-du-modele-lineaire-anova-regression-cest-grave-docteur\/\/}, journal = {R-atique: Analyse de donn\u00e9es avec R}, author = {Vaudor, Lise}, month = jan, year = {2015} }<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les hypoth\u00e8ses du mod\u00e8le lin\u00e9aire Beaucoup de personnes, lorsqu&rsquo;elles souhaitent utiliser un mod\u00e8le lin\u00e9aire classique (r\u00e9gression lin\u00e9aire ou ANOVA), se retrouvent confront\u00e9es au probl\u00e8me du non-respect des hypoth\u00e8ses de ce mod\u00e8le. En effet, les hypoth\u00e8ses du mod\u00e8le sont les suivantes: distribution gaussienne des r\u00e9sidus homoscedasticit\u00e9 des r\u00e9sidus (i.e. les r\u00e9sidus ont la m\u00eame variance quel que soit le groupe consid\u00e9r\u00e9, ou quelle que soit la valeur de la variable explicative.. <a href=\"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/non-respect-des-hypotheses-du-modele-lineaire-anova-regression-cest-grave-docteur\/\">Read More<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[5],"tags":[],"class_list":["post-331","post","type-post","status-publish","format-standard","hentry","category-tous-les-posts"],"_links":{"self":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/331","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/comments?post=331"}],"version-history":[{"count":9,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/331\/revisions"}],"predecessor-version":[{"id":538,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/331\/revisions\/538"}],"wp:attachment":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/media?parent=331"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/categories?post=331"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/tags?post=331"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}