{"id":611,"date":"2017-01-11T11:42:45","date_gmt":"2017-01-11T10:42:45","guid":{"rendered":"http:\/\/perso.ens-lyon.fr\/lise.vaudor\/?p=611"},"modified":"2018-10-19T09:55:20","modified_gmt":"2018-10-19T07:55:20","slug":"comprendre-le-theoreme-de-bayes","status":"publish","type":"post","link":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/comprendre-le-theoreme-de-bayes\/","title":{"rendered":"Comprendre le th\u00e9or\u00e8me de Bayes"},"content":{"rendered":"<p><img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Theoreme_de_Bayes\/Lise_Vaudor_headband-1.png\" alt=\"\" \/><\/p>\n<h1>Comprendre le th\u00e9or\u00e8me pour comprendre les mod\u00e8les bay\u00e9siens<\/h1>\n<p>Les mod\u00e8les bay\u00e9siens viennent de faire une entr\u00e9e subite et fracassante dans ma vie. Cela peut sembler \u00e9tonnant car cela fait maintenant quelques ann\u00e9es que le paradigme bay\u00e9sien conna\u00eet un grand succ\u00e8s chez (notamment) les \u00e9cologues, peut-\u00eatre du fait des probl\u00e8mes qu&rsquo;ils connaissent avec les mod\u00e8les inf\u00e9rentiels plus classiques (probl\u00e8mes li\u00e9s aux donn\u00e9es manquantes ou trop peu nombreuses, aux distributions non gaussiennes, aux difficult\u00e9s d&rsquo;ajustement des mod\u00e8les, \u00e0 l&rsquo;importance des erreurs, etc.).<\/p>\n<p>Avec ce billet sur le th\u00e9or\u00e8me de Bayes, je souhaite entamer une s\u00e9rie de billets relatifs aux mod\u00e8les bay\u00e9siens. J&rsquo;aimerais notamment expliquer leur principe, montrer leurs avantages et inconv\u00e9nients, et montrer (aussi succintement que possible) comment les construire, les ajuster, et les interpr\u00e9ter sous R.<\/p>\n<p>Pour commencer, je vais me concentrer sur ce qui d\u00e9finit les mod\u00e8les bay\u00e9siens, \u00e0 savoir (comme leur nom l&rsquo;indique), leur utilisation des probabilit\u00e9s et notamment du th\u00e9or\u00e8me de Bayes&#8230;<\/p>\n<h1>Le th\u00e9or\u00e8me de Bayes, en \u00e9quation<\/h1>\n<p>Le th\u00e9or\u00e8me de Bayes est le suivant:<\/p>\n<p>$$Pr(A|B)=\\frac {Pr(B|A)Pr(A)}{Pr(B|A)Pr(A)+Pr(B|{\\bar A})Pr({\\bar A})}$$<\/p>\n<p>Il exprime la probabilit\u00e9 de \u00ab\u00a0A sachant B\u00a0\u00bb en fonction des probabilit\u00e9s de \u00ab\u00a0B sachant A\u00a0\u00bb et de la probabilit\u00e9 de A.<\/p>\n<p>Il d\u00e9rive de cette d\u00e9finition des probas conditionnelles:<\/p>\n<p>$$Pr(A\\cap B)=Pr(A\\vert B)Pr(B)=Pr(B\\vert A)Pr(A)$$<\/p>\n<h1>Un exemple concret d&rsquo;application du th\u00e9or\u00e8me<\/h1>\n<p>Imaginons un cas concret d&rsquo;utilisation de ce th\u00e9or\u00e8me. Mettons, par exemple, que l&rsquo;on essaie de comprendre le comportement des ours \u00e0 travers le mod\u00e8le suivant, o\u00f9 $$C$$ est la variable indicatrice de l&rsquo;\u00e9v\u00e8nement \u00ab\u00a0L&rsquo;ours est en col\u00e8re\u00a0\u00bb ($$C=o$$ ou $$C=n$$) et $$G$$ est la variable indicatrice de l&rsquo;\u00e9v\u00e9nement \u00ab\u00a0L&rsquo;ours grogne\u00a0\u00bb ($$G=o$$ ou $$G=n$$).<\/p>\n<p><img decoding=\"async\" src=\"..\/..\/lise.vaudor\/Rfigures\/Theoreme_de_Bayes\/unnamed-chunk-2-1.png\" alt=\"\" \/><\/p>\n<p>Supposons que l&rsquo;on conna\u00eet la relation qui lie C \u00e0 G -i.e. la table des probabilit\u00e9s conditionnelles qui donne $$Pr(G\\vert C)$$-. Par exemple<\/p>\n<table>\n<thead>\n<tr>\n<th>$$Pr(G\\vert C)$$<\/th>\n<th>$$C=o$$<\/th>\n<th>$$C=n$$<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>$$G=o$$<\/td>\n<td>0&#46;90<\/td>\n<td>0&#46;25<\/td>\n<\/tr>\n<tr>\n<td>$$G=n$$<\/td>\n<td>0&#46;10<\/td>\n<td>0&#46;75<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>On peut lire cette table de la mani\u00e8re suivante:<\/p>\n<ul>\n<li>la probabilit\u00e9 que l&rsquo;ours grogne sachant qu&rsquo;il est en col\u00e8re est de 90%. <\/li>\n<li>la probabilit\u00e9 que l&rsquo;ours grogne sachant qu&rsquo;il n&rsquo;est pas en col\u00e8re est de 25%. Ainsi, il arrive que les ours grognent m\u00eame s&rsquo;ils ne sont pas en col\u00e8re. <\/li>\n<\/ul>\n<p>Comment, dans ces conditions o\u00f9 les ours grognent \u00e0 qui mieux mieux, interpr\u00e9ter leurs grognements?<\/p>\n<p>Mettons que l&rsquo;on suppose a priori que l&rsquo;ours a une chance sur trois d&rsquo;\u00eatre en col\u00e8re: -i.e. on a l&rsquo;a priori suivant sur $$Pr(C)$$-:<\/p>\n<p>$$Pr(C=o)=0.33$$<\/p>\n<p>$$Pr(C=n)=0.67$$<\/p>\n<p>Imaginons que nous observions l&rsquo;ours une fois, et qu&rsquo;il grogne.<\/p>\n<p>Alors le th\u00e9or\u00e8me de Bayes va nous permettre de d\u00e9terminer quelles sont les probabilit\u00e9s que l&rsquo;ours soit en col\u00e8re (ou non) sachant qu&rsquo;il a grogn\u00e9.<\/p>\n<p>En effet:<\/p>\n<p>$$Pr(C=o|G=o)=\\frac{Pr(G=o|C=o)Pr(C=o)}{Pr(G=o|C=o)Pr(C=o)+Pr(G=o|C=n)Pr(C=n)}$$<\/p>\n<p>$$Pr(C=o|G=o)=\\frac{0.9\\cdot 0.33}{0.9 \\cdot 0.33+0.25\\cdot0.67}$$<\/p>\n<p>$$Pr(C=o|G=o)=0.64$$<\/p>\n<p>donc, l&rsquo;ours ayant grogn\u00e9, on estime la probabilit\u00e9 qu&rsquo;il ait \u00e9t\u00e9 en col\u00e8re \u00e0 64%.<\/p>\n<h1>Premier aper\u00e7u du paradigme bay\u00e9sien<\/h1>\n<p>Quelques remarques, maintenant, quant aux principes qui sous-tendent l&rsquo;utilisation du th\u00e9or\u00e8me de Bayes&#8230;<\/p>\n<p>Remarquez d&rsquo;abord comme le <strong>r\u00e9sultat (probabiliste) du mod\u00e8le permet de retranscrire efficacement les incertitudes<\/strong>. En effet, on ne conclut pas de ce mod\u00e8le \u00ab\u00a0l&rsquo;ours a grogn\u00e9 donc il devait \u00eatre en col\u00e8re\u00a0\u00bb mais \u00ab\u00a0l&rsquo;ours a grogn\u00e9 donc la probabilit\u00e9 qu&rsquo;il ait \u00e9t\u00e9 en col\u00e8re est de 64%\u00a0\u00bb. L&rsquo;incertitude est ici <strong>int\u00e9gr\u00e9e<\/strong> (plut\u00f4t qu&rsquo;associ\u00e9e, comme dans la statistique inf\u00e9rentielle plus classique) au r\u00e9sultat.<\/p>\n<p>Ainsi, en prenant en compte notre observation de G nous sommes pass\u00e9 d&rsquo;une probabilit\u00e9 <strong>a priori<\/strong> $$Pr(C=o)=$$ 33% \u00e0 la probabilit\u00e9 <strong>a posteriori<\/strong> $$Pr(C=o\\vert G=o)=$$ 64%. Ainsi, le mod\u00e8le nous a permis d&rsquo;<strong>affiner notre connaissance de la distribution de C<\/strong>. On pensait a priori que l&rsquo;ours n&rsquo;\u00e9tait pas si col\u00e9rique que \u00e7a, mais notre observation de son grognement nous pousse \u00e0 revoir un peu notre jugement&#8230;<\/p>\n<p>Si l&rsquo;on \u00e9tait partis d&rsquo;un a priori diff\u00e9rent (par exemple $$Pr(C=o)=$$ 90%), la distribution a posteriori aurait \u00e9t\u00e9 diff\u00e9rente (ici $$Pr(C=o\\vert G=o)$$= 99%). <strong>L&rsquo;a priori a donc un effet non n\u00e9gligeable sur la distribution a posteriori<\/strong> et il convient de le d\u00e9finir avec soin. En pratique, n\u00e9anmoins, on utilise souvent les mod\u00e8les bay\u00e9siens en se basant sur de nombreuses observations (et non une seule comme nous l&rsquo;avons fait plus haut)&#8230; Or <strong>plus les observations sont nombreuses, moins l&rsquo;effet de l&rsquo;a priori de d\u00e9part se ressent sur la distribution a posteriori<\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Comprendre le th\u00e9or\u00e8me pour comprendre les mod\u00e8les bay\u00e9siens Les mod\u00e8les bay\u00e9siens viennent de faire une entr\u00e9e subite et fracassante dans ma vie. Cela peut sembler \u00e9tonnant car cela fait maintenant quelques ann\u00e9es que le paradigme bay\u00e9sien conna\u00eet un grand succ\u00e8s chez (notamment) les \u00e9cologues, peut-\u00eatre du fait des probl\u00e8mes qu&rsquo;ils connaissent avec les mod\u00e8les inf\u00e9rentiels plus classiques (probl\u00e8mes li\u00e9s aux donn\u00e9es manquantes ou trop peu nombreuses, aux distributions non gaussiennes,.. <a href=\"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/comprendre-le-theoreme-de-bayes\/\">Read More<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[5],"tags":[],"class_list":["post-611","post","type-post","status-publish","format-standard","hentry","category-tous-les-posts"],"_links":{"self":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/611","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/comments?post=611"}],"version-history":[{"count":24,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/611\/revisions"}],"predecessor-version":[{"id":627,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/posts\/611\/revisions\/627"}],"wp:attachment":[{"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/media?parent=611"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/categories?post=611"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/perso.ens-lyon.fr\/lise.vaudor\/wp-json\/wp\/v2\/tags?post=611"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}