Tous les articles par ghys

Napoléon Bonaparte et la science

« Si je n’étais pas devenu général en chef et l’instrument du sort d’un grand peuple, […] je me serais jeté dans l’étude des sciences exactes. J’aurais fait mon chemin dans la route des Galilée et des Newton. Et puisque j’ai réussi constamment dans mes grandes entreprises, eh bien, je me serais hautement distingué aussi par des travaux scientifiques. J’aurais laissé le souvenir de belles découvertes. Aucune autre gloire n’aurait pu tenter mon ambition. »

Ces propos de Bonaparte, rapportés par Arago, nous confirment qu’il ne manquait pas d’ambition. Mais que son ambition se tourne aussi vers la science, en laissant entendre qu’il pourrait même dépasser Newton, alors que Lagrange avait pourtant déclaré — naïvement — que c’était impossible, voilà qui est beaucoup plus intéressant ! Dans l’histoire de France, certains de nos rois, empereurs, ou présidents ont soutenu les sciences, mais Napoléon Bonaparte est probablement le seul qui aurait rêvé d’être un scientifique… s’il n’avait pas été « l’instrument du sort d’un grand peuple ».

Bonaparte a aimé la science mais il a surtout compris très rapidement qu’il pourrait se servir des scientifiques pour développer son projet politique. En retour, les scientifiques l’ont aimé et l’ont soutenu, parfois servilement. Monge, le mathématicien, et Berthollet, le chimiste, furent littéralement fascinés par le jeune général pendant la campagne d’Italie. Ils parvinrent à faire élire Bonaparte à l’Institut national en 1797 alors qu’il n’avait que 28 ans et que ses contributions scientifiques étaient inexistantes, et… le resteront. Le général prendra le fauteuil de Lazare Carnot, infiniment meilleur scientifique que lui, mais qui venait d’être exclu de l’Institut à la suite du coup d’État de fructidor, dont Bonaparte fut d’ailleurs l’un des instigateurs. L’Institut fit preuve d’une clairvoyance intéressée en s’assurant les faveurs de celui qui deviendrait plus tard son protecteur. Bonaparte utilisera souvent le prestige de son nouveau statut et signera ses lettres « Le membre de l’Institut, général en chef, Bonaparte ».

On raconte que le 11 décembre 1797 Bonaparte dîna avec quelques membres influents de l’Institut pour assurer son élection qui devait avoir lieu deux semaines plus tard. Pour exhiber ses talents mathématiques, il expliqua à Laplace — celui qu’on appelait le Newton français — comment trouver le centre d’un cercle si on ne dispose que d’un compas et pas de règle. Laplace se serait exclamé « Nous attendions tout de vous, général, sauf des leçons de géométrie ». Bonaparte mentionna-t-il que cette construction géométrique était en quelque sorte une prise de guerre, puisqu’il l’avait obtenue d’un mathématicien milanais, du nom de Mascheroni, qu’il venait de rencontrer lors de la campagne d’Italie ? C’est — peut-être — ce qui a convaincu Laplace de voter pour Bonaparte.

C’est ensuite la campagne d’Égypte, qui se conclura par une déroute militaire mais un succès scientifique remarquable. Sait-on que Bonaparte a été suffisamment convaincant pour que 160 savants acceptent de s’embarquer à Toulon avec 50 000 soldats, sans avoir la moindre idée de leur destination finale ? La seule information qu’on avait donnée au géologue Dolomieu était que « là où l’on va, il y a des montagnes et des pierres ». Avait-on déjà vu dans l’Histoire une armée d’envahisseurs s’adjoindre des mathématiciens, naturalistes, archéologues et philologues ? La guerre et la science font parfois des alliances. Sur le pont du bateau qui le conduisait à Alexandrie, Bonaparte s’instruisait et organisait des conversations scientifiques, au grand dam des soldats qui trouvaient tout cela inutile. Des colloques de science à bord d’un navire de guerre ! Dès l’arrivée en Égypte, après la victoire des Pyramides (« quarante siècles vous contemplent »), l’Institut du Caire est fondé à l’image de l’Institut national : président Monge, secrétaire perpétuel Fourier, vice-président Bonaparte. Derrière les troupes qui piétinent dans le désert à la poursuite des Mamelouks, Monge écrit des articles expliquant le phénomène des mirages et Berthollet comprend la nature des équilibres chimiques en observant des lacs de natron.

Bonaparte s’enfuit précipitamment d’Égypte fin 1799, avant le désastre militaire, en abandonnant son armée et la plupart des savants de l’expédition. Mais ses amis de toujours, Berthollet et Monge, sont du voyage de retour vers Paris. Quelques jours plus tard, c’est le coup d’État du 18 brumaire, la fin du Directoire, le début du Consulat, qui mènera ensuite à l’Empire et au pouvoir absolu de Napoléon Bonaparte, jusqu’à Waterloo, en 1815.

La période du Consulat et de l’Empire fut probablement la plus glorieuse de l’Histoire des sciences en France. Voici en vrac quelques noms qui sonnent comme une liste de rues de Paris : les mathématiciens Fourier, Lacroix, Lagrange, Laplace, Legendre, Monge, Poisson, les astronomes Arago, Cassini, Lalande, les physiciens Ampère, Biot, Borda, Carnot, Coulomb, Fresnel, Haüy, Malus, les chimistes Berthollet, Chaptal, Charles, Fourcroy, Gay-Lussac, les naturalistes Cuvier, Geoffroy Saint-Hilaire, Lamarck, les frères Jussieu, les médecins Laennec ou Sabatier, et j’en oublie beaucoup !

Napoléon a très largement soutenu la science pendant cette période. Un soutien non seulement de principe, mais surtout financier. Les savants n’ont probablement jamais été si bien payés dans notre histoire : de quoi faire rêver les scientifiques contemporains. Des prix très généreux sont distribués par l’Institut. Par exemple, impressionné par les expériences de Volta, l’empereur offre une somme considérable pour faire progresser la théorie naissante de l’électricité.

Napoléon Bonaparte était persuadé que les savants devaient jouer un rôle majeur dans la vie politique et il a placé quelques-uns d’entre eux aux postes les plus élevés. Jamais le monde politique français n’a été aussi au fait des derniers progrès de la science. Faudrait-il s’en inspirer aujourd’hui ? Certes, le premier essai fut un échec. Trois jours après le 18 brumaire, Laplace fut nommé ministre de l’Intérieur. Le premier consul le révoquera six semaines plus tard, et se justifiera en écrivant « Géomètre de première catégorie, Laplace n’a pas tardé à se montrer un administrateur plus que médiocre ; dès son premier travail nous avons immédiatement compris que nous nous étions trompés. Laplace ne traitait aucune question d’un bon point de vue : il cherchait des subtilités de partout, il avait seulement des idées problématiques et enfin il portait l’esprit de l’infiniment petit jusque dans l’administration. » Mais Napoléon a su faire des choix remarquables de grands serviteurs de l’État parmi les meilleurs scientifiques, héritiers des Lumières. Je ne citerai que deux exemples emblématiques, Fourcroy et Chaptal.

Fourcroy, chimiste, est l’auteur d’une refonte du système éducatif français, avec la création en particulier des fameux lycées napoléoniens en 1802. Ce sont des internats de garçons à la discipline quasi militaire qui forment l’élite dont le pouvoir centralisé a besoin pour maintenir l’ordre. Des programmes précis sont imposés par la loi. Tout cela est peu propice à la créativité individuelle et nous en ressentons encore les effets délétères aujourd’hui. En même temps, la science y occupe enfin la place qu’elle mérite : une vraie révolution par rapport à l’Ancien Régime. On y enseigne bien sûr le latin, l’histoire et la géographie, mais aussi, à égalité avec les humanités, les mathématiques, la physique, chimie, histoire naturelle et minéralogie, au long d’un cursus de six années se terminant par des études de belles lettres latines et françaises et de mathématiques dites transcendantes. Hélas, la mise en pratique sera laborieuse et dès 1809, avec la création de l’Université Impériale, la belle égalité va régresser, et l’enseignement scientifique va disparaître virtuellement lors de la Restauration. On reproche alors à la science de détourner de la Religion. Au cours du dix-neuvième siècle, l’enseignement des sciences va connaître des hauts et des bas et il faudra attendre la grande réforme pédagogique de 1902 pour revoir une renaissance très partielle de la science au lycée. Aujourd’hui, la science est encore le parent pauvre de l’école primaire.

Quant à Chaptal, sa contribution va bien au-delà de la production du sucre à partir de la betterave, alors que le blocus continental empêchait l’importation de sucre de canne. Il fut un excellent ministre de l’Intérieur en donnant une impulsion à l’industrialisation de la France qui se poursuivra pendant tout le siècle. Il actualise le mode de fonctionnement des professions médicales, réforme les hôpitaux. Il promeut la vaccination avec enthousiasme, sans la rendre obligatoire, un peu comme aujourd’hui. Il organise le réseau routier, rétablit les chambres de commerce, met en place les premiers services publics de statistiques, importants pour une bonne administration nationale. Il n’hésite jamais à s’opposer à l’empereur, qui ne lui en tiendra pas rigueur.

Napoléon protégea l’Institut de France, parfois de manière excessive : dans la loi du 11 floréal de l’an X, on lit « qu’aucun établissement ne pourra désormais prendre le nom d’Institut. L’Institut national sera le seul établissement public qui portera ce nom ». Cette loi n’a pas été abrogée à ce jour et semble peu appliquée ! En retour, l’Institut de France n’a pas manqué de montrer son affection pour l’empereur, par exemple en inaugurant en grande pompe une statue majestueuse au Palais Conti. Napoléon y est représenté en costume impérial et sa main droite repose sur une petite colonne sur laquelle est gravée une Minerve, symbole de l’Institut. Lors de la cérémonie, on exécuta un chant lyrique très obséquieux. Les milieux scientifiques et politiques connaissent la flatterie.

Bien sûr, des liens si intimes fondés sur des séductions mutuelles ne peuvent qu’engendrer des crises lorsque la confiance est remise en question. Depuis l’île d’Elbe, pendant la première Restauration, Napoléon a remarqué avec amertume l’empressement avec lequel l’Institut l’avait renié. Le président de l’Institut n’avait-il pas écrit, dès le lendemain de l’abdication de l’empereur : « Avec la liberté, nous retrouvons le roi que nos vœux appelaient » ? Après le vol de l’aigle, de retour à Paris, l’empereur fait part de son irritation par l’intermédiaire de Lazare Carnot, devenu son ministre de l’Intérieur. Il ne souhaite plus être membre de l’Institut, il n’est plus l’un de leurs confrères mais il est en revanche leur supérieur et le titre qu’il convient de lui donner dorénavant est celui de protecteur de l’Institut.

L’amour de Napoléon pour la science n’était pas feint. Après Waterloo, il croyait pouvoir s’enfuir en Amérique sans difficulté. « Le désœuvrement, dit-il à Monge, serait pour moi la plus cruelle des tortures. Condamné à ne plus commander des armées, je ne vois que les sciences qui puissent s’emparer fortement de mon âme et de mon esprit. Apprendre ce que les autres ont fait ne saurait me suffire. Je veux dans cette nouvelle carrière, laisser des travaux, des découvertes, dignes de moi. Il me faut un compagnon qui me mette d’abord et rapidement au courant de l’état actuel des sciences. Ensuite nous parcourrons ensemble le nouveau continent, depuis le Canada jusqu’au Cap Horn, et dans cet immense voyage nous étudierons tous les grands phénomènes de la physique du globe, sur lesquels le monde savant ne s’est pas encore prononcé. » Monge s’écria : « Sire, votre collaborateur est trouvé : je vous accompagne ! ». Napoléon répondit que son ami Monge était trop âgé pour se lancer dans l’aventure. « Sire, répliqua Monge, j’ai votre affaire avec la personne d’un de mes jeunes confrères, Arago. » Le jeune Arago n’accepta pas l’offre. On le comprend, il avait beaucoup mieux à faire en France. Plus tard, à Sainte-Hélène, Napoléon dira de Monge : « Il m’aimait comme une maîtresse, et je lui rendais bien ». Quant à Monge, il avouera vers la même époque : « J’ai eu quatre passions : la Géométrie, l’École polytechnique, Berthollet et Bonaparte. »

En effet, Napoléon et la science se sont aimés avec passion.

Pour appréhender les risques d’un vaccin, écoutons les psychologues

https://www.lemonde.fr/sciences/article/2021/04/26/vaccins-pour-apprehender-les-facteurs-de-risque-il-faut-ecouter-les-medecins-et-les-mathematiciens-mais-aussi-les-psychologues_6078055_1650684.html

Comment comprendre la méfiance de la population à l’encontre du vaccin d’AstraZeneca ? D’un côté, un Français sur 700 est mort du Covid-19 depuis un an. De l’autre, un cas de thrombose pour 100 000 éliminer. Le calcul des probabilités ne suffira pas. Une application pour smartphone, intitulée Risk Navigator, évalue les risques encourus dans des activités usuelles. L’unité de mesure est le « micromort » : une probabilité de 1 sur 1 million de mourir. Ainsi, 1 000 km en voiture coûtent 3 micromorts. Mais les humains ne perçoivent presque jamais les risques en termes de chi#res ou de micromorts. Nous ne sommes heureusement pas des machines à calculer. Nos comportements sont souvent irrationnels, et c’est tant mieux. vaccinations. La balance semble claire : le risque de thrombose est 140 fois inférieur à celui du Covid-19. Et, pourtant, la méfiance s’est installée et sera difficile à éliminer. Le calcul des probabilités ne suffira pas. Une application pour smartphone, intitulée Risk Navigator, évalue les risques

encourus dans des activités usuelles. L’unité de mesure est le « micromort » : une probabilité de 1 sur 1 million de mourir. Ainsi, 1 000 km en voiture coûtent 3 micromorts. Mais les humains ne perçoivent presque jamais les risques en termes de chi#res ou de micromorts. Nous ne sommes heureusement pas des machines à calculer. Nos comportements sont souvent irrationnels, et c’est tant mieux.

Le débat n’est pas nouveau. L’inoculation contre la variole − la transmission volontaire d’une forme atténuée de la maladie – date du XVIII siècle en Europe. Un enfant inoculé avait une « chance » sur 200 de mourir dans le mois qui suivait, mais, s’il survivait, il ne serait pas contaminé pendant toute sa vie, à une époque où 1/8 de la population mourait de la variole. Comment comparer ces fractions 1/200 et 1/8 ? Sont-elles de même nature ? Est-il légitime de risquer de faire mourir quelqu’un pour le protéger d’une maladie qu’il pourrait ne jamais attraper ? Le mathématicien suisse Daniel Bernoulli publia en 1766 un travail remarquable dans lequel il comparait deux populations, selon qu’elles utilisaient l’inoculation ou pas. Grâce aux données statistiques dont il disposait, il montra que, en inoculant tout le monde, certes 1/200 des enfants décédaient rapidement, mais que l’espérance de vie augmentait de trois ans. Il en conclut qu’il fallait inoculer.

La discussion qui a suivi fut passionnante dans ce siècle des Lumières où l’on s’interrogeait sur la valeur de la vie humaine. Le mathématicien D’Alembert était ainsi convaincu des avantages de l’inoculation mais il pensait que ceux-ci « ne sont pas de nature à être appréciés Il opposa beaucoup d’arguments, comme le fait qu’on ne peut pas comparer une mort immédiate avec une autre dans un futur indéterminé. mathématiquement ».

Décisions instinctives

Depuis quelques décennies, les psychologues étudient la manière dont nous percevons les risques. Ils ont décrit et mesuré un grand nombre de biais systématiques. Par exemple, nous acceptons des risques bien plus importants lorsque nous les choisissons (comme prendre sa voiture) que lorsque nous n’y pouvons rien (comme un accident nucléaire). De même, nous minimisons les risques s’ils ne nous menacent que dans un futur indéterminé (comme le tabac). Et nous exagérons un risque dont tous les médias parlent abondamment (comme la thrombose). Ces biais sont universels et on ne peut pas s’en débarrasser avec des cours de mathématiques. Ils font partie de la nature humaine. Même les experts y sont soumis dès qu’ils sortent de leur domaine d’expertise. En revanche, la bonne nouvelle est que ces biais sont maintenant bien compris par les psychologues et qu’on peut les expliquer au public, ce que l’école et les médias ne font malheureusement que très peu. Il ne s’agit pas de faire des calculs mais de comprendre nos comportements et de maîtriser nos prises de risque. Nous prenons la plupart de nos décisions instinctivement, mais lorsque les choses deviennent sérieuses, nous devons apprendre à réfléchir et à analyser nos réactions irrationnelles. Il faut écouter les médecins et les mathématiciens, bien sûr, mais aussi les psychologues. Vous pouvez accepter votre peur incontrôlée des araignées, mais pour les risques qui vous menacent vraiment, prenez le  temps de vous renseigner et de réfléchir avant de prendre une décision !

Le théorème de l’indice, au sommet

Le mathématicien américain Isadore Singer est décédé le 11 février, à l’âge de 96 ans. Avec son collaborateur Michael Atiyah, mort en 2019, il avait démontré le théorème de l’indice, célèbre parmi les mathématiciens, qui leur a valu le prix Abel en 2004. L’importance exceptionnelle de ce théorème est attestée par le fait qu’il établit un lien insoupçonné entre deux parties des mathématiques jusque-là éloignées, l’analyse et la topologie, mais aussi par ses conséquences en physique théorique. On pense souvent, à tort, que le rôle du mathématicien consiste à résoudre des équations. A vrai dire, il y a toutes sortes d’équations. Beaucoup de celles qu’on rencontre en physique mettent en jeu des inconnues qui sont des fonctions plutôt que des nombres. On parle alors d’équations différentielles et leur étude fait partie de l’« analyse mathématique ». Il est rare qu’on sache résoudre ce type d’équation mais le théorème de l’indice permet de compter le nombre de leurs solutions, ce qui est bien souvent suffsant pour les applications. Atiyah et Singer associent à l’équation un objet qu’on appelle un « fibré », dont l’étude fait partie de la topologie, et sur lequel on peut lire directement le nombre de solutions. Un pont est donc établi entre l’analyse et la topologie.

Le théorème a été démontré en 1963 mais Atiyah et Singer n’en ont publié une démonstration qu’en 1968. En fait, ils ont attendu de disposer de trois démonstrations différentes, un peu comme un sommet qu’on atteint par plusieurs voies, chacune apportant une nouvelle perspective. Tout cela n’est pas apparu soudainement dans leur esprit. Pendant plus de vingt ans, ils ont développé leurs idées en s’appuyant sur de nombreux théorèmes antérieurs qui ne semblaient pas reliés. Les progrès les plus importants en mathématiques sont bien souvent des synthèses : des résultats hétéroclites apparaissent tout à coup comme de simples cas particuliers d’une théorie bien plus puissante.

L’externe et l’interne

Quelques années plus tard, le lien avec la physique est apparu clairement. La « théorie de jauge » des physiciens était très proche des « fibrés » des mathématiciens. Le théorème de l’indice devenait un outil crucial en physique quantique. On peut y voir un exemple de la « déraisonnable efficacité des mathématiques dans les sciences de la nature », pour employer une expression célèbre du physicien Eugene Wigner.

Les liens entre la physique et les mathématiques sont vieux comme la science, et les opinions divergent. Le mathématicien Vladimir Arnold affirmait que les mathématiques ne sont qu’un chapitre de la physique. D’autres insistent au contraire sur l’importance des mathématiques comme discipline abstraite et autonome. Le point de vue d’Atiyah et Singer est intermédiaire. Selon eux, presque toutes les mathématiques sont nées de la réalité extérieure, par exemple ce qui concerne les nombres, mais elles se sont tournées ensuite vers des questions internes, comme la théorie des nombres premiers. D’autres parties des mathématiques sont en revanche plus proches du monde extérieur et la physique y joue un rôle crucial de motivation. La force des mathématiques réside dans ces deux composantes complémentaires : externe et interne. En 1900, David Hilbert affirmait qu’« une théorie mathématique ne peut être considérée comme complète que si elle est si claire que vous pouvez l’expliquer à la première personne que vous rencontrez dans la rue ». Hélas, il faudra attendre encore un peu avant de pouvoir expliquer clairement le théorème de l’indice aux lecteurs du Monde !

L’efficacité vaccinale en quatre notions

https://www.lemonde.fr/sciences/article/2021/01/06/covid-19-l-efficacite-vaccinale-en-quatre-notions-distinctes_6065332_1650684.html

L’efficacité du vaccin Pfizer est estimée à 95 %. Cela signifie-t-il, comme on l’entend parfois, que, sur cent personnes vaccinées, cinq seront malades du Covid ? Ce n’est heureusement pas de cette façon qu’il faut comprendre ce chiffre. Quelques définitions sont peut-être utiles pour éviter de tels malentendus. Dans le monde entier, le laboratoire a sélectionné 43 000 volontaires. Une moitié d’entre eux, choisie au hasard, a été vaccinée. L’autre moitié a été « vaccinée » avec un placebo : de l’eau salée. Les volontaires ne pouvaient pas savoir s’ils avaient été vraiment vaccinés. On a ensuite attendu que 170 d’entre eux ressentent des symptômes du Covid et que les résultats de leur test se révèlent positifs. Parmi eux, huit avaient été vaccinés et 162 avaient reçu le placebo. Ainsi, les malades vaccinés étaient vingt fois moins nombreux que ceux qui ne l’étaient pas. Le risque d’être malade si on est vacciné est donc de 5 % du risque qu’on court si on n’est pas vacciné. Autrement dit, le risque de maladie a été diminué de 95 %, ce qu’on exprime en disant que l’efficacité clinique est de 95 %. Cet essai clinique doit être réalisé avant la mise en circulation du vaccin, car une efficacité supérieure à 50 % est indispensable pour obtenir l’autorisation de mise sur le marché : 95 % est donc un très bon score.

L’efficacité dans la vie réelle nous intéresse bien plus : il s’agit maintenant de connaître la diminution du risque de maladie dans le monde réel pour une personne vaccinée. C’est assez différent d’un essai clinique, qui mesure surtout un degré de protection individuel. L’efficacité réelle dépend du nombre de personnes vaccinées dans la population : plus elles sont nombreuses, moins le virus circule, et moins il y aura de contaminations et donc de malades. Par ailleurs, la durée de la protection apportée par le vaccin, encore mal connue, est très importante dans la réalité, alors qu’elle n’intervient que peu dans l’essai clinique, qui dure peu de temps. L’efficacité réelle ne peut s’évaluer qu’après la mise en circulation du vaccin, grâce à des enquêtes épidémiologiques délicates : il faudra du temps pour la connaître dans le cas des vaccins anti-Covid.

Des bénéfices pour tous

Il faut encore ajouter deux autres sortes d’efficacité. N’oublions pas que la vaccination est avant tout une mesure de santé publique, qui ne vise pas seulement à limiter le risque de maladie pour l’individu vacciné, mais aussi pour toute la société, dont une proportion importante n’est pas vaccinée (parfois d’ailleurs pour de bonnes raisons). On peut alors estimer l’efficacité indirecte, c’est-à-dire la diminution du risque dont les individus non vaccinés bénéficient grâce à ceux qui sont vaccinés et qui ne les contaminent pas. Enfin, il y a l’efficacité globale, peut-être la plus importante et la plus difficile à estimer : la diminution du risque moyen dans la population totale (vaccinée ou pas) par rapport à ce que serait ce risque si personne n’était vacciné. Voilà donc quatre notions différentes d’efficacité.

Dans tous les cas, les vaccins contre le Covid seront extrêmement utiles même si leur efficacité globale sera probablement inférieure à 95 %. Même une valeur de 50 % permettrait d’éviter la moitié des maladies, entraînerait une diminution considérable de la circulation du virus dans la population et sauverait un grand nombre de vies.

Comme toujours, il faut faire attention avec les chiffres. Imaginons que, dans une population, il y ait dix fois plus de vaccinés que de non-vaccinés. Imaginons que le risque de maladie pour un vacciné soit cinq fois moins important que pour un non-vacciné. Comme les vaccinés sont dix fois plus nombreux, le nombre de malades vaccinés sera le double de celui des non-vaccinés. N’en déduisons surtout pas que la vaccination est inefficace.

N’hésitez pas ! Dès que vous en aurez la possibilité, vaccinez-vous !

Etienne Ghys

L’Académie des sciences ouvre ses Comptes Rendus en libre accès

Paris, le 14 décembre 2020

Publication historique de l’Académie des sciences, la revue Les Comptes Rendus de l’Académie des sciences est désormais accessible en ligne selon la formule du « libre accès diamant ». Ce modèle de publication rend disponibles en permanence tous les articles dans le monde entier, sans aucune charge financière, ni pour les lecteurs ni pour les auteurs. En outre, l’Académie autorise le dépôt des preprints en archives ouvertes. Fidèle à ses missions d’encouragement de la vie scientifique et de transmission des connaissances, l’Académie des sciences fait ainsi évoluer l’édition de ses revues scientifiques, afin de l’accorder avec les principes de la science ouverte, en collaboration avec le Muséum national d’Histoire naturelle,le CNRS et l’Université Grenoble Alpes.

 
En 2020, l’Académie des sciences a opéré la refonte complète de ses revues scientifiques : les sept séries des Comptes Rendus de l’Académie des sciences sont désormais accessibles gratuitement sur le site https://comptes-rendus.academie-sciences.fr/

Cette évolution fondamentale a pu être conduite par l’Académie grâce à l’établissement de deux partenariats fondateurs : 

  • Le centre Mersenne pour l’édition scientifique ouverte (CNRS – Université Grenoble Alpes)[1], plateforme d’édition pionnière de la science ouverte, a été choisi pour assurer l’édition des revues MathématiquePhysiqueMécaniqueChimieGéoscience et Biologies.  Ce partenariat s’inscrit dans le cadre d’un protocole d’accord, signé avec le CNRS le 28 octobre 2020, visant à mettre en place un dispositif de concertation et de coopération notamment en matière d’édition scientifique.
  • L’édition de la revue Palévol, quant à elle, a été confiée au Muséum national d’Histoire naturelle, dont l’expertise est une référence incontestée dans la communauté internationale des paléontologues taxonomistes et naturalistes. Ce partenariat entre l’Académie et le Muséum reflète la convergence historique des missions d’intérêt général des deux institutions. 

« Nous nous réjouissons des fructueuses collaborations établies entre l’Académie et ses prestigieux partenaires. Grâce à elles, ce projet complexe, qui nous tenait particulièrement à coeur, a pu voir le jour. Dans la perspective des objectifs stratégiques que l’Académie s’est fixés pour les années à venir, il ambitionne de poser les bases d’un renouveau de l’édition scientifique française », souligne Etienne Ghys, Secrétaire perpétuel de l’Académie des sciences. 

« Grâce à un fort soutien, notamment financier, du CNRS et à la mobilisation exceptionnelle de son équipe, le Centre Mersenne a réussi à relever avec enthousiasme le défi proposé par l’Académie des sciences. Ceci préfigure un partenariat renforcé qui fera de l’Académie des sciences, du CNRS, de l’Université Grenoble Alpes des acteurs majeurs de la science ouverte », précise Evelyne Miot, responsable scientifique du Centre Mersenne.

« Je ne peux que saluer avec enthousiasme et fierté la collaboration engagée entre l’Académie des sciences et le Muséum national d’Histoire naturelle », indique Bruno David, président du Muséum national d’Histoire naturelle. « La paléontologie a toujours été une discipline au cœur des recherches conduites au Muséum, une discipline qui a largement contribué à sa réputation internationale. L’arrivée de Palévol dans ce nouveau cadre partenarial vient ainsi s’inscrire dans le prolongement des actions de personnalités aussi prestigieuses que Lamarck, Cuvier, d’Orbigny, Gaudry et bien d’autres. Je souhaite le même succès à la belle revue qu’est Palévol ».

Les archives des articles publiés entre le 1er janvier 2000 et le 31 décembre 2019 dans les 7 revues des Comptes Rendus restent disponibles en libre accès sur le site d’Elsevier. Les archives antérieures, jusqu’en 1835, sont accessibles sur Gallica et bientôt sur Persée.

Les Comptes Rendus constituent un ensemble de 7 revues électroniques évaluées par les pairs. 

En 2020, la ligne éditoriale de certaines d’entre elles a été réorientée.

Comptes Rendus – Mathématique. Un nouveau souffle vient d’être apporté par l’enrichissement du comité éditoral et l’élargissement des objectifs éditoriaux. CR-Mathématique accueille désormais différents types de publications, et encourage particulièrement : les travaux de recherche originaux et significatifs ; les articles présentant de façon non technique ou synthétique des développements mathématiques importants ou d’actualité ; les textes présentant de façon globale des œuvres mathématiques importantes ; des numéros thématiques faisant le point sur diverses approches d’un même problème (par exemple pour rendre compte de colloques ou journées de travail) ; des textes de réflexion historique, philosophique ou didactique étroitement liés aux mathématiques. Rédacteurs en chef : Jean-Michel Coron, Jean-Pierre Demailly, Étienne Ghys, Laure Saint-Raymond.

Comptes Rendus – Physique couvre l’ensemble des domaines de la physique et de l’astrophysique et propose essentiellement des dossiers. Grâce à cette formule, qui est devenue une référence dans le domaine, les lecteurs trouvent dans chaque numéro la présentation d’un sujet en développement particulièrement rapide. Les auteurs sont choisis parmi les chercheurs les plus actifs et la coordination de chaque numéro thématique est assurée par un rédacteur en chef invité, garantissant la prise en compte des résultats les plus récents et significatifs. CR-Physique laisse également une place aux résultats nouveaux (sur recommandation d’un académicien), aux mises au point, et à la présentation des travaux des lauréats des prix de l’Académie. Rédacteurs en chef : Denis Gratias, Jacques Villain.

Comptes Rendus – Mécanique publie des articles originaux de recherche, des articles de revue, des numéros thématiques et des articles reflétant l’histoire de la discipline. La revue couvre l’ensemble des domaines de la mécanique : systèmes dynamiques / mécanique des solides / mécanique des fluides / acoustique, ondes, vibrations / automatique, traitement du signal. Les articles sont proposés sous la forme de notes originales relatant brièvement une découverte importante. La publication des résultats est rapide. Les numéros thématiques présentent les dossiers les plus à jour dans les domaines traités. Rédacteur en chef : Jean-Baptiste Leblond.

Comptes Rendus – Chimie a pour objectif de maintenir des échanges scientifiques de haut niveau entre les différentes sous-disciplines de la chimie. La revue publie des travaux de recherches originaux (notes, mémoires courts) et des articles de synthèse (mises au point, chroniques historiques) dans tous les domaines de la chimie. Les communications préliminaires doivent décrire des résultats nouveaux et importants, tandis que les articles complets doivent fournir une vue détaillée de nouveaux résultats. Dans tous les cas, les travaux doivent présenter un intérêt général élevé ou un intérêt spécialisé exceptionnel. La revue fait également une large place à des numéros thématiques, réunissant autour d’un rédacteur en chef invité, les meilleurs spécialistes du domaine considéré. Rédacteur en chef : Pierre Braunstein.

Comptes Rendus – Géoscience, qui couvre traditionnellement l’ensemble des domaines des sciences de la Terre (géophysique, géomatériaux, géochimie, géosciences de surface, océanographie, stratigraphie, tectonique, géodynamique…), élargit maintenant sa politique éditoriale en encourageant la publication d’articles traitant des « sciences de la Planète » au sens large. La revue s’ouvre davantage aux thématiques scientifiques au cœur des enjeux sociétaux et environnementaux actuels : risques naturels, approvisionnement énergétique et en métaux-matériaux, ressources en eau, pollutions, changement climatique, tant dans le domaine continental qu’océanique ou atmosphérique. La soumission d’articles interdisciplinaires est encouragée, pour mieux cerner les effets globaux des activités humaines sur le fonctionnement du « système Terre » . Rédacteurs en chef : Ghislain de Marsily et François Chabaux.

Comptes Rendus – Biologies voit en 2020ses objectifs profondément modifiés. Fidèle à l’esprit de son titre, la revue centre ses articles sur les activités scientifiques des membres ou des lauréats des prix de  l’Académie, qui sont très riches . Elle ne reçoit les soumissions d’articles de recherche que sur invitation, mais sollicite majoritairement les plus grands noms de la biologie pour des articles répartis en plusieurs rubriques : «  C’est paru dans la presse/ News and views  », « Articles et revues », « Notices biographiques », « Opinions et perspectives ». Cette dernière rubrique permet discussions et hypothèses  sur des sujets variés. Des numéros thématiques sur des thèmes d’actualité seront régulièrement programmés, tel celui sur la COVID 19 en cours d’élaboration. Les articles sont intégralement bilingues anglais/français et la publication est rapide. Rédacteurs en chef : Jean-François Bach, Pascale Cossart, Bernard Dujon, Jean-Dominique Lebreton.

Comptes Rendus – Palévol est une revue en flux continu, consacrée à la recheche en paléontologie, préhistoire et science de l’évolution. Elle publie des résultats originaux de recherche en systématique, paléotonlogie humaine, préhistoire, biologie évolutive, et macroévolution. La revue publie aussi des numéros thématiques sous la responsabilité de rédacteurs en chef invités. La convention de partenariat de coédition avec l’Académie permet de faire bénéficier CR-Palévol des normes de publication rigoureuses en vigueur pour les revues du Muséum, du respect des différents codes de nomenclatures et de la compatibilité directe avec les grandes bases de données internationales. Rédacteurs en chef : Philippe Taquet et Michel Laurin.

Créée par Colbert en 1666, l’Académie des sciences est une assemblée de scientifiques, choisis parmi les plus éminents spécialistes français et étrangers. Les réflexions et débats qu’elle conduit ont pour rôle de fournir à tous un cadre d’expertise, de conseil et d’alerte, vis-à-vis des enjeux politiques, éthiques et sociétaux que pose la science. En vertu de cette mission, elle œuvre au partage de la science en tant que bien commun pour éclairer les choix des citoyens, et formule des recommandations, sur lesquelles peuvent s’appuyer les autorités gouvernementales. Elle soutient en outre la recherche, s’engage pour la qualité de l’enseignement des sciences et encourage la vie scientifique sur le plan international.

Retrouvez-nous sur notre site web et nos réseaux sociaux

@AcadSciences

      

Délégation à l’information et à la communication de l’Académie des sciences

Sandra  Lanfranchi – +33 (0)1 44 41 43 35

presse@academie-sciences.fr


[1] Le centre Mersenne est une plateforme d’édition ouverte développée par la Cellule de coordination documentaire nationale pour les Mathématiques (Mathdoc, CNRS/UGA).

Pour départager deux candidats, vive la majorité simple !

Dans sa carte blanche, le mathématicien Etienne Ghys revient sur les différentes manières, des plus aux moins équitables, d’élire un représentant parmi deux concurrents.

https://www.lemonde.fr/sciences/article/2020/11/18/pour-departager-deux-candidats-vive-la-majorite-simple_6060148_1650684.html

Carte blanche. Les mathématiques peuvent-elles jeter un peu de lumière sur le feuilleton à rebondissements des élections américaines ? Imaginons une population qui vote pour deux candidats et supposons que les électeurs choisissent l’un ou l’autre à pile ou face. A l’issue du scrutin, on compte les bulletins et le candidat qui a le plus de voix est élu. Supposons maintenant que, lors du dépouillement, les scrutateurs font quelques erreurs (ou fraudent), par exemple en se trompant une fois sur 10 000. Quelle est la probabilité que ces petites erreurs faussent le résultat global et que l’autre candidat soit élu ? Il se trouve que cette probabilité est de l’ordre de 6 sur 1000 (pour les curieux, il s’agit de 2/π fois la racine carrée de 1/10 000). Est-ce un risque acceptable dans une démocratie ?

Les élections américaines sont à deux niveaux. Chaque Etat élit ses représentants à la majorité et ceux-ci élisent à leur tour le président. En supposant encore une erreur de lecture une fois sur 10 000 (ce qui est raisonnable quand on voit les bulletins de vote américains), quelle est la probabilité de fausser le résultat final ? L’existence de ce deuxième niveau fait que la probabilité est bien pire : une élection sur 20 serait faussée ! C’est beaucoup trop.

La « sensibilité au bruit »

Bien entendu, tout cela dépend d’hypothèses bien peu réalistes et n’accrédite en rien les allégations de fraude de Donald Trump ! Supposer que les électeurs choisissent à pile ou face n’a évidemment aucun sens, même si on peut être stupéfait par la quasi-égalité des résultats en Géorgie par exemple. Cela illustre cependant un phénomène mis en évidence par les mathématiciens il y a une vingtaine d’années : la « sensibilité au bruit » de divers processus de décision, qui vont bien au-delà des élections. Cela concerne tout à la fois l’informatique, la combinatoire, la physique statistique, ou les sciences sociales. Lorsqu’un grand nombre « d’agents », qui peuvent être des êtres humains ou des neurones par exemple, ont des « opinions », quels sont les bons processus qui permettent de prendre une décision globale de manière stable ? Cette stabilité signifie que l’on souhaite que la décision soit aussi insensible que possible au bruit, c’est-à-dire aux petites erreurs que l’on ne contrôle pas.

On peut imaginer beaucoup de processus électoraux. Par exemple, chaque quartier pourrait élire son représentant qui élirait ensuite le représentant de la ville, qui élirait son représentant dans le canton, puis le département, etc. Il s’agirait en quelque sorte d’un tournoi sportif, par étapes successives, un peu comme les élections américaines mais avec beaucoup plus de niveaux. Il se trouve que cette méthode est extrêmement sensible au bruit, et il faut absolument l’éviter. La moindre proportion d’erreurs dans le dépouillement entraînerait une très grande probabilité de se tromper sur le résultat final. C’est inacceptable pour un vote mais cela fait partie du charme des tournois sportifs : ce n’est pas toujours le meilleur qui gagne et c’est tant mieux.

Quelle est alors la meilleure méthode, celle qui est la plus stable ? La réponse est un peu désolante et montre que la question est mal posée. Il suffit de demander à un dictateur de décider seul. Cette « méthode » est en effet très stable car, pour changer le résultat, il faut une erreur sur le seul bulletin qui compte, ce qui arrive une fois sur 10 000. Il faut donc reformuler la question en cherchant parmi les méthodes équitables qui donnent le même pouvoir à tous les électeurs. Il y a une dizaine d’années, trois mathématiciens ont démontré dans ce cadre un théorème difficile qui n’est au bout du compte que du bon sens. Pour départager deux candidats, le vote à la majorité simple est la méthode la plus stable de toutes, parmi celles qui sont équitables. Vive la majorité !


Quelques références :

http://www.mit.edu/~izadik/files/Essay.pdf

https://arxiv.org/pdf/math/0412377.pdf

https://gilkalai.files.wordpress.com/2018/01/18-kalaix-7.pdf


Vaughan Jones, faiseur de nœuds et mathématicien ultracréatif

https://www.lemonde.fr/sciences/article/2020/09/30/vaughan-jones-faiseur-de-n-uds-et-mathematicien-ultracreatif_6054222_1650684.html


Lauréat de la médaille Fields en 1990, le Néo-Zélandais est décédé le 6 septembre 2020. Etienne Ghys lui rend hommage dans sa chronique au « Monde ».

Carte blanche. Le mathématicien Vaughan Jones est décédé le 6 septembre 2020 dans le Tennessee, aux Etats-Unis. Il avait reçu la médaille Fields à Kyoto en 1990. Il arrive parfois qu’un mathématicien établisse des ponts entre des domaines qu’on croyait totalement indépendants. Ce sont des moments de grâce dans le développement des mathématiques, réservés aux plus créatifs, comme Vaughan. Il ne faudrait pas croire cependant qu’il s’agisse d’eurêka ! qui surgissent tout à coup. Il faut presque toujours une longue maturation, peu compatible avec l’exigence d’immédiateté de notre système universitaire actuel. L’université de Genève a permis à Vaughan Jones de s’épanouir et de donner le meilleur de lui-même.

Vaughan arrive en Suisse en 1974 en provenance de Nouvelle-Zélande pour faire un doctorat en physique. Un jour, sa thèse presque achevée, il passe la porte du département de mathématiques et est fasciné par le cours d’André Haefliger : il abandonne la physique pour se lancer dans une thèse de mathématiques (même si, bien sûr, sa formation de physicien restera fondamentale). Il travaille sur les « algèbres de von Neumann », un domaine tellement abstrait que les espaces qu’on y étudie ont des dimensions qui ne sont pas des nombres entiers. Imaginez par exemple un espace dont la dimension est 3,14… ! Haefliger – son directeur de thèse – n’est pas spécialiste de ce sujet, ce qui est un signe de la grande originalité de l’étudiant et de l’ouverture d’esprit de son maître.

Le Suisse Pierre de la Harpe, qui connaît bien le sujet, deviendra un ami et un « grand frère mathématique » de Vaughan. A cette époque, le petit département de Genève était un bouillon de culture animé par quelques mathématiciens seniors exceptionnels qui luttaient contre toute forme de spécialisation exagérée. On y parlait beaucoup d’algèbre, de géométrie et d’analyse, très souvent dans le petit bistro italien au rez-de-chaussée. Le jour de la soutenance de Vaughan, en 1979, il était vêtu d’un smoking, ce qui contrastait avec la manière dont le jury était habillé. En 1990, lors de la cérémonie de remise de la médaille Fields, en présence d’autorités japonaises très formelles, il avait tenu en revanche à revêtir le maillot des All Blacks, par attachement à son origine néo-zélandaise.

Sidération des spécialiste

Après sa thèse, il s’établit aux Etats-Unis mais il repasse souvent à Genève. Un jour, après un de ses exposés, quelqu’un lui fait remarquer, peut-être au bistro italien, une analogie entre une relation qu’il a écrite au tableau et ce qu’on appelle le « groupe de tresses », que Vaughan ne connaissait pas. Il n’en fallait pas plus pour entrevoir un lien entre le sujet de sa thèse et un thème nouveau pour lui : la théorie des nœuds. Tout cela aboutira à une découverte majeure en 1984 : le « polynôme de Jones » associé à un nœud. Les nœuds, en mathématiques, sont ceux qu’on imagine, comme ceux des marins. La théorie mathématique des nœuds date du XIXe siècle et n’avait a priori rien à voir avec les algèbres de von Neumann. L’annonce par Vaughan d’une application importante de ces algèbres dans le domaine des nœuds engendrera une espèce de sidération parmi les spécialistes de la topologie. Il reçut la médaille Fields mais il fut aussi élu vice-président à vie de la Guilde internationale des faiseurs de nœuds, ce dont il était très fier.

La suite de sa carrière a été admirable. Depuis une vingtaine d’années, l’Ecole normale supérieure de Lyon organise un week-end mathématique regroupant une cinquantaine d’étudiants et un mathématicien expérimenté. En 2012, Vaughan Jones avait littéralement charmé les jeunes étudiants. Nous avons non seulement perdu un mathématicien brillant, mais aussi un modèle de générosité et d’ouverture pour la jeunesse

La pandémie de Covid-19 annonce-t-elle la fin du concept de laboratoire de mathématiques ?

https://www.lemonde.fr/sciences/article/2020/07/01/la-pandemie-de-covid-19-annonce-t-elle-la-fin-du-concept-de-laboratoire-de-mathematiques_6044863_1650684.html


Dans sa chronique au « Monde », le mathématicien Etienne Ghys constate que le confinement a brutalement accéléré, avec les téléconférences imposées, un processus de réduction des interactions physiques entre chercheurs.

Carte blanche. Les mois de confinement que nous venons de vivre vont probablement modifier de manière durable les modes de travail des chercheurs scientifiques, y compris ceux qui n’ont aucun rapport avec la biologie. Les mathématiciens, par exemple, n’utilisent pas de matériel expérimental, et leur présence physique au laboratoire peut ne pas sembler indispensable.Ils ont été parmi ceux pour lesquels le télétravail a été le plus facile à mettre en place.

Le site Researchseminars.org recense 739 exposés de mathématiques auxquels on peut participer par Internet, en pouvant interagir en direct avec les conférenciers, sur tous les sujets, à toute heure du jour et de la nuit, en profitant du décalage horaire. Cela ouvre des possibilités inédites de communication entre les chercheurs et accélère brutalement un processus qui évoluait lentement. On ignore les conséquences que cela aura sur la vie sociale de la communauté mathématique.

Les mathématiciens travaillent seuls, le plus souvent, mais ils ont bien entendu besoin d’échanger leurs idées avec d’autres collègues. Depuis un siècle, un outil majeur de communication est le séminaire de laboratoire. Il s’agit de réunions, en général hebdomadaires, pendant lesquelles on présente un nouveau résultat aux membres d’une équipe. En France, le premier séminaire a été créé en 1920 par Jacques Hadamard, professeur au collège de France. En début d’année universitaire, il invitait quelques mathématiciens chez lui et leur distribuait des articles de recherche récemment publiés qu’il fallait étudier. Il élaborait alors un programme annuel.

Le séminaire, une messe dominicale

A l’époque, le séminaire Hadamard était unique en France, mais aujourd’hui, toutes les équipes dans les laboratoires de mathématiques sont organisées autour de leurs séminaires. Leur rôle va bien au-delà de la transmission de connaissance : ce sont des événements sociaux qui soudent les équipes. On les compare parfois à la messe dominicale. Il arrive qu’on y participe par obligation, ou pour voir les amis et les collègues. Il faut dire qu’il n’est pas toujours facile de suivre une conférence de mathématiques et qu’on est souvent perdu, parfois dès les premières phrases.

Depuis une vingtaine d’années, Internet a, bien sûr, fait évoluer ces modes de communication. Tout d’abord, l’intégralité des journaux scientifiques est aujourd’hui accessible en ligne. Jadis, les mathématiciens se rendaient dans leur laboratoire pour être proches de leur bibliothèque, qui était leur véritable instrument de travail. C’est toujours le cas, mais les bibliothèques sont devenues virtuelles. Le courrier électronique, dont on abuse, a remplacé les lettres qu’on écrivait soigneusement en réfléchissant à chaque mot. Il n’est pas rare de voir des chercheurs, un casque sur la tête, en train de collaborer par Skype avec quelqu’un à l’autre bout de la planète, et oubliant d’aller discuter avec leurs collègues proches dans la salle commune du laboratoire.

Cette évolution progressive a bien entendu de grands avantages, mais aussi des inconvénients évidents. Les séminaires hebdomadaires « en présentiel » subsistaient cependant et permettaient de préserver le lien humain à l’intérieur des équipes. La pandémie a accéléré soudainement cette évolution : les séminaires ont dû se réunir par visioconférence, et il n’était plus nécessaire que les participants soient des membres d’un même laboratoire. Des listes de « web-séminaires mondiaux » sont apparues, proposant des quantités impressionnantes de conférences en direct, toutes plus alléchantes les unes que les autres. Cette évolution est probablement irréversible. Annonce-t-elle la fin du concept de laboratoire de mathématiques ? Ce serait dommage.

Cet été je vais participer à un colloque en Russie… sans sortir de chez moi.

La théorie de la percolation ou l’art de modéliser une pandémie

https://www.lemonde.fr/sciences/article/2020/05/12/la-theorie-de-la-percolation-ou-l-art-de-modeliser-d-une-pandemie_6039452_1650684.html


Le mathématicien Etienne Ghys détaille la théorie établie par deux chercheurs britanniques en 1957 pour comprendre la propagation d’un fluide dans un milieu aléatoire. Comme toute modélisation, elle nécessite de jongler avec pas mal d’inconnues.

Carte blanche. De nombreux articles ont décrit le développement d’une épidémie au cours du temps, avec une croissance exponentielle du nombre de nouveaux cas au début, puis le fameux pic, et enfin la décroissance tant attendue. On a moins discuté de la contagion à travers un territoire.

La théorie mathématique de la percolation s’intéresse à ce genre de problème. Le mot vient du latin percolatio signifiant « filtration » et il évoque bien sûr le percolateur à café : l’eau bouillante sous pression trouve son chemin à travers les particules de café moulu, comme un virus trouve son chemin dans une population.

La théorie est née en 1957 dans un article de deux chercheurs britanniques, John Michael Hammersley et Simon Ralph Broadbent. Leur motivation initiale concernait les masques respiratoires dont on parle tant en ce moment. Dans leur cas, il s’agissait des masques de protection pour les mineurs de charbon. Le filtre poreux est assimilé à un réseau régulier de tubes très fins interconnectés dont un certain nombre sont bouchés, de manière aléatoire, et il s’agit de comprendre si un gaz peut traverser un tel labyrinthe.

Déterminer la probabilité critique

Plus généralement, ces chercheurs étudient la propagation d’un fluide dans un milieu aléatoire. L’un de leurs exemples est un modèle très simple d’épidémie. Il s’agit d’un verger immense, dans lequel des arbres fruitiers sont plantés régulièrement en formant un réseau carré. On suppose qu’à un certain moment l’un des arbres est atteint d’une maladie qu’il peut potentiellement transmettre à ses voisins. Chaque arbre malade peut contaminer chacun de ses quatre voisins avec une certaine probabilité p (d’autant plus faible que les arbres respectent la « distanciation sociale »).

Comment l’épidémie va-t-elle se propager ? Hammersley et Broadbent démontrent que si p ne dépasse pas une certaine valeur critique, l’épidémie reste localisée : ce sont les clusters dans lesquels la contamination n’atteint qu’un petit groupe d’arbres. Lorsqu’on dépasse cette valeur critique, la maladie envahit brusquement une grande partie du verger (infinie si le verger est infini) et c’est la pandémie.

Bien entendu, ce théorème n’a d’intérêt que si l’on peut déterminer cette probabilité critique. Des simulations numériques suggéraient que la transition cluster-pandémie se passe pour p = 0,5, et il a fallu attendre 1980 pour que cela soit rigoureusement établi. Hélas, on ne connaît ce genre de résultat précis que dans des cas très simples, comme celui du verger régulièrement planté. Dès que les arbres sont plus ou moins dans le désordre, on comprend moins bien le phénomène.

Informations très partielles

Dans le cas qui nous intéresse, les arbres sont des individus en chair et en os qui ne sont heureusement pas plantés régulièrement et qui se déplacent. De plus, le nombre de contacts d’un individu, c’est-à-dire le nombre de personnes qu’il rencontre dans une journée, et qu’il peut potentiellement contaminer, est extrêmement variable d’un individu à l’autre. Cela dépend de l’endroit où il habite, de son âge, et de bien d’autres paramètres.

On ne dispose que d’informations très partielles sur les statistiques de ces contacts. Enfin, un dernier problème se présente : lorsqu’un malade rencontre une personne saine, la probabilité de contamination est également variable, et mal connue.

Pour bien faire, il faudrait connaître précisément un grand nombre de paramètres dont beaucoup sont inaccessibles. Le modélisateur doit sélectionner un petit nombre d’entre eux qui lui semblent les plus pertinents, et dont il a une connaissance raisonnable. Il lui faut alors déterminer si les autres paramètres – qu’il connaît mal – pourraient avoir une influence importante sur le résultat de ses prévisions. Ce n’est pas facile. La modélisation mathématique est tout un art.

Epidémies : aplatir les exponentielles

https://www.lemonde.fr/sciences/article/2020/03/25/epidemies-aplatir-les-exponentielles_6034339_1650684.html

Carte blanche. Ces derniers jours auront au moins permis aux Français de comprendre dans leur chair ce qu’est une exponentielle. Nous avons tous pris conscience que les puissances de 2 croissent vraiment vite : 1, 2, 4, 8, 16, 32, 64, etc., pour dépasser le milliard en à peine 30 étapes. On sait moins que, si le nombre de nouvelles infections dans une épidémie double tous les trois jours, la moitié des personnes infectées depuis le début de l’épidémie l’ont été depuis moins de trois jours. La fonction exponentielle a des aspects terrifiants.

Le premier scientifique qui a mis en évidence ce type de croissance est Leonhard Euler, en 1760, dans un article important intitulé « Recherches générales sur la mortalité et la multiplication du genre humain ». En 1798, Thomas Malthus comprend que la croissance exponentielle est une menace pour l’humanité. Heureusement, en 1840, Pierre-François Verhulst découvre la « croissance logistique », qui permet de comprendre pourquoi les exponentielles doivent finir par se calmer. Il s’agit de la courbe qui fut présentée si clairement sur un plateau de télévision par notre ministre de la santé.

Dans une croissance purement exponentielle, le nombre de nouveaux cas de contamination est proportionnel au nombre de personnes contaminées. En formule, la dérivée y’ du nombre de cas y est proportionnelle à y, ce qui se traduit par une équation diaboliquement simple y’ = ay, dont la solution exponentielle y = exp (at) rappelle peut-être des souvenirs au lecteur. Le coefficient « a » dépend du nombre moyen de contacts que nous avons : plus il est grand et plus l’exponentielle explose rapidement.

Courbe en cloche

Dans une croissance logistique, le nombre de nouveaux cas de contamination est proportionnel au nombre de personnes déjà contaminées, mais aussi au nombre de personnes contaminables, c’est-à-dire qui n’ont pas déjà été contaminées. Heureusement, le nombre de personnes contaminables diminue au fur et à mesure de l’épidémie, et l’évolution s’infléchit.

En formule, y’ = ay (1-y/b)b désigne la population totale. Dans ce modèle, le nombre de nouveaux cas suit la courbe en cloche dessinée par le ministre. Une croissance exponentielle au début (quand le nombre de cas est encore petit), puis un maximum, et enfin une décroissance. Le seul paramètre sur lequel nous pouvons agir est ce coefficient « a » qui semble anodin, lié au nombre moyen de nos contacts. Lorsqu’on diminue « a », la courbe garde la même allure, mais elle s’aplatit. Certes le pic arrive plus tard, mais il sera moins haut. L’épidémie dure plus longtemps, mais elle est moins meurtrière. Voilà pourquoi il faut rester chez soi !

Au XVIIIe siècle, on se posait la question de l’intérêt de l’inoculation pour lutter contre la variole, qui avait décimé près de la moitié des Européens. Il s’agissait d’une version très primitive de la vaccination, mais qui présentait des dangers pour les patients inoculés (contrairement à la vaccination). Le mathématicien Daniel Bernoulli écrira un article intitulé « Essai d’une nouvelle analyse de la mortalité causée par la petite vérole, et des avantages de l’inoculation pour la prévenir » qui démontre mathématiquement que l’inoculation est bénéfique. Hélas, il ne sera pas écouté.

Quelques années plus tard, l’article « Inoculation » de l’encyclopédie de Diderot et d’Alembert affirmera : « Quand il s’agit du bien public, il est du devoir de la partie pensante de la nation d’éclairer ceux qui sont susceptibles de lumière, et d’entraîner par le poids de l’autorité cette foule sur qui l’évidence n’a point de prise. »

C’est peut-être vrai, mais c’est encore plus vrai quand « la partie pensante » explique clairement ses choix en traçant une courbe sur un plateau de télévision.