Comme tout le monde, les mathématiciens se demandent si ChatGPT va transformer leur activité en profondeur. Les premiers essais ne sont pas concluants et encouragent certains à rejeter complètement cet outil. Il est vrai que l’on constate des erreurs inquiétantes.
Alors que je demandais à GPT de m’indiquer quelques exemples de théorèmes importants, il m’expliqua d’abord que la question était délicate, car tout le monde n’est pas d’accord sur le sens du mot « important » dans ce contexte, mais qu’il allait me citer trois exemples qui lui semblaient consensuels. C’était un excellent début.
Lire aussi : Article réservé à nos abonnés « ChatGPT, une intelligence affabulatrice d’autant plus redoutable qu’elle fabrique des pastiches de science assez remarquables »
Les deux premiers exemples étaient tout à fait pertinents, mais le troisième m’a fait sursauter. Certes, il s’agissait d’un théorème fondamental, mais GPT l’attribuait à Jean-Pierre Serre en 1974, alors que tout mathématicien, même débutant, sait qu’il est dû à Evariste Galois en… 1832. Tout cela avait l’air sérieux, et un lecteur non averti se serait fait abuser.
Lorsque j’ai demandé une démonstration du théorème de Pythagore, j’ai reçu une preuve rédigée parfaitement, comme une démonstration rigoureuse. GPT abaissait une hauteur du triangle rectangle pour le décomposer en deux triangles rectangles plus petits, et il appliquait ensuite… le théorème de Pythagore à chacun d’eux !
Un cercle vicieux dans une démonstration est bien sûr inacceptable. Comment une « intelligence » artificielle a-t-elle pu « imaginer » un tel sophisme ? Peut-être en allant chercher ses « idées » sur un site Internet, quelque part sur le Web, qui contiendrait des listes de preuves fausses, intentionnelles ou non. Apprenons à nos étudiants à ne pas se laisser berner par ces démonstrations parfaitement rédigées mais complètement fausses, parfois de manière plus subtile.
Lire aussi : Article réservé à nos abonnés Au-delà de l’intelligence artificielle, le chatbot ChatGPT doit ses talents d’orateur à l’humain
Il ne faudrait pas, cependant, jeter le bébé avec l’eau du bain. D’une part, il n’y a aucun doute que GPT va progresser très rapidement. Je ne me suis pas privé, par exemple, de critiquer vertement sa preuve du théorème de Pythagore, et j’ose espérer qu’il ne commettra plus cette erreur grossière. Mais, surtout, il nous faut apprendre à l’utiliser comme un assistant, qui connaît beaucoup de choses.
Recherche d’analogies
La littérature mathématique devient tellement immense qu’il est presque impossible de s’y retrouver. Des avalanches d’articles de plus en plus longs et de plus en plus techniques inondent chaque jour les bases de données de prépublications. GPT pourrait nous aider à résumer des travaux de façon à sélectionner ceux qui méritent un examen plus approfondi. Surtout, il nous permettra bientôt de chercher des analogies.
Aujourd’hui, le chercheur navigue à vue dans la littérature scientifique en passant d’un article à un autre, qu’il a trouvé dans la bibliographie du précédent. Heureusement, les discussions entre collègues nous mettent souvent sur de nouvelles pistes, souvent prometteuses, même si elles peuvent parfois se révéler être des impasses.
De même, ne pourrions-nous pas considérer GPT comme un collègue imaginaire qui aurait tout lu, y compris ce qui est faux, et qui pourrait nous suggérer des idées intéressantes ? Bien entendu, cela ne nous autorise pas à baisser la garde sur la pertinence et la véracité de ce qu’il nous souffle à l’oreille.
GPT peut même imiter l’humour décalé des mathématiciens. Je devais faire une conférence le 1er avril et je cherchais une idée de poisson d’avril. Voici la proposition de GPT : « Vous annoncez que vous avez résolu l’hypothèse de Riemann [l’un des problèmes ouverts les plus célèbres], que la solution est si courte que vous avez pu la rédiger sur un petit morceau de papier que vous brandissez devant l’assistance, mais que vous ne souhaitez pas la rendre publique. Puis vous avalez le papier. » GPT aurait-il de l’humour ?