Depuis leur introduction par Rissanen en 1983 dans le champ de la théorie de l'information, les modèles à arbre de contextes (ou VLMC, pour Variable Length Markov Chains) ont suscité un intérêt constant d'un point de vue tant pratique que théorique. Ces modèles présentent en effet un double intérêt particulièrement remarquable : comme généralisation des chaînes de Markov, ils héritent de leur pouvoir d'approximation de tout processus stationnaire ergodique et leur gestion tant algorithmique que théorique est très efficace (cf. les procédés de simulation exacte présentés par Antonio Galves); en autorisant l'ordre markovien à dépendre du passé, ils prennent en compte l'inhomogénéité de la mémoire et proposent bien plus de modèles pour le même nombre de paramètres.
On comprend dès lors leur puissance tant pour la compression données (Aurélien Garivier parlera de l'algorithme Context Tree Weighting) que pour le traitement des séquences biologiques (cf. les exposés de Bernard Prum et Pierre-Yves Bourguignon) ou la classification de textes (via les méthodes à noyaux présentés par Jean-Philippe Vert). En ce qui concerne en particulier l'estimation de la structure de mémoire d'un processus, l'étude de convergence asymptotique entamée par Rissanen de l'algorithme Context est depuis peu complétée par d'importants travaux sur les vitesses de convergence (cf. les exposés de Florencia Leonardi et Véronique Maume-Deschamps) aboutissant à l'obtention de bornes exponentielles.
Exposés de 45 minutes en français suivis de discussions informelles.
Table ronde sur les perspectives de recherche entre 12h30 et 14h et à partir de 17h45.