9h00-10h00     Jean-François Marckert, Labri, Université de Bordeaux I
                             Lien entre pics et positions dans les processus de Bernoulli
On s'intéresse à quatre familles de trajectoires formées de pas +1 et -1 commençant en 0: les marches de Bernoulli, les excursions (chemins de Dyck), les méandres (préfixes de chemin de Dyck), les ponts (chemins terminant en 0). On appelle pic, un maximum local. Le nombre standard de pics dans chacune de ces familles est n/4 (pour des trajectoires de longueur n): on a même un TCL avec variance lineaire. Du côté des trajectoires, on a également un comportement asymptotique: divisées par racine carrée de n en espace et par n en temps, elles convergent, selon la famille, vers le mouvement Brownien, le méandre Brownien, l'excursion Brownienne ou le pont Brownien. Le but de l'exposé est de répondre à la question suivante: quelle est l'influence du nombre de pics dans le comportement asymptotique des familles décrites plus haut? (c'est-à-dire, comment se comportent ces trajectoires si on les conditionne à avoir k=k(n) pics? et quel est, asymptotiquement, le lien entre "la répartition des pics" et les valeurs prises par les trajectoires?)
11h00-11h30      Cyril Banderier, CNRS, Institut Galilée, Université Paris 13
                             Fonction d'Airy, méthode du noyau et aire sous les chemins
Dans cet exposé (qui est basé sur un travail en cours avec Bernhard Gittenberger, TU Wien), je montrerai comment notre bonne vieille ``méthode du noyau'' permet d'obtenir l'aire moyenne de chemins de Dyck généralisés, et notamment que tous les moments sont algébriques ! Dans le classique cas des chemins de Dyck, on se place sur le réseau \mathbb{N}\times\mathbb{N}, on part de l'origine, puis on fait des sauts (+1,-1) ou (+1,-1). On peut s'imposer (ou non) de revenir sur la ligne y=0, qui est donc une "barrière" de la marche. Les chemins de Dyck généralisés sont l'équivalent, avec un ensemble de sauts (+1,+y), où y appartient à un ensemble fini Y d'entiers positifs ou négatifs. Le cas Y=(-1,0,+1) correspond aux chemins de ``Motzkin'',\\ le cas Y=(-1,+1,+2) aux arbres binaires-ternaires,\\ le cas Y=(+2,-3) aux célèbres ``clubs de Duchon'',\\ le cas Y=(+13,+2,-3,-5) à une marche de dérive 7\dots Notre méthode de résolution consiste à annuler un "noyau", afin de résoudre une équation fonctionnelle qui a plus d'inconnues que d'équations... à priori ! Avec Ph. Flajolet, nous avons étudié via cette méthode différents paramètres (retours en zéro, altitude finale) de tels chemins ``dirigés'' : http://www-lipn.univ-paris13.fr/~banderier/Papers/tcs.ps Pour l'aire, cette méthode s'avère encore l'approche clef, non seulement pour l'énumération, mais surtout pour l'asymptotique. Couplée à l'analyse de singularité, elle nous permet en effet d'obtenir un développement asymptotique (à n'importe quel ordre) pour l'aire moyenne. Nous donnons des formules explicites pour l'im\-por\-tan\-te classe des chemins de ``{\L}ukasiewicz'' (juste -1 comme saut négatif, ce qui corres\-pond à la bijection classique entre arbre d'arité fixée et chemins aléatoires). Bien sûr, la ``dérive'' de la marche joue un rôle, et je vous laisse parier sur l'aire moyenne d'une marche à dérive négative, frustrée par la barrière y=0 (un méandre brownien réfléchi à dérive négative, donc on conditionne sur une probabilité nulle)~: aire en O(n^2), O(n^{3/2}), O(n), O(\sqrt n), O(1), \dots ?
11h30-12h00      Julien Clément, GREYC Université de Caen
                             Codes préfixes optimaux pour quelques familles de distributions géométriques en deux dimensions
Cet exposé concerne la compression sans perte de données d'un texte dont les symboles sont les entiers naturels et suivent une loi de distribution géométrique pour un paramètre q donné. Les codes préfixes optimaux pour cette classe de distributions sont nommés codes de Golomb et sont très utilisés en pratique. Dans le but d'améliorer le codage on peut considérer un code portant sur des blocs de symboles. On traitera le cas des blocs de deux symboles qui mène à des codes préfixes optimaux aux propriétés intéressantes.
12h00-12h30     Florin Avram, Département de Mathématiques, Université de Pau
                             Solution exacte et asymptotique à un problème de premier passage multidimensionnel motivé par la réassurance
Typiquement, les problèmes concernant la sortie d'une marche aléatoire bidimensionnelle d'un polyèdre n'admettent pas des solutions analytiques. On peut obtenir une certaine équation qui lie la transformée de Laplace bidimensionelle à ses restrictions sur les bords du domaine, mais on n'est pas capable en général d'obtenir sa solution; typiquement, seulement des approximations des grandes déviations logarithmiques (non-précises) sont disponibles. Nous obtenons ici un résultat exact  pour la probabilité de ruine éventuelle dans le cas des sauts exponentiels, ainsi que des approximations des grandes déviations précises pour les cas des sauts de Cramer, pour un modèle multidimensionnel motivé par la réassurance. Nous supposons que deux ou plusieurs compagnies partagent les primes et les montants Z_i qu'elles paient pour chaque sinistre en proportions données p=(p_1,p_2) et \delta=( \delta_1, \delta_2) avec \delta_1+ \delta_2=1. Le résultat est un processus de Lévy bi-dimensionnel X_i(t):=p_i t+x_i-\delta_i S(t), i=1, 2 où le processus de Poisson composé S(t)= Z_1+\cdots+Z_{N(t)} représente le montant cumulé des sinistres, Z_i sont des variables aléatoires { i.i.d.} ( "les sinistres"), N_t est un processus de comptage de Poisson indépendant de Z_i, et x_i, p_i sont les réserves initiales et les taux de prime. Ce processus est dégénéré, dans le sens où il change  seulement le long des directions p, \delta, et il s'avère que ses probabilités de ruine peuvent être exprimées comme fonction des probabilités de ruine de ses coordonnées.
14h15-14h30}     Raphaël Rossignol, Institut de Mathématiques, Université de Neuchâtel
                             Absence de clusterisation dans le problème 2-SAT
La clusterisation des solutions dans certains problèmes de satisfaction de contraintes est prédite par les méthodes physiques comme celle de la cavité. Intuitivement, cette clusterisation correspond à la naissance de groupes de solutions proches les unes des autres, chaque groupe étant loin des autres. Cependant, d'un point de vue mathématique, la définition de la clusterisation n'est pas encore énoncé de manière satisfaisante. Un premier niveau, fort, de clusterisation, a été démontré par Cocco, Dubois et Monasson pour le problème 3-XORSAT. Nous montrons que cette clusterisation n'apparaît pas dans le problème 2-SAT. Nous montrons également qu'avant la moitié du seuil de satisfaisabilité, même une clusterisation de niveau plus faible ne peut avoir lieu. Cette notion de clusterisation faible est liée à la vitesse de convergence dans une dynamique de type recuit simulé.
14h30-15h00      Hervé Daudé, CMI, Université de Provence
                             Sensibilité des fonctions booléennes et insatisfaisabilité des CSP aléatoires
Dans cet exposé, nous présenterons de nouvelles bornes supérieures de seuil pour la transition SAT/INSAT associée aux problèmes de satisfaction de contraintes. Nous montrerons comment la sensibilité des contraintes pilote le nombre moyen de solutions localement maximales, le traitement analytique soulignera l'influence de ce nouveau facteur de transition.
15h00-15h30      Frédéric Giroire, ALGO, INRIA-Rocquencourt
                             Estimer la cardinalité de grands multi-ensembles en utilisant des statistiques d'ordres
Le problème considère ici est d'estimer le nombre d'éléments distincts n, ou cardinalité, de très grands multi-ensembles de taille N. Les algorithmes de comptage exact utilisent une mémoire en O(n) et ont un temps d'exécution en O(N \log n). Or notre motivation pour ce problème vient de l'analyse de très grandes bases de données ou du trafic internet. Dans ces domaines le volume gigantesque des données considérées rend impossible l'emploi d'algorithmes avec une mémoire linéaire. Les liens des réseaux internet ``backbone'', comme OC-192 des réseaux SONET, peuvent avoir une capacité de 10 Gbps. Les seuls algorithmes qui peuvent être utiles doivent avoir une mémoire constante et ne faire qu'une passe sur les données. L'idée principale est de transformer le problème en un problème probabiliste. Il ne s'agit plus de chercher le nombre exact de mots distincts, mais une estimée de ce nombre avec une précision donnée. On introduit ici plusieurs classes d'algorithmes pour répondre a ce problème. Elles atteignent une erreur standard de 1/\sqrt M en utilisant M unités de mémoire.