|
|
Conférences plénièresVincent Bansaye, CMAP, École PolytechniqueFichier de présentationTitre : Processus de branchement et structure des contacts pour des modèles aléatoires en épidémiologie Les processus de branchement apparaissent dans de nombreux modèles de dynamique des populations, notamment pour décrire des invasions. En particulier, ils interviennent dans la description des épidémies pour déterminer si le nombre d’infectés va exploser ou non et si oui à quelle vitesse. Dans ces modèles, la description des contacts joue un rôle important. Après une introduction sur ces problématiques, nous nous focaliserons sur un modèle incluant le traçage des contacts. Dans ce modèle, les individus infectent en population mélangée à taux fixe et l’information sur le contact infectieux est perdu à taux fixe, tandis que le test d’un individu infecté aboutit à l’isolement de la composante connexe associée aux contacts encore connus. Grâce à une propriété d’ « éclatement» des arbres récursifs uniformes, nous pourrons réduire le modèle à un processus de croissance fragmentation isolation sur les tailles des composantes. Nous présenterons et exploiterons alors des techniques récentes d’analyse quantitative des semi groupes non conservatifs. Cela permettra d’obtenir des convergences fortes pour décrire la propagation de l’épidémie. Enfin, nous évoquerons des extensions de ce modèle et la prise en compte d’une structuration spatiale des contacts via de grands graphes aléatoires spatialisés, impliquant des techniques d’homogénéisation stochastique. Ces travaux sont respectivement des collaborations avec Chenlin Gu et Linglong Yuan, Michele Salvi et Elisabeta Vergu. Gérard Biau, LPSM, Sorbonne UniversitéTitre : Limite d'échelle pour les réseaux neuronaux résiduels profonds Les réseaux neuronaux résiduels (ResNets) profonds sont reconnus pour les résultats exceptionnels qu'ils obtiennent dans des tâches d'apprentissage automatique complexes. Les performances remarquables de ces architectures reposent cependant sur une procédure d'apprentissage délicate, qui doit être soigneusement mise en oeuvre afin d'éviter que les gradients ne s'annulent ou n'explosent, en particulier lorsque la profondeur $L$ augmente. Il n'existe pas, à ce jour, de consensus clair sur la façon de régler cette difficulté, bien qu’une stratégie classique consiste à multiplier la sortie de chaque couche par un facteur d'échelle $\alpha_L$. Nous montrerons dans cet exposé qu'avec des initialisations i.i.d. standards, la seule dynamique intéressante se produit pour $\alpha_L= 1/\sqrt L$, tous les autres choix conduisant à des comportements moins pertinents pour l'apprentissage. Ce facteur d'échelle correspond dans la limite temps continu à une équation différentielle stochastique, contrairement à une interprétation répandue selon laquelle les ResNets profonds sont des discrétisations d'équations différentielles ordinaires (dites neuronales). Pour ce dernier régime, la stabilité est obtenue avec des initialisations corrélées bien spécifiques et $\alpha_L= 1/L$. Au final, notre analyse suggère une interaction forte entre le facteur d'échelle $\alpha_L$ et la régularité des poids en fonction de l'indice des couches. En collaboration avec Adeline Fermanian (Mines ParisTech), Pierre Marion (Sorbonne Université) et Jean-Philippe Vert (Google Research).
Jean-François Coeurjolly, LJK, Université Grenoble AlpesTitre : Régularisation et processus ponctuels spatiaux L'analyse de processus ponctuels commence en général par l'estimation de la fonction d'intensité ou d'intensité conditionnelle (de Papangelou). Les méthodes paramétriques usuelles reposent sur des vraisemblances composites, quasi-vraisemblance, pseudo-vraisemblance ou régression logistique conditionnelle par exemple. La mise en place et l'étude de ces méthodes constituent des problèmes largement traitées dans la littérature. Ceux-ci peuvent être considérés comme résolus tant d'un point de vue pratique que théorique pour des processus de points (inhomogènes) de "taille" modérée. Ces dernières années ont vu l'émergence de processus de points de grande dimension dans diverses applications. Par grande dimension, nous entendons dans cet exposé, observer une seule réalisation d'un motif de points dont on souhaite relier l'arrangement avec un très grand nombre de covariables spatiales. L'inférence devient alors problématique et il apparaît souhaitable et naturel de pénaliser les méthodes citées précédemment pour estimer les paramètres. Je discuterai comment ces idées sont appliquées dans le cadre de l'estimation d'intensité ou intensité conditionnelle, comment ces méthodes peuvent être implémentées et quels sont les types de résultats que nous pouvons obtenir. (Travaux joints en partie avec I. Ba, A. Choiruddin, F. Letué, F. Cuevas Pacheco, M.-H. Descary and R. Waagepetersen)
Christophe Garban, ICJ, Université Lyon 1Titre : Brisure de symétrie continue et problème de synchronisation Dans cet exposé, je commencerai par introduire des systèmes de spins sur Z^d dont la symétrie sous-jacente est continue (par opposition au célèbre modèle d'Ising dont la symétrie sigma -> - sigma est discrète). Irène Marcovici, IECL, Université de LorraineTitre : Automates cellulaires et phénomènes d'auto-organisation Les automates cellulaires sont des systèmes dynamiques pour lesquels le temps et l'espace sont discrets. Ils permettent de modéliser l'évolution d'un ensemble de composantes interagissant entre elles de manière locale : au cours du temps, chacune actualise son état en fonction de ce qu'elle perçoit de son voisinage.
En étudiant certains automates cellulaires, on peut observer des phénomènes d'auto-organisation : à partir d'un état initial désordonné, les mises à jour successives des cellules par la règle locale conduisent à l'apparition d'une structure macroscopique.
À l'inverse, si l'on souhaite parvenir à un certain comportement global, on peut chercher à concevoir une règle locale permettant de l'atteindre de manière décentralisée. J'exposerai différents problèmes de ce type (obtention de consensus, synchronisation, correction d'erreurs, diagnostic de défaillances dans un réseau...), en étudiant l'influence que peut avoir l'introduction d'aléa dans les dynamiques. Mathieu Rosenbaum, CMAP, École PolytechniqueTitre : Rough volatility: quand les outils de dynamique des populations permettent de comprendre les fluctuations financières Dans cet exposé, nous présenterons les éléments statistiques et probabilistes ayant conduit à l'introduction du paradigme ''rough volatility'' pour la modélisation des actifs financiers et la gestion de leurs risques. Nous nous intéresserons notamment à l'universalité de cette approche que nous pourrons expliquer grâce à l'utilisation d'outils probabilistes issus des modèles de dynamique des populations. |
Personnes connectées : 2 | Vie privée |