Conférences plénières

VBansaye

Vincent Bansaye, CMAP, École Polytechnique

Fichier de présentation

Titre : Processus de branchement et structure des contacts pour des modèles aléatoires en épidémiologie


Les processus de branchement apparaissent dans de nombreux modèles de dynamique des populations, notamment pour décrire des invasions. En particulier, ils interviennent dans la description des épidémies pour déterminer si le nombre d’infectés va exploser ou non et si oui à quelle vitesse. Dans ces modèles, la description des contacts joue un rôle important. Après une introduction sur ces problématiques, nous nous focaliserons sur un modèle incluant le traçage des contacts. Dans ce modèle, les individus infectent en population mélangée à taux fixe et l’information sur le contact infectieux est perdu à taux fixe, tandis que le test d’un individu infecté aboutit à l’isolement de la composante connexe associée aux contacts encore connus. Grâce à une propriété d’ « éclatement» des arbres récursifs uniformes, nous pourrons réduire le modèle à un processus de croissance fragmentation isolation sur les tailles des composantes. Nous présenterons et exploiterons alors des techniques récentes d’analyse quantitative des semi groupes non conservatifs. Cela permettra d’obtenir des convergences fortes pour décrire la propagation de l’épidémie. Enfin, nous évoquerons des extensions de ce modèle et la prise en compte d’une structuration spatiale des contacts via de grands graphes aléatoires spatialisés, impliquant des techniques d’homogénéisation stochastique.
 Ces travaux sont respectivement des collaborations avec Chenlin Gu et Linglong Yuan, Michele Salvi et Elisabeta Vergu.

GBiau

Gérard Biau, LPSM, Sorbonne Université

Fichier de présentation

Titre : Limite d'échelle pour les réseaux neuronaux résiduels profonds

Les réseaux neuronaux résiduels (ResNets) profonds sont reconnus pour les résultats exceptionnels qu'ils obtiennent dans des tâches d'apprentissage automatique complexes. Les performances remarquables de ces architectures reposent cependant sur une procédure d'apprentissage délicate, qui doit être soigneusement mise en oeuvre afin d'éviter que les gradients ne s'annulent ou n'explosent, en particulier lorsque la profondeur $L$ augmente. Il n'existe pas, à ce jour, de consensus clair sur la façon de régler cette difficulté, bien qu’une stratégie classique consiste à multiplier la sortie de chaque couche par un facteur d'échelle $\alpha_L$. Nous montrerons dans cet exposé qu'avec des initialisations i.i.d. standards, la seule dynamique intéressante se produit pour $\alpha_L= 1/\sqrt L$, tous les autres choix conduisant à des comportements moins pertinents pour l'apprentissage. Ce facteur d'échelle correspond dans la limite temps continu à une équation différentielle stochastique, contrairement à une interprétation répandue selon laquelle les ResNets profonds sont des discrétisations d'équations différentielles ordinaires (dites neuronales). Pour ce dernier régime, la stabilité est obtenue avec des initialisations corrélées bien spécifiques et $\alpha_L= 1/L$. Au final, notre analyse suggère une interaction forte entre le facteur d'échelle $\alpha_L$ et la régularité des poids en fonction de l'indice des couches.

En collaboration avec Adeline Fermanian (Mines ParisTech), Pierre Marion (Sorbonne Université) et Jean-Philippe Vert (Google Research).

 

JFCoeurjolly

Jean-François Coeurjolly, LJK, Université Grenoble Alpes

Fichier de présentation

Titre : Régularisation et processus ponctuels spatiaux

L'analyse de processus ponctuels commence en général par l'estimation de la fonction d'intensité ou d'intensité conditionnelle (de Papangelou). Les méthodes paramétriques usuelles reposent sur des vraisemblances composites, quasi-vraisemblance, pseudo-vraisemblance ou régression logistique conditionnelle par exemple. La mise en place et l'étude de ces méthodes constituent des problèmes largement traitées dans la littérature. Ceux-ci peuvent être considérés comme résolus tant d'un point de vue pratique que théorique pour des processus de points (inhomogènes) de "taille" modérée. Ces dernières années ont vu l'émergence de processus de points de grande dimension dans diverses applications. Par grande dimension, nous entendons dans cet exposé,  observer une seule réalisation d'un motif de points dont on souhaite relier l'arrangement avec un très grand nombre de covariables spatiales. L'inférence devient alors problématique et il apparaît souhaitable et naturel de pénaliser les méthodes citées précédemment pour estimer les paramètres. Je discuterai comment ces idées sont appliquées dans le cadre de l'estimation d'intensité ou intensité conditionnelle, comment ces méthodes peuvent être implémentées et quels sont les types de résultats que nous pouvons obtenir. (Travaux joints en partie avec  I. Ba, A. Choiruddin, F. Letué, F. Cuevas Pacheco, M.-H. Descary and R. Waagepetersen)

 

CGarban

Christophe Garban, ICJ, Université Lyon 1

Titre : Brisure de symétrie continue et problème de synchronisation

Dans cet exposé, je commencerai par introduire des systèmes de spins sur Z^d dont la symétrie sous-jacente est continue (par opposition au célèbre modèle d'Ising dont la symétrie sigma -> - sigma est discrète).
Le but de l'exposé sera d'expliciter un lien surprenant qui est apparu récemment entre ces modèles de physique statistique et des questions de statistique bayésienne / reconstruction statistique.  J'introduirai une nouvelle technique pour identifier un ordre à longue portée dans ces systèmes de spins à basse température ("brisure de symétrie") qui est basée sur le concept de "group synchronization" et repose en particulier sur un travail récent d'Abbe, Massoulié, Montanari, Sly and Srivastava (2018).
 L'exposé ne nécessitera aucun pré-requis en physique statistique.
 Travail en commun avec Thomas Spencer (IAS, Princeton).

ACarpentier

Irène Marcovici, IECL, Université de Lorraine

Fichier de présentation

Titre : Automates cellulaires et phénomènes d'auto-organisation

Les automates cellulaires sont des systèmes dynamiques pour lesquels le temps et l'espace sont discrets. Ils permettent de modéliser l'évolution d'un ensemble de composantes interagissant entre elles de manière locale : au cours du temps, chacune actualise son état en fonction de ce qu'elle perçoit de son voisinage. 
En étudiant certains automates cellulaires, on peut observer des phénomènes d'auto-organisation : à partir d'un état initial désordonné, les mises à jour successives des cellules par la règle locale conduisent à l'apparition d'une structure macroscopique. 
À l'inverse, si l'on souhaite parvenir à un certain comportement global, on peut chercher à concevoir une règle locale permettant de l'atteindre de manière décentralisée. J'exposerai différents problèmes de ce type (obtention de consensus, synchronisation, correction d'erreurs, diagnostic de défaillances dans un réseau...), en étudiant l'influence que peut avoir l'introduction d'aléa dans les dynamiques.
La présentation reposera sur différents travaux effectués en collaboration avec Nazim Fatès, Régine Marchand, Mathieu Sablik et Siamak Taati.

 
MRosenbaum

Mathieu Rosenbaum, CMAP, École Polytechnique

Fichier de présentation

Titre : Rough volatility: quand les outils de dynamique des populations permettent de comprendre les fluctuations financières

Dans cet exposé, nous présenterons les éléments statistiques et probabilistes ayant conduit à l'introduction du paradigme ''rough volatility'' pour la modélisation des actifs financiers et la gestion de leurs risques. Nous nous intéresserons notamment à l'universalité de cette approche que nous pourrons expliquer grâce à l'utilisation d'outils probabilistes issus des modèles de dynamique des populations.

Personnes connectées : 2 Vie privée
Chargement...