Présentation MEDIA-2024 : Modélisation, Équations aux Dériv(é)es Partielles et Intelligence Artificielle L'intelligence artificielle (IA) émerge comme une alternative puissante et rapide face aux méthodes traditionnelles de résolution numériques des équations aux dérivées partielles (EDP). En effet, les méthodes basées sur l'IA permettent de réaliser des calculs en temps réel, un domaine où les schémas numériques classiques atteignent souvent leurs limites en raison de leur complexité et du temps de calcul qu'ils requièrent. Cependant, ces méthodes numériques ont l'avantage de fournir des résultats d'une grande précision, une qualité que l'IA ne parvient pas toujours à atteindre, notamment lorsque les solutions nécessitent une rigueur mathématique approfondie et une résolution fine des détails. Dans ce contexte, la conférence de 2024 vise à explorer et présenter des recherches innovantes qui combinent les méthodes traditionnelles de résolution des EDP avec les techniques d'IA. L'objectif est de démontrer comment cette synergie peut conduire à des calculs à la fois rapides et précis, ouvrant ainsi la voie à des applications en temps réel qui étaient auparavant impraticables. Par exemple, ces outils hybrides peuvent améliorer les capacités de prévision, optimiser la gestion des risques, et offrir des perspectives inédites sur l'analyse des impacts socio-économiques de divers phénomènes. Les champs d'application de cette approche sont vastes et sans limite : des événements climatiques extrêmes et du réchauffement climatique à la médecine, en passant par l'ingénierie. L'intégration des techniques d'IA dans la résolution des EDP représente non seulement un bond en avant technologique, mais aussi une opportunité pour relever certains des défis les plus pressants de notre époque grâce à des calculs rapides et précis, permettant une prise de décision plus éclairée et proactive. Conférences plénières Les présentations sont accessibles dans la section "Programme".
Victor Michel Dansac, Université de Strasbourg, Institut de Recherche Mathématique Avancée Hybrid methods for elliptic and hyperbolic PDEs
Bruno Desprès, Sorbonne Université, Laboratoire Jacques Louis Lions Lipschitz stability of Deep Neural Networks in view of applications
Hugo Frezat, Université Paris Cité, Institut de Physique du Globe de Paris Learning stable and accurate subgrid-scale models for turbulent systems
Jeffrey Harris, École nationale des ponts et chaussées, Laboratoire d'Hydraulique Saint-Venant Faster than real-time phase-resolving data-driven ocean wave modeling
Olivier Lafitte, Sorbonne Paris Nord Université, Institut Galiléé Supervision of supervised learning by truth tables We show that, for a given number m of classifiers, the 0/1 loss and the convexified 0/1 loss is handled by a partition of the examples treated in 2^m classes, partition associated with a truth table. We use this structuration of the examples to construct the point of minimum, if it exists, of the convexified loss, which is a function of $m$ variables depending on 2^m parameters. This function generalizes the generic $\phi-$risk of Bartlett et al (2006) to a generic multidimensional $\phi-$risk. Investigation of the existence and uniqueness of a point of minimum of this function can be derived. Formulae (in the case of three classifiers, m=3) are readily obtained. The cases for which there is an infimum or there is a not unique minimum can be understood in this set-up, which implies that there might be cases where we cannot calculate a point of minimum for the convexified risk, and this has not been observed before. joint work with J.M. Brossier, GIPSA-Lab, Grenoble INP:
Rodolphe Turpault, Université de Bordeaux, Institut de Mathématiques de Bordeaux Méthodes fiables et robustes pour l'apprentissage machine.
Les réseaux de neurones peuvent être utilisés avantageusement dans plusieurs contextes, y compris en calcul scientifique. Dans ce cadre notamment, l'apprentissage est le point le plus sensible. Il est donc crucial de disposer d'outils robustes, fiables et si possible nécessitant peu d'hyperparamètres à régler.
Dans cet exposé, j'aborderai de telles méthodes, développées au cours de la thèse de Bilel Bensaid et basées sur des équations différentielles et des techniques numériques garantissant certaines propriétés. Je montrerai certains mauvais comportements pouvant émerger d'optimiseurs classiques et une manière simple de s'en débarrasser. Les optimiseurs résultants sont relativement simples, garantis par des résultats théoriques forts et montrent une efficacité redoutable en pratique que j'illustrerai sur de nombreux cas.
Enfin, je reviendrai sur certains écueils à éviter et certaines bonnes pratiques qui paraitront de bon sens aux numériciens mais malheureusement pas assez répandues dans la communauté de l'apprentissage machine.
Comité d'organisation M. Ersoy, G. Faccanoni, C. Galusinski, Y. Mannes |
Personnes connectées : 2 | Vie privée |