Décrypter les dynamiques environnementales avec l’IA

Coordonné par Anne Puissant, Professeure au sein du Laboratoire image, ville, environnement (LIVE) de l’Université de Strasbourg, le projet TIMES (2017-2022) a réuni les expertises complémentaires en géosciences, en informatique et en sciences des données du LIVE, de l’EOST (École et Observatoire des Sciences de la Terre), de l’IRIMAS (Institut de recherche en Informatique, Mathématiques, Automatique et Signal de l’Université de Haute-Alsace), du LIPADE (Laboratoire d’informatique Paris Descartes de l’Université Paris Cité) et d’ICube (Laboratoire des sciences de l’ingénieur, de l’informatique et de l’imagerie de l’Université de Strasbourg), avec pour objectif de créer des outils et modèles pour exploiter des données massives, hétérogènes et acquises à de très hautes fréquences temporelles.

Développer de nouvelles chaînes d’exploitation des données satellitaires et géophysiques

Les données d’observation de la Terre, qui peuvent être utilisées pour cartographier et surveiller l’environnement, sont de natures très diverses. Il peut s’agir de nuages de points topographiques, de photographies aériennes ou terrestres – par exemple acquises par des drones –, d’images satellitaires avec des données en 3D ou encore de données de capteurs au sol tels que des réseaux de sismomètres. Cette prolifération de données, produites quotidiennement, représente un véritable défi en matière d’analyse pour identifier des signaux d’intérêt pertinents.


Les satellites européens de la mission Sentinel-2 sont conçus pour jouer un rôle clé de cartographie des classes d’occupation des sols et de surveillance des changements au fil du temps. ©ESA/ATG medialab

L’exemple des images satellitaires illustre avec pertinence la massification des données disponibles. « Avec la mise en orbite du premier satellite de la mission Sentinel-2 en 2015, il a été possible d’acquérir tous les 5 jours des images de 100 km par 100 km à 10 m de résolution spatiale, alors qu’auparavant de telles images étaient, en moyenne, disponibles seulement une fois par mois. Cette haute fréquence temporelle constituait à la fois un levier d’accélération de la production de connaissances et un verrou à lever, rendant nécessaire la mise en place de nouveaux outils et modèles d’exploitation des données », explique Anne Puissant. Le défi est d’autant plus grand que les séries d’images nécessaires pour étudier certains objets ou dynamiques se déploient sur plusieurs années, permettant de documenter des trajectoires d’évolution. Ceci engendre de tels volumes de données qu’il est nécessaire de disposer d’espaces de stockage tant pour ces données de référence que pour des données temporaires issues des calculs, ainsi que de ressources de calcul suffisantes et adaptées (calculateur haute performance, HPC). Dans le même ordre d’idée, avec le déploiement en continu de réseaux de capteurs au sol et un accès facilité aux données grâce aux entrepôts de données, il est possible d’analyser des volumes plus importants de données, à plus haute fréquence temporelle, et de détecter des signaux sismiques encore inconnus ou non catalogués.

Au cœur du projet TIMES se trouvait la mission de développer et valider des chaînes de traitement adaptées à l’analyse de ces données massives en s’appuyant sur des méthodes d’IA basées sur l’apprentissage automatique et l’apprentissage profond. Ainsi, plusieurs chaînes d’apprentissage automatique capables de détecter et d’identifier les signaux de glissements de terrain ou de volcans dans les enregistrements sismologiques, ou de mieux cartographier et détecter les changements dans les tissus urbains, c’est-à-dire les caractéristiques des quartiers des villes, à partir d’images satellitaires ont été élaborées.

Travailler à l’échelle des territoires

L’ancrage dans les territoires a constitué une des forces du projet TIMES. Comme le souligne Anne Puissant : « Les travaux des équipes de recherche ont été menés au plus près des problématiques territoriales, car il est essentiel de répondre à des besoins exprimés par les acteurs locaux et les collectivités. L’IA adaptée aux images satellitaires permet d’étendre les surfaces étudiées à l’ensemble d’une région ou d’un pays, et ce changement d’échelle apporte de nouvelles clés de compréhension aux scientifiques et aux décideurs publics. »

Grâce à l’IA, les scientifiques et les décideurs publics bénéficient de nouvelles clés de compréhension des dynamiques environnementales.

Dans la Région Grand Est, le contexte urbain et périurbain a été cartographié en suivant plusieurs classes d’utilisation et d’occupation des sols sur la base de séries temporelles d’images satellitaires. Des méthodes fondées sur l’apprentissage automatique non supervisé ont été conçues pour surveiller la dynamique des surfaces d’eau et leur extension en cas d’inondation. D’autres méthodes, basées sur l’apprentissage profond, ont également été développées pour le suivi de la couverture végétale et du tissu urbain. Elles permettent aux gestionnaires publics de mieux connaître les dynamiques intra-urbaines, d’identifier les zones en construction et de suivre l’évolution des villes.


Résultat d’inférence d’un modèle de segmentation sémantique sur plusieurs villes en France (Dijon, Lille, Orléans) à l’aide de l’IA et à partir d’images du satellite Sentinel-2. © projet TIMES – Référence : Wenger, R., Puissant, A., Weber, J., Idoumghar, L., & Forestier, G. Exploring inference of a land use and land cover model trained on MultiSenGE dataset. Joint Urban Remote Sensing Event (JURSE), 2023.

Les territoires de montagne (Alpes françaises) ou volcaniques (océan Indien, Mayotte) ont également fait l’objet de développements spécifiques en relation avec les activités d’observation long terme pilotés par l’École et Observatoire des Sciences de la Terre (EOST). Le projet a permis de créer des méthodes, supervisées et non supervisées, de détection de sources sismiques ignorées ou mal connues telles que des glissements de terrain (par exemple pour créer des catalogues d’événements et comprendre leur déclenchement en lien avec le climat) ou les volcans (par exemple pour suivre le déroulement des séquences éruptives, depuis les chambres magmatiques en profondeur jusqu’à la surface et aux cratères). 


Détection des séquences éruptives et de leur chronologie en appliquant des techniques d’IA de type apprentissage auto-supervisé (SSL) à des données sismologiques marines. Exemple du volcan sous-marin de Fani Maoré (Mayotte, océan Indien) avec des exemples d’événements sismologiques (traces du signal et spectrogrammes) et leur classification en groupes (ici appelés cluster) qui se succèdent dans le temps. © Rimpôt et al. (2025), doi.org/10.1093/gji/ggae361.

Ouvrir les modèles et les données

« Pour qu’un modèle d’IA ait la capacité de prédire, par exemple une classe d’occupation des sols ou un type de source sismique, il est nécessaire de disposer de données d’entraînement. L’un des enjeux pour nous était donc de diffuser les résultats de nos travaux et de mettre à la disposition de la communauté scientifique les jeux de données constitués, les modèles d’IA entraînés et les codes d’analyse, afin que d’autres puissent les utiliser pour leurs recherches, dans le cadre d’une politique de science ouverte », précise Anne Puissant.

Il était essentiel de mettre à la disposition de la communauté scientifique nos modèles d’IA et les jeux de données.

Par l’intermédiaire de l’Infrastructure de recherche Data Terra et de ses pôles de données thématiques – THEIA (pour les surfaces continentales) et ForMaTerre (pour la Terre solide) –, il est possible d’accéder aux résultats obtenus dans le cadre du projet TIMES. Certaines chaînes de traitement, en particulier celles développées pour détecter les glissements de terrain et la manière dont ces derniers se déforment, ont également été mises à la disposition des chercheurs et des chercheuses via la plateforme européenne d’analyse GEP (Geohazards Exploitation Platform).

Répondre aux nouveaux enjeux de l’IA

Afin de poursuivre et d’approfondir les travaux du projet TIMES, d’autres projets ont émergé, tels que les projets de recherche HighLand (2021-2025) et le projet M2-BDA débutant en 2025 avec le soutien de l’ANR (Appel à projets générique 2024). Parmi les réflexions qui orienteront les travaux de l’équipe de recherche M2-BDA, deux dimensions reflètent les enjeux majeurs actuels en matière de recherche scientifique et d’IA.

La première concernera la durabilité et l’empreinte environnementale des modèles utilisés. Comme le rappelle Anne Puissant, « certains modèles d’IA sont très consommateurs en ressources ou nécessitent énormément de données d’entraînement pour obtenir des résultats ».

La seconde consistera à trouver des solutions pour faire fonctionner des modèles sur des problématiques ne disposant pas de volumes suffisants de données d’entraînement. « Dans certains cas, il peut être intéressant d’entraîner un modèle plus petit et de le rendre ensuite adaptable à d’autres données ou de trouver des approches qui vont être moins supervisées, non guidées par des exemples, tout en veillant à construire les modèles les plus pertinents possibles. Il faudra donc être vigilant et choisir les bonnes stratégies d’IA. », conclut Anne Puissant.