“L’intelligence artificielle, c’est l’électricité du futur !” Entretien avec François Terrier, codirecteur du PEPR IA

Pouvez-vous nous présenter la genèse de ce programme et ses ambitions ?

François Terrier : A l’origine, la demande de l’Etat était de construire un programme et équipement prioritaire de recherche (PEPR) d’orientations thématiques autour des fondements de l’IA pour répondre aux enjeux que sont la frugalité, l’embarqué et le décentralisé, l’IA de confiance et les fondements mathématiques au service de l’IA. Nous avons lancé une consultation auprès de la communauté française et récupéré environ 250 propositions, idées de projets. Notre volonté a été de construire des projets qui auraient un impact et une coopération entre des équipes de recherche pour disposer ensuite d’une capacité de diffusion au niveau national et international. Nous avons retenu neuf projets qui associent chacun environ cinq partenaires sur l’ensemble du territoire.

Les grandes missions du PEPR sont ainsi de structurer la communauté de recherche en IA, relever des défis scientifiques dans des domaines comme l’IA frugale, embarquée, distribuée et de confiance, mais aussi attirer des talents internationaux et encourager l’engagement de l’industrie française

Des échanges sont noués également avec les autres programmes de recherche de France 2030 aux enjeux connexes : Cybersécurité, Cloud, Numpex, Diadème sur les matériaux, Santé numérique, Electronique, Spintronique. Plus d’une dizaine d’ateliers, séminaires, participations à des actions communes ont déjà été réalisés depuis le lancement en mars 2024. On a parié sur le fait que des équipes qui ne collaboraient peut-être pas initialement se regroupent pour travailler ensemble et cela s’est bien passé.

Nous proposerons également des chaires sur quatre ans sur des travaux rattachés aux thématiques des projets.

Côté formation et attractivité, nous allons recruter 150 thésards, quelques post-doc, CDD… Un appel à projets complémentaire sur les mathématiques vient également d’être publié.

A l’international, la communauté IA nous a par ailleurs bien identifiés. En tant que directeurs du programme, nous sommes de plus en plus sollicités pour intervenir dans des sessions de conférences internationales, comme récemment à IA for Good à Bruxelles.


Mots de fin de François Terrier, CEA, pilote du programme PEPR IA, lors de son lancement le 25 mars 2024, à Grenoble.  © Inria / Photo C. Morel

Sur quelles thématiques les équipes de vos projets travaillent-elles actuellement ?

Les trois grands axes des projets sont liés aux fondements mathématiques, à la frugalité et l’IA embarquée ; l’apprentissage décentralisé. Un volet confiance aborde des questions liées à la robustesse, à la fiabilité et à la sûreté des fonctions réalisées en IA. Trois projets planchent plus particulièrement sur l’IA de confiance : un sur les fondations de la robustesse, avec une approche statistique de la confiance. Un autre sur l’intégration des mécanismes de causalité dans l’apprentissage soit une confiance par construction de l’information causale dans l’apprentissage. Une troisième approche plus « à risque » consiste à évaluer l’apport des méthodes formelles pour la vérification des modèles, de la spécification jusqu’à l’analyse des modèles pour leur validation.

Un autre projet réfléchit aux fondements de l’apprentissage pour la frugalité et quatre autres couvrent le continuum entre l’IA décentralisée et l’IA embarquée avec des attentions particulières sur la sécurité, l’optimisation des modèles, les architecture électroniques adaptatives et enfin les modèles de calcul émergents, proches de l’électronique, qui sont en capacité de modifier la manière de concevoir les algorithmes d’apprentissage en intégrant ces modèles de calcul dès le niveau algorithmique.

Ils bénéficient tous et échangent avec un grand projet sur les mathématiques pour l’IA afin de bénéficier des dernières avancées dans ce domaine pour l’élaborations de méthodes et algorithmes de rupture.

Pouvez-vous nous expliquer ce que sont les méthodes formelles ?

Lorsque l’on cherche à qualifier une IA, notamment un modèle à la base d’apprentissage, il y a des approches statistiques : on va tester puis essayer de voir statistiquement comment se passent ces tests. Et il y a des approches de preuves : des approches mathématiques sont utilisées pour démontrer que le modèle fonctionne bien dans telle situation ou démontrer qu’il existe des situations où il ne fonctionnera pas. Cette dernière approche est dite « formelle ». Les logiciels embarqués dans les avions, les trains, les centrales nucléaires sont prouvés en termes de fonctionnement correct par ce type d’approches.

Pour faire simple, il s’agit de projeter des méthodes de validation fortes, utilisées dans les logiciels classiques, sur les logiciels à base de réseaux de neurones, dont les résultats sont par essence moins prévisibles.

Avez-vous déjà obtenu de premiers résultats sur ces méthodes formelles ou d’autres domaines ?

Sur les méthodes formelles, une équipe de notre projet SAIF a obtenu la deuxième place dans un challenge international de vérification de très haut niveau, ce qui donne une visibilité au niveau international des avancées sur ce sujet.

Un autre point à souligner est la sortie de la norme Afnor sur l’IA frugale en juin dernier à laquelle ont contribué une trentaine de personnes issues à la fois des grands organismes porteurs du PEPR, mais aussi des universités, des écoles et des industriels. C’est en lien avec la thématique du projet SHARP, particulièrement investi dans ces actions, mais aussi du projet HOLIGRAIL.

Cette spécification est une première mondiale. Il s’agit d’une recommandation visant à répondre à plusieurs questions : comment évaluer l’impact de l’IA en termes de consommation de ressources, quelle maîtrise mettre en place, et comment ensuite communiquer sur le résultat de l’évaluation ?

La France se retrouve en tête au niveau international en proposant une première manière de faire. L’implication des chercheurs du PEPR montre que la recherche, qui se fait en amont sur les fondements algorithmiques et l’optimisation, est partie prenante dans la maîtrise de la frugalité de l’IA.

En termes de publications, nous sommes aussi très actifs puisque nous comptons plus de 52 publications répertoriées en fin d’année dernière dont 40 % dans le cadre de conférences de premier rang en intelligence artificielle : NeurIPS, ICML, ICLR, IJCAI, DATE.

Les PEPR IA Days auront lieu en mars prochain, en quoi consistent-ils ?

Il s’agit d’une grande action structurante sur trois jours. Toute la communauté du PEPR et la communauté nationale est invitée à y assister.

Les équipes partageront leurs résultats à raison de deux à quatre présentations par projet, soit une trentaine de présentations scientifiques. Nous prévoyons des keynotes sur la frugalité pour sensibiliser l’ensemble de la communauté, une keynote sur les liens entre algorithme et matériel et une sur les avancées du machine learning. Nous invitons aussi des acteurs capables de donner une vision des enjeux sociaux, scientifiques, industriels.

Trois tables rondes aborderont les enjeux du déploiement en écho à une vision industrielle ; l’évolution de la recherche, notamment avec le rôle des agences de programmes ; les synergies avec les grandes structures, notamment les IA Clusters qui viennent d’être lancés.

Nous mènerons aussi une réflexion sur les moyens de développer le rayonnement de la communauté IA française à l’Europe. Enfin, il est prévu une présentation des plateformes dédiées à l’IA : le supercalculateur Jean Zay, le projet P16, la plateforme Aidge qui sont des objets supportés par l’état et qui nous permettront d’intégrer des résultats et d’expérimenter.

Le sommet met particulièrement en avant la frugalité en IA. Pouvez-vous nous dire en deux mots, ce qu’elle est actuellement, ce qu’on aimerait qu’elle devienne ?

La frugalité en IA c’est : un niveau de performance égal ou supérieur, en utilisant moins de données, moins de calculs et moins d’énergie et de ressources associées au calcul.

Et ceci, à même performance et, surtout, en confiance. C’est à dire en étant capable de qualifier la qualité des services rendus. Par exemple, si une application sert à générer des comptes rendus de réunions, il faut s’assurer que ceux-ci reflètent bien les informations importantes, ce qui n’est pas si simple !

Un challenge de la Direction générale de l’armement (DGA) a eu lieu en juin dernier pour évaluer de la recherche d’informations dans des documents entre une approche très grands modèles de langue (LLM) et des approches avec des petits modèles de fondation. On a pu montrer qu’avec un modèle 50 fois plus petit, on pouvait avoir une performance à peu près deux fois meilleure. 

Ces solutions permettent d’avoir des performances supérieures, avec une augmentation de la qualité des résultats, une baisse de consommation de données et un modèle à la base demandant moins de calcul.

L’IA générative (IAG) qui fait le « buzz » est très énergivore sur le plan environnemental. Mais elle étouffe le discours et éclipse la réalité. Le marché de l’IA, est estimé par différentes études à 85 % d’IA non générative et 15% d’IA générative. C’est certes un très gros enjeu stratégique mais notre programme se porte sur l’ensemble de l’apprentissage. Nous abordons l’IAG tout de même : en particulier au sein du projet SHARP ou un cas d’usage de l’apprentissage frugale porte sur l’application des nouveaux algorithmes au traitement du langage avec des approches en LLM. De même, dans l’appel sur les mathématiques qui vient d’être publié, il est explicitement demandé aux déposants de réfléchir aux enjeux de l’IA générative et aux mathématiques en général.

Notre conviction, c’est que pour que l’IA se déploie dans les métiers et dans le quotidien, il faut résoudre a minima les problèmes de frugalité et de confiance. Si on ne prend pas en main la question de l’impact, des coûts, de la performance et de la confiance de ce type de technologies, il y a un fort risque que le déploiement se fasse mal ou de manière marginale…

Quels sont les enjeux de cette confiance dans l’IA ?

Les enjeux sont d’abord réglementaires. L’AI Act, réglementation en vigueur, va commencer à s’appliquer avec une première échéance en février 2025, puis par paliers, en août 2025, août 2026 et août 2027.

Elle va imposer à tous les fournisseurs de systèmes utilisant de l’IA un certain nombre d’exigences sur la confiance dans l’IA, d’analyse de risques, de démonstration de sûreté, de traçabilité, d’explicabilité, de transparence… La confiance est également un élément clés pour les questions d’acceptabilité et d’éthique. C’est un enjeu européen, et national, d’aider l’ensemble des acteurs à satisfaire la conformité à cette réglementation. L’AI Act est issue du groupe de réflexion de la Commission européenne sur l’éthique de l’IA, elle est donc fondée sur la défense des valeurs sociétales européennes.

Par ailleurs, avec l’IA embarquée, on essaye d’être au plus proche de la production des données des utilisateurs, ce qui va réduire les flux, assurer plus de confidentialité : les données ne circulent pas partout. C’est une autre voie de réponse aux questions de frugalité et de confiance. Les applications seront ainsi plus facilement déployables, acceptables. Cela ouvre le marché aux industriels et renforce la confiance des utilisateurs. Par exemple, à la maison, vous pourrez disposer d’un système de suivi consommation de chauffage qui optimisera le fonctionnement de celui-ci en fonction de vos habitudes de vie. Soit toutes les données personnelles captées seront envoyées sur le cloud avec un grand acteur du secteur qui collecte et définit un algorithme ; soit la technologie embarquée sera capable d’apprendre en local de vos habitudes avec peu de données et de piloter le système de chauffage depuis la maison.

Avez-vous déjà noué des partenariats avec des entreprises privées, notamment qui développent de nouvelles applications et technologies ?

On est à l’écoute de leurs besoins à condition qu’ils les expriment et qu’on arrive à les comprendre en termes d’enjeux de recherche. Tous les projets sont lancés avec des thématiques et des sujets à risque.. Des échanges pour communiquer sur les résultats disponibles auprès du secteur économique sont prévus, notamment lors de nos journées « PEPR IA Days ». L’idée, c’est d’impliquer de plus en plus les acteurs économiques, les SATT, les PME, grands groupes pour, d’une part, qu’ils soient informés des avancées de recherche et qu’ils fassent part des verrous qui leur sont essentiels à lever.

Quelles seraient d’autres applications concrètes de l’IA dans la vie de nos concitoyens, qui n’existent pas forcément encore ?

Nous sommes positionnés sur des recherches fondamentales sur l’IA. Les applications potentielles sont plutôt traitées dans les autres PEPR (Matériaux, Santé numérique, Cybersécurité etc.). Et c’est complexe car l’IA, c’est l’électricité du futur ! A terme, elle sera partout. L’IAG va pouvoir générer et trouver des solutions auxquelles on n’avait pas pensé, être un assistant dans de multiples tâches, soit pour automatiser des choses, soit pour aider à vérifier des choses dans tous les domaines des automatismes, de l’assistance quotidienne. Il y aura des algorithmes dans la vie quotidienne, dans les tondeuses à gazon, pour nos loisirs et nos activités au travail : tout ce qui va permettre de rendre des services numériques accessibles au plus grand nombre. Mais il y aura aussi les IA intégrées sans lien direct avec l’usager, dans les avions, les trains, les voitures, les usines… 

Et doit-on avoir un peu peur ces mutations, quid de l’intelligence humaine ?

Il est assez clair que l’IA va faciliter la prise en charge de tâches répétitives. Mais l’intelligence humaine se loge dans la manière d’organiser la tâche, de gérer les répétitions, de décider. Au quotidien, il ne s’agira pas d’installer des robots dans toutes les maisons, mais expliquer à une machine ce qu’on souhaite qu’elle fasse peut être intéressant sans pour autant remettre en cause nos compétences, nos arbitrages. On est bien contents de pouvoir s’appuyer sur une perceuse pour accrocher un tableau !

La tendance de la technologie, c’est d’essayer de réduire la pénibilité, de prendre en charge du répétitif et de réaliser des tâches que l’on ne saurait effectuer sans machine : creuser un tunnel sans outil de forage est compliqué par exemple ! L’IA est un outil technologique qui va suivre cette mouvance, avec ses atouts et ses risques, ses impacts sociétaux et politiques propres.

En savoir plus :

Le site du PEPR IA

La page du programme sur le site de l’ANR

Programme des PEPR IA Days : Save The Date : PEPR IA Days 2025 – PEPR IA

Entretien avec Jamal Atif, codirecteur du PEPR, pour le CNRS : « L’intelligence artificielle pénètre l’ensemble des strates de notre société » | CNRS