AccueilExpressions par MontaigneUE : Après le Sommet de l’IA, le temps de l’action ? L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.14/02/2025UE : Après le Sommet de l’IA, le temps de l’action ? Union EuropéenneImprimerPARTAGERAuteur Charleyne Biondi Experte Associée - Numérique Auteur Louise Frion Responsable de projets - Nouvelles Technologies Le Sommet de l’Action pour l’IA, qui s’est tenu à Paris du 6 au 11 février, incarne la volonté de la France, à une échelle européenne, de ne pas rater le virage de l’IA. Qu’est-ce qui se joue véritablement en matière de souveraineté, quels sont nos leviers et marges de manœuvre, et pourquoi l’avenir de l’IA est-il un enjeu politique ? À l’occasion de l’AI Action Summit qui se conclut à Paris, le Président Macron et la présidente de la Commission européenne ont successivement annoncé des investissements à hauteur de 109 milliards d’euros pour la France, et de 200 milliards d’euros pour l’Union européenne, destinés à développer des centres de données pour l’intelligence artificielle (IA). Avec une opération d’une telle envergure, l’Europe pourrait bien s’offrir, pour la première fois, les moyens de ses ambitions : compter parmi les grandes puissances technologiques. À condition, bien sûr, d’inscrire ces investissements massifs dans le cadre d’une stratégie plus large, qui soumettrait l’ensemble de la chaîne de valeur de l’IA a un projet politique cohérent. Les centres de données ne représentent en effet qu’un maillon des infrastructures nécessaires au développement de ces technologies : en amont, ils sont équipés de processeurs graphiques (GPU) que l’Europe est pour l’instant incapable de produire ; en aval, ils sont utilisés par l’écosysteme d’IA, aujourd’hui dominé les géants américains et leurs offres intégrées de services allant du cloud aux applications telles que les chatbots. Dès lors, en l’absence d’une politique industrielle coordonnée de manière à favoriser des synergies entre ces infrastructures numériques et l’écosystème tech européen, ces futurs centres de données pourraient avoir pour seul impact de permettre à des puissances étrangères de délocaliser une partie de leur chaîne de production sur nos territoires. Un tableau somme toute assez classique, mais bien peu flatteur pour l’Europe, des rapports de force de l’économie mondialisée, entre dominants et dominés. Tout l’enjeu, aujourd’hui, est donc de déterminer où placer le curseur de notre souveraineté, et de faire des choix technologiques et politiques en conséquence, afin que les investissements [...] soient dirigés vers des projets qui soutiennent à la fois l’autonomie, l’économie et les valeurs européennes.Pour éviter un tel scénario, il est donc indispensable de définir des projets industriels en cohérence avec la double ambition de la stratégie européenne pour l’IA : compétitivité et souveraineté. À noter que ces deux objectifs - de compétitivité économique et de souveraineté - ne sont pas seulement complémentaires, mais consubstantiels l’un à l’autre. Car pour tirer tous les profits de l’IA, y compris en termes de valeur économique, il faut nécessairement en maîtriser la chaîne d’approvisionnement. Réciproquement, pour développer un écosystème souverain et pérenne, il faut impérativement savoir commercialiser des produits compétitifs. Tout l’enjeu, aujourd’hui, est donc de déterminer où placer le curseur de notre souveraineté, et de faire des choix technologiques et politiques en conséquence, afin que les investissements - étrangers, privés ou publics - soient dirigés vers des projets qui soutiennent à la fois l’autonomie, l’économie et les valeurs européennes.Les infrastructures numériques : un enjeu de compétitivité et de souverainetéLes annonces d’investissements dans des centres de données interviennent à un moment charnière pour l’Europe Les annonces franco-européennes concernant plus de300 milliards d’euros de fonds - essentiellement privés - alloués à la construction de centres de données dédiés à l’intelligence artificielle interviennent à un moment charnière ; et il faut le dire, de manière plutôt inespérée. Si, depuis le lancement du "marché unique du numérique" en 2015, l’Union européenne n’a eu de cesse d’affirmer l’importance de l’innovation, allant jusqu’à définir, dès 2020, une grande "stratégie pour l’IA" afin de promouvoir des technologies émergentes en accord avec ses valeurs,aucune de ses initiatives n’a réellement réussi à stimuler la compétitivité du secteur.Il y a à peine une quinzaine de jours, la feuille de route présentée par la Commission comme une "boussole pour la compétitivité" reprenait les constats alarmants du rapport Draghi sur le coût économique d’un manque d’innovation mais laissait entrevoir, en pratique, assez peu de marge de manœuvre pour sortir l’Europe de son attentisme technologique. Rappelons qu’avant les annonces du Sommet de l’IA, le budget disponible au niveau européen pour le développement de l’IA restait dérisoire en comparaison des besoins du secteur: 1,5 milliards mobilisés pour les AI Factories destinées à la recherche publique, 2,1 milliards sur 6 ans pour soutenir "la diffusion de l’IA dans l’économie" et 2,2 milliards pour la construction de supercalculateurs.Un rapport spécial de la Cour des comptes européenne avait même alerté, au mois de mai dernier, sur l’obsolescence et la faiblesse des objectifs d’investissements de l’Union en matière d’IA. Il pointait, entre autres, la nécessité de mieux "cibler" ces investissements, trop souvent captés par des entreprises de software ou des applications dont le fonctionnement reposait entièrement sur les infrastructures numériques américaines, faute d’offre concurrente européenne. À titre d’exemple, en France, 80 % de l’augmentation des dépenses en infrastructures numériques sont captés par trois grandes entreprises américaines, d’après une note de la commission de l’IA.Dans ce contexte, avoir réussi à débloquer plusieurs centaines de milliards d’euros pour le développement de ces infrastructures est évidemment une bonne nouvelle. Ces investissements offrent à l’Europe l’opportunité qu’elle n’a jamais vraiment eue : la possibilité de (re)gagner son autonomie stratégique.S’équiper en puissance de calcul : une nécessité pour l’industrie technologique européenneAujourd’hui, l’Europe héberge seulement 18 % des centres de données (les infrastructures informatiques qui permettent de stocker des données et fournissent la puissance de calcul nécessaire pour entraîner et exécuter des modèles d’IA) dans le monde. Pour les acteurs européens de l’IA, ce manque d’accès à la puissance de calcul est déjà un frein, comme l’a regretté Mistral il y a quelques mois. Par ailleurs, parmi le peu de centres de données situés sur le continent, moins de 5 % appartiennent à des entreprises européennes. L’immense majorité des centres de données en Europe sont en effet la propriété des géants américains, tels que AWS, Google et Microsoft Azure, qui proposent aux entreprises des plateformes cloud leur permettant d’accéder à la puissance de calcul des centres de données à distance, plutôt que de devoir gérer leurs propres serveurs localement.Ces services clé-en-main, appelés "Platform-as-a-Service", ou PaaS, offrent des solutions faciles d’utilisation et optimisées pour développer, déployer et gérer des applications d’IA. Dans le cadre particulier de l’inférence des grands modèles d’IA - une étape clé de leur développement où, une fois pré-entraînés, ils sont utilisés en situation réelle - les PaaS simplifient considérablement la tâche des développeurs en fournissant une infrastructure optimisée, scalable et facile à gérer, sans jamais avoir à se préoccuper de l’administration des serveurs.Cette simplicité, qui a fait la popularité de Google Vertex AI, AWS SageMaker, Azure ML et Nvidia Triton, a cependant un coût insupportable pour la gouvernance souveraine des modèles d’IA. D’une part, parce qu’au travers du PaaS, on sous-traite d’une certaine manière la supervision du modèle - l’audit et le monitoring des performances, l’ajustement des paramètres, en somme, tout un tas d’étapes essentielles dans le processus algorithmique. D’autre part, la maîtrise complète à la fois des centres de données et des PaaS confère à ces "hyperscalers" une rentabilité exceptionnelle - au détriment de l’écosystème européen qui peine, en face, à générer du profit.Néanmoins, d’un point vue du développement technologique stricto-sensus, cette dépendance vis-à-vis des géants américains n’est pas nécessairement un frein. Comme l’a parfaitement illustré Mistral, champion français de l’IA générative, ou H et Hugging Face, on peut très bien développer un produit de pointe en utilisant des services d’hébergement et en entraînant son modèle sur des infrastructures non-européennes. Cependant, pour toutes les applications d’IA dans des domaines sensibles, il est difficilement envisageable d’entraîner les modèles ou de les déployer sur des infrastructures étrangères. Certes, ces enjeux de souveraineté ne concernent pour l’instant que quelques acteurs, principalement dans le domaine de la défense (c’est le cas, par exemple, de Helsing, une entreprise européenne de défense qui déploie des modèles d’IA en ayant mis l’accent sur le développement interne de ses technologies et des partenariats étroits avec quelques entités européennes).Pour toutes les applications d’IA dans des domaines sensibles, il est difficilement envisageable d’entraîner les modèles ou de les déployer sur des infrastructures étrangères.Mais bientôt, un nombre croissant de services et d’organisations devront envisager les risques d’une dépendance trop grande à des infrastructures étrangères.En ce sens, les futurs centres de données annoncés par l’UE et la France lors du Sommet de l’IA devraient permettre de résoudre, au moins partiellement, ces enjeux de compétitivité et de souveraineté. Plutôt que de recourir à des solutions PaaS contrôlées par les ces géants étrangers, les entreprises européennes pourront en effet privilégier des solutions "Infrastructure-as-a-Service" (IaaS) opérées depuis des centres de données locaux. C’est en tout cas l’ambition des "campus IA" annoncés durant le sommet, pour garantir un meilleur contrôle des données et une réduction des risques liés à la souveraineté numérique. Cette transition pourrait par ailleurs optimiser les coûts d’exploitation en permettant aux entreprises d’adapter leurs infrastructures informatiques à leurs besoins spécifiques plutôt que de dépendre des modèles tarifaires imposés par les grandes plateformes cloud étrangères.Toutefois, les centres de données ne sont qu’une partie de l’équation. Pour assurer une véritable autonomie dans le secteur technologique, il est indispensable de tenir compte du point névralgique des infrastructures numériques : l’industrie des semi-conducteurs.Les centres de données ne suffiront pas à assurer notre souveraineté numériqueLes nouvelles restrictions sur l’exportation de technologies de semi-conducteurs mises en place par l’administration Biden à la fin de son mandat ont une fois de plus mis en exergue la dépendance structurelle de l’Europe en matière de semi-conducteurs. Dans le but de freiner les progrès chinois en matière d’IA, les États-Unis interdisent désormais aux entreprises américaines (ainsi qu’à toute société étrangère utilisant des technologies américaines) d’exporter 24 types d’équipements liés à la fabrication de semi-conducteurs. Seuls dix-huit pays "alliés" sont exemptés de ces restrictions, dont la France. De nombreux pays européens, dont la Pologne, la Lituanie, la Grèce et même la Suisse se retrouvent en revanche soumis à des restrictions partielles, ce qui signifie qu’ils pourront importer des puces d’IA, mais en quantité limitée. Pour l’autonomie de l’industrie européenne, le risque est donc loin d’être théorique : dans un contexte où l’Américain Nvidia contrôle environ 88 % du marché mondial des GPU, une rupture d’approvisionnement en puces Nvidia empêcherait tout simplement l’Europe d’accéder à de la puissance de calcul, la privant potentiellement d’une autonomie technologique sur des secteurs stratégiques comme la défense, la santé, la recherche en IA.Face à ce constat, l’Union européenne a lancé le Chips Act avec un budget de 43 milliards d’euros d’ici à 2030 pour renforcer sa filière des semi-conducteurs. L’initiative pourrait faire émerger des poches de compétitivité dans le secteur, à condition de bien cibler les investissements. Par exemple, le soutien à SiPearl, entreprise française qui développe des microprocesseurs haute performance pour les supercalculateurs européens, est une initiative clé pour réduire la dépendance aux GPU de Nvidia. Par ailleurs, l’Europe excelle dans la recherche en technologies quantiques, un domaine qui pourrait révolutionner l’architecture des semi-conducteurs en ouvrant la voie à des approches alternatives au silicium, avec des matériaux innovants et des techniques de calcul inédites. Quels que soient les projets soutenus par le Chips Act, la priorité doit être de permettre à quelques acteurs européens de devenir un nouveau maillon de la chaîne d’interdépendances mondiales que forme le secteur des semiconducteurs. Car cela suffirait, probablement, à garantir à l’Europe les leviers de négociation nécessaires pour assurer la résilience de ses infrastructures et de son industrie.Dans un contexte où l’Américain Nvidia contrôle environ 88 % du marché mondial des GPU, une rupture d’approvisionnement en puces Nvidia empêcherait tout simplement l’Europe d’accéder à de la puissance de calcul.En somme, pour que l’annonce de ces centres de données reste une bonne nouvelle, il faut que les arbitrages qui en dépendent ne soient pas faits en silo. Une stratégie cohérente doit mettre en correspondance les choix d’investissements dans les différentes infrastructures numériques (semi-conducteurs, centres de données) avec des objectifs industriels et politiques. À quels projets ces centres de données et ces supercalculateurs doivent-ils servir en priorité? Quels modèles pourront être entraînés sur nos serveurs, utiliser nos ressources ? Dans quels domaines, scientifiques et industriels, souhaitons-nous encourager la recherche en IA?Pour le dire autrement : le développement de l’IA requiert un vrai projet politique, et c’est peut-être bien cela qui a manqué dans les annonces tonitruantes de ce sommet. Les ambitions européennes d’une IA humanisteCoopérer sans s’aligner ? L’impossible équilibre d’une gouvernance mondialeLe premier Sommet de l’IA à Bletchley Park en novembre 2023 a été organisé pour répondre aux inquiétudes de la communauté scientifique quant aux risques d’une intelligence artificielle non maîtrisée. Dans ce contexte électrique où il était question de "risque existentiel", la priorité du sommet de Londres s’est donc orientée vers les enjeux de sécurité de l’IA, une problématique technique - et donc relativement consensuelle - visant à rendre les systèmes d’IA fiables, sûrs et maîtrisables. Le Sommet de Séoul, en 2024, s’est inscrit dans la continuité de ces réflexions, mettant l’accent sur le développement d’une IA sûre. Toutefois, alors que ces initiatives de coopération internationale avaient été unanimement saluées, aucun cadre contraignant n’avait émergé de ces sommets pour l’IA. Les déclarations n’engagaient leurs signataires sur rien d’autre que des grands principes : par exemple, s’engager à développer un cadre réglementaire et juridique (Londres), ou s’engager à ne pas exclure les pays en développement des bénéfices apportés par l’IA (Séoul). Au-delà d’un témoignage de bonne volonté, rien n’indiquait, dans ces premiers exercices de coopération internationale, que les parties prenantes pourraient s’aligner sur des règles, ni même des méthodes de supervision communes. Il fallait donc s’attendre à ce que le sommet de Paris, intitulé AI Action Summit pour impulser une volonté d’agir, de mettre en pratique tous ces témoignages de bonne volonté, rencontre quelques difficultés. Il faut par ailleurs noter que l’objet du sommet de Paris n’était plus tant celui de la sécurité des systèmes que celui de leur gouvernance. La teneur des échanges a donc porté sur des problématiques politiques, sociétales : comment définir une IA responsable ? Et comment aligner l’IA avec les valeurs démocratiques ? De fait, les débats techniques se sont inévitablement mués en tractations diplomatiques, avec le succès que l’on sait.La régulation de l’IA, une zone d’affrontements idéologiques ?La "déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète" à l’issue du Sommet de Paris n’a donc pas été signée par les États-Unis et le Royaume-Uni, affaiblissant considérablement son impact potentiel. En y regardant de plus près, il n’y a pourtant rien, dans cette déclaration, qui puisse réellement indisposer ces États. Même les recommandations ayant trait à l’empreinte environnementale des technologies, qui auraient pu braquer l’administration Trump, sont formulées de manière bien peu contraignantes : il s’agit "d’encourager les discussions internationales sur l’IA et l’environnement", ou encore, de "mettre en valeur les innovations de l’IA sobres en énergie".Dès lors, le refus de prendre part à cette déclaration commune apparaît clairement comme une manœuvre politique visant à affaiblir les positions européennes, et en particulier l’AI Act adopté à l’été 2024. Le vice-président américain J.D. Vance a exprimé des critiques très franches vis-à-vis de la réglementation européenne, la jugeant excessive, autoritaire en matière de modération des contenus, et préjudiciable à l’expansion de l’industrie technologique américaine. L’AI Act établit des règles pour encadrer les usages de l’IA en fonction de leur niveau de risque. C’est aussi l’une des premières législations au monde à avoir encadré le développement des modèles d’IA générative, reconnaissant la portée politique de ces nouvelles technologies informationnelles, susceptibles de modifier profondément la manière dont les individus et les organisations interagissent avec les données et la connaissance. À la différence d’internet, les grands modèles d’IA ne se limitent pas à organiser et redistribuer les savoirs, mais les reconditionnent, voire les produisent. Or, c’est précisément cette capacité générative qui inquiète - car c’est là, dans le processus de production de contenus, que s’insèrent des risques inédits, ouvrant la porte à d’innombrables erreurs, mais aussi aux abus, aux manipulations et autres formes d’influence plus sournoises. À la différence d’internet, les grands modèles d’IA ne se limitent pas à organiser et redistribuer les savoirs, mais les reconditionnent, voire les produisent.C’est pour se prémunir de ces risques, d’autant plus grands que l’immense majorité des systèmes d’IA sont produits par des entreprises étrangères, que l’Union européenne a cherché à imposer des règles de transparence. La gouvernance de l’IA, c’est être capable d’examiner les concepts, les hypothèses et les méthodes qui structurent la manière dont sont produites et validées les connaissances ; c’est documenter les décisions algorithmiques, et interroger les critères qui déterminent ce qui est jugé légitime et valide par ces systèmes. En somme, c’est rester maître de notre environnement épistémique.Là encore, importer des outils étrangers représente donc un coût important pour la souveraineté - culturelle cette fois - des États européens. Alors qu’en France, 98 % des 50 applications d'IA grand public les plus utilisées sont étrangères, l’impact politique de ces outils inquiète de plus en plus. Certains vont jusqu’à condamner "l’emprise" qu’exercent les grands modèles de langage des géants américains sur "une architecture de connaissance qui ne respecte aucune des valeurs des démocraties européennes".Sans aller jusqu’à attribuer aux propriétaires de grands modèles de langage des intentions politiques, on peut toutefois en conclure que les priorités américaines en matière d’IA sont bien loin des nôtres. J.D. Vance n’aurait pas pu l’exprimer plus clairement : pour les États-Unis, il s’agit avant tout de préserver une autonomie stratégique, et de refuser tout cadre qui pourrait limiter le leadership américain. Cela confirme, une fois de plus, que l’IA est avant tout une bataille d’ordre concurrentielle.Quelle voie pour l’Europe?Or, il y a là une leçon à tirer pour l’Europe, qui a trop souvent négligé cet aspect concurrentiel, condamnant ainsi ses innovations à l’agonie. S’il est impératif, pour toutes les questions éthiques que nous avons soulevées, que l’Europe puisse développer ses propres modèles d’IA, il est tout aussi important de savoir les commercialiser, de les rendre compétitifs. Sans quoi il nous sera impossible de gagner notre autonomie vis-à-vis des entreprises américaines et chinoises qui dominent le marché. De la même manière qu’il est vain, comme on l’a vu, de développer des modèles et des applications d’IA sans avoir d’infrastructures propres ; il serait tout aussi inconséquent, d’un point de vue stratégique, de développer un parc de centres de données européens sans avoir un écosystème européen de grands modèles et d’applications. La question, pour l’Union européenne, dépasse donc celle de la régulation : elle doit définir quels types de modèles elle souhaite promouvoir.Or, l’évolution récente du marché de l’IA semble indiquer qu’un changement de paradigme est en cours. Le modèle DeepSeek R-1 développé en Chine illustre cette transformation en démontrant que l’avenir de l’IA n’est pas déterminé par la force brute des infrastructures de calcul, et qu’il existe donc d’autres façons de faire progresser la technologie. Contrairement à ses concurrents américains, ce modèle a été conçu avec un volume de ressources bien plus limité, tout en atteignant des performances comparables aux modèles les plus avancés d’OpenAI ou de Google. Cette évolution suggère que la rentabilité et l’efficacité passent moins par la course à l’échelle que par l’optimisation ciblée. Cette dynamique ouvre des perspectives stratégiques majeures pour l’Europe. Dans un contexte où elle ne dispose pas des mêmes capacités d’investissement que les États-Unis ou la Chine, elle pourrait tirer parti de cette nouvelle orientation pour structurer une industrie IA différenciée, axée sur des modèles spécialisés à forte valeur ajoutée adaptés aux besoins des entreprises et des secteurs stratégiques. Plutôt que d’entrer dans une course à l’armement algorithmique avec des ressources limitées, elle pourrait se positionner sur un modèle plus ciblé, mettant en avant des approches efficientes et adaptées à la taille et aux spécificités du marché européen. La question, pour l’Union européenne, dépasse donc celle de la régulation : elle doit définir quels types de modèles elle souhaite promouvoir.L’un des axes les plus prometteurs dans cette direction est le développement de modèles spécialisés dits distillés. Ceux-ci ne sont pas conçus comme des alternatives généralistes aux grands modèles de langage, mais comme des extraits optimisés de ces derniers, adaptés à des tâches spécifiques. Ce processus de knowledge distillation permet de réduire la taille du modèle tout en conservant une partie de leurs performances initiales.Cette frugalité les rend particulièrement intéressants pour des cas d’usage où la consommation énergétique et la latence doivent être minimisées. À noter, toutefois : ces modèles spécialisés dépendent de grands modèles de fondation pour leur entraînement initial, et qu’ils ne peuvent donc exister sans une infrastructure d’entraînement robuste et performante.En somme, il reste à l’Europe autant d’opportunités à saisir que d’arbitrages à trancher. Copyright image : Ian LANGSDON / AFP Emmanuel Macron et son épouse Brigitte accueillent le vice-président des États-Unis J.D. Vance et son épouse Usha lors du Sommet pour l’Action sur l’IA à l’Élysée, le 1 février 2025. ImprimerPARTAGERcontenus associés à la uneJanvier 2024Pour une Autorité française de l’IAL'année 2023 a été marquée par la déferlante IA. Le monde a découvert ChatGPT, l’intelligence artificielle à usage général de l’entreprise américaine OpenIA. Alors que plusieurs pays leaders de l’IA ont déjà pris les devants en annonçant la création de leurs propres Instituts de Sûreté de l’IA et que l’Europe s’apprête à mettre en place des règles contraignantes en matière de développement et d’usage, la France manque à l’appel de cette réflexion et prend un retard impardonnable.Consultez la Note d'action 13/02/2025 Sommet sur l’IA : l’autonomie stratégique européenne en haut du col ? Charleyne Biondi 11/02/2025 Intelligence artificielle, efficacité automatique ? Transformations de notr... Nicolas Spatola 30/01/2025 Deepseek : la réussite, et le conte de Noël chinois François Godement 14/11/2024 [Trump II] - Les risques pour la souveraineté technologique européenne Charleyne Biondi