Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
20/07/2023

IA : l’ambivalence entre course technologique et gouvernance mondiale

IA : l’ambivalence entre course technologique et gouvernance mondiale
 Milo Rignell
Auteur
Expert associé - IA & Nouvelles Technologies

Comment composer avec une Intelligence artificielle en pleine éclosion, au potentiel aussi prometteur que menaçant ? Après une véritable course à l’innovation, une prise de conscience semble se généraliser face au "risque d’extinction" cristallisé par cette technologie. Certains pays y voient par ailleurs une opportunité pour imprimer leur marque sur une gouvernance mondiale de l'IA. C’est cet équilibre entre "sprint technologique", leadership normatif et développement responsable que Milo Rignell, responsable de projet et expert résident sur les nouvelles technologies à l’Institut Montaigne se propose de dénouer dans ce papier, en analysant notamment les réponses américaine, chinoise, anglaise ou française pour répondre à ce défi.

Une course technologique

Sur les six derniers mois, l’IA n’a cessé de faire la Une des médias et des agendas politiques, avec deux sujets qui se sont rapidement succédés. Le premier est celui de la course à l’IA. Fin 2022, ChatGPT a dévoilé à des millions d’utilisateurs la puissance des derniers modèles d’IA, avec des résultats impressionnants dans la quasi totalité des domaines, en allant de la médecine à la finance - chacun sentant bien qu’il ne voyait que la partie émergée de l'iceberg. Goldman Sachs chiffrait l'impact à 7 trilliards de dollars, soit 7 % du PIB mondial, sur dix ans. La question qui se posait pour tous - entreprises et entrepreneurs, investisseurs et chefs d’États - était alors : comment rattraper OpenAI, le concepteur de ChatGPT, pour se positionner à la tête de la course à l’IA ? En 2022, l'investissement privé mondial dans l’IA a atteint 92 milliards de dollars, soit près de 20 fois plus qu’il y a 10 ans. Pour les États, ces développements confirmaient que l’IA était un enjeu stratégique de premier ordre, décisif aussi bien du point de vue économique que militaire. 

Une course à la gouvernance de l’IA

Suite à la dissémination fulgurante de ChatGPT auprès du grand public puis aux grands bonds de performance réalisés par GPT 4, le dernier modèle d’IA d’OpenAI, un deuxième sujet a rapidement émergé : celui de la gouvernance d’une technologie extrêmement puissante mais mal comprise.

Nous n’avons, à date, aucun moyen de garantir le comportement de systèmes d’IA de plus en plus performants et autonomes.

De nombreux scientifiques pionniers des techniques modernes d’IA, ainsi que plusieurs dirigeants des entreprises à la pointe du domaine ont publiquement exprimé leur craintes quant au "risque d’extinction lié à l'IA", qui "devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires". Non seulement parce que ces modèles d’IA pourraient tomber entre de mauvaises mains et être détournés à des fins malveillantes, par exemple pour concevoir des armes biologiques et des pandémies induites artificiellement.

Mais aussi parce que la perspective d’une intelligence artificielle générale, capable de surpasser les humains dans toutes les tâches cognitives - du développement de nouveaux programmes informatiques à la planification à long terme - les confrontaient à une prise de conscience difficile : que nous n’avons, à date, aucun moyen de garantir ni même d’évaluer le comportement de systèmes d’IA de plus en plus performants et de plus en plus autonomes. Cette attention portée aux risques de l’IA a ainsi motivé une seconde course - une course à la gouvernance de l’IA, pour définir les règles qui régiront ces systèmes dans le monde.

Un trilemme entre course technologique, course à la gouvernance et principe de précaution

Cette situation pose ainsi un trilemme aux pays qui prétendent à un leadership mondial en IA - les États-Unis et la Chine en premier lieu, mais aussi le Royaume-Uni, l’Union européenne et certains de ses pays membres - la France en particulier. Comment rester à la pointe d’une technologie hautement stratégique, et en même temps fixer des règles de gouvernance qui régiront ces systèmes dans le monde, et en même temps éviter de développer des systèmes imprévisibles qui, en cas de défaillance, pourraient poser un réel risque systémique pour son propre pays, voire pour le monde ?

Les événements récents dans l’IA ont forcé ces pays à réévaluer leurs stratégies à la lumière de ce trilemme entre course technologique, course à la gouvernance et principe de précaution. Pendant longtemps, la priorité des stratégies nationales était le leadership technologique en IA. La régulation et l’investissement dans la sûreté de l’IA étaient alors perçus comme des freins à cet objectif. Pour la Chine, le développement de l’IA était une pièce maîtresse de sa stratégie industrielle "Made in China 2025" dévoilée en 2015 - l’objectif de devenir leader mondial de l’IA en 2030 étant un pari stratégique pour prendre l’ascendant économique et militaire sur les États-Unis. La stratégie nationale IA des États-Unis était elle aussi centrée sur la R&D et le leadership technologique. Comme dans d’autres domaines technologiques, la Chine s’intéressait activement à la normalisation de l’IA, mais seule l’Union européenne avançait dans le sens d’une régulation effective de la technologie, proposée dès son livre blanc sur l’IA de février 2020.

Néanmoins, chacun de ces deux mastodontes ont récemment réorienté leurs stratégies de façon significative afin de prendre en compte les évolutions du domaine.

Pour la Chine, la régulation de l’IA est motivée avant tout par des enjeux de contrôle domestique. Plusieurs régulations se sont ainsi succédées pour contrôler la capacité de l’IA à disséminer de l’information potentiellement dangereuse pour le régime : un premier règlement encadrant les algorithmes de recommandation de contenu en ligne en mars 2022, un second sur les technologies de synthèse artificielle de contenu ("deepfakes") en janvier 2023 et plus récemment, en juillet 2023, des règles pour encadrer l’IA générative.

Pour la Chine, la régulation de l’IA est motivée avant tout par des enjeux de contrôle domestique.

Néanmoins, à des niveaux de réflexion plus stratégiques, les décideurs du Parti communiste chinois prennent sérieusement en compte les enjeux et les “risques existentiels” d’une éventuelle intelligence artificielle générale. Si les États-Unis continuent d’avancer sans projet de réguler l’IA, en s’inscrivant dans une tradition de faible réglementation fédérale notamment sur les sujets technologiques, l’administration Biden a néanmoins posé une première brique dans le sens d’une réglementation avec un "Blueprint for an AI Bill of Rights". Ce document, publié en octobre 2022, pose de premières orientations adressées tant aux acteurs publics que privés pour promouvoir le développement d’une IA sûre et responsable.

Un nouveau domaine d’innovation : la sûreté de l’IA

À défaut de réguler, les États-Unis ont surtout modifié leur stratégie industrielle pour l’IA, en traitant les sujets de sûreté et de confiance avec une approche incitative, qui s’appuie sur des normes volontaires, la transparence et l’évaluation, et l’innovation. La dernière version de la stratégie nationale IA américaine, publiée en mai 2023, consacre 5 de ses 9 axes prioritaires à la sûreté et la sécurité de l’IA, en mentionnant que "des risques à long terme subsistent, notamment le risque existentiel lié au développement de l'intelligence artificielle générale par le biais d'une IA auto-modifiante ou d'autres moyens". La mise à disposition d'outils permettant non seulement de développer mais aussi d’évaluer et d’auditer la sûreté des modèles d’IA constitue un thème central, confié notamment à l’Institut national des normes et de la technologie américain - le NIST. En mai 2023, la Maison Blanche elle-même a organisé une réunion dédiée à "l’innovation dans l’IA responsable", avec la vice-présidente Kamala Harris et les dirigeants des entreprises développant les grands modèles d’IA génératifs les plus performants, parfois appelés modèles fondationnels (OpenAI, Google, Anthropic et Microsoft). À nouveau, l’évaluation de l’IA a été identifiée comme un thème clé, aux côtés de la transparence et de la cybersécurité de ces grands modèles. La Maison Blanche a ainsi conclu un accord avec ces acteurs pour soumettre leurs modèles d’IA à une évaluation publique lors de la conférence de cybersécurité DEFCON 31 en août 2023.

Rishi Sunak annonçait fin avril que son pays accueillerait en fin d’année 2023 un sommet mondial sur la gouvernance de l’IA.

La sûreté et l’évaluation des grands modèles d’IA fondationnels constituent également depuis quelques semaines un axe majeur de la stratégie IA britannique. En parallèle d’une approche réglementaire très souple et "pro-innovation", visant à faire du Royaume Uni un leader plutôt qu'un gendarme de l’IA, le Premier ministre britannique Rishi Sunak annonçait fin avril que son pays dédiait £100 millions à une task force chargée du développement de modèles fondationnels sûrs, puis début juin qu’il accueillerait en fin d’année 2023 un sommet mondial sur la gouvernance de l’IA, soutenu par l'administration Biden.

Ces développements vont dans le sens des recommandations de l’Institut Montaigne, qui préconisait de rapidement faire de la France le leader mondial de la sûreté de l’IA : en positionnant le pays comme terre d’accueil des nombreux scientifiques internationaux souhaitant se dédier au sujet ; en capitalisant sur son expertise existante en sûreté de l’IA pour les systèmes critiques, grâce à son écosystème d’industriels ; et en se saisissant de la réglementation européenne à venir pour poser des exigences de sûreté bien choisies, dont l’une des externalités positives serait de désavantager les systèmes d’IA étrangers peu fiables au profit d’alternatives domestiques.

La France cherche encore son point d’équilibre

Les récentes annonces du gouvernement Macron sur l’IA vont plutôt dans le sens d’une stratégie du "laissez-faire", avec comme premier objectif un rattrapage technologique, plutôt qu’une stratégie de différenciation que pourrait encore constituer un pari sur l’IA sûre. Le gouvernement dédie ainsi 40 millions d’euros à un appel à projet pour développer des communs d’IA générative - des outils mutualisés tels que des grands modèles d’IA pré-entraînés, des bases de données et des outils d'évaluation - et prévoit un "grand défi international sur l’IA générale", permettant à plus d’acteurs de développer des solutions dans un domaine qui requiert autrement des montants d'investissement initiaux significatifs. Cette approche constitue très certainement un effort nécessaire pour éviter une dépendance technologique forte sur les modèles fondationnels d’IA d’une poignée d’acteurs américains ou chinois. Mais elle constitue à ce stade une stratégie purement défensive, sans espoir réel de rattrapper les acteurs américains et avec un risque de décrochage si le développement technologique continue d’accélérer.

Dans ce contexte, la France a encore une carte à jouer. Elle peut jouer un rôle décisif à l’échelle mondiale dans la mise en place des exigences en matière de sûreté et de confiance qui s’appliqueront aux systèmes d’IA et aux entreprises qui les développent. Concrètement, il s’agit des normes volontaires (type ISO) qui les incarneront et des outils d’évaluation et d’audit qui permettront de les contrôler.

Concrètement, il s’agit des normes volontaires (type ISO) qui les incarneront et des outils d’évaluation et d’audit qui permettront de les contrôler.

Ces outils donnent de la visibilité aux chercheurs, entrepreneurs et industriels qui peuvent ensuite canaliser leurs atouts vers des innovations pionnières en sûreté de l’IA. S’ils s’articulent intelligemment avec la future réglementation européenne de l’IA, ils seront par ailleurs essentiels pour accompagner sa mise en œuvre courant 2025 et clarifier les exigences pour les entreprises.

La France est déjà pionnière dans la sûreté et l'évaluation de l’IA. Elle dispose d’une expertise mondiale dans la sûreté de l’IA grâce à des acteurs industriels des systèmes critiques (aéronautique, nucléaire, etc), un Grand défi sur l’IA de confiance ayant déjà consacré plus de 100 millions d’euros au sujet - soit l’un des des plus grands projets d’innovation de rupture dans le domaine - et des acteurs pionniers de l’évaluation de l’IA tels que le Laboratoire national de métrologie et d'essais (LNE).

Elle doit désormais créer les conditions pour rapprocher ses écosystèmes industriels et d’IA générative, dans le but de faire émerger des leaders mondiaux de la sûreté des plus grands modèles d’IA fondationnels. À court terme, les 40 millions d’euros dédiés aux communs numériques de l’IA générative pourraient être l’occasion de développer des outils d’évaluation de référence des critères de sûreté et de confiance jugés prioritaires. Le "grand défi international sur l’IA générale”, qui "comparera les performances selon des mesures standardisées", pourrait devenir un "grand défi international sur l’IA générale sûre", en priorisant ces mesures standardisées de sûreté et de confiance pour stimuler l'innovation dans le domaine.

Tous les acteurs s’accordent sur l’intérêt d’adopter des normes communes en matière de sûreté et de confiance pour l’IA.

Bien que tous les pays ne se soumettent pas à une réglementation contraignante, tous les acteurs s’accordent sur l’intérêt d’adopter des normes communes en matière de sûreté et de confiance pour l’IA. L’adoption par les entreprises et la confiance des utilisateurs en dépendent.

Que ce soit l’Europe, la Chine ou les États-Unis, tous convergent vers des critères de sûreté et de confiance similaires : robustesse et fiabilité, transparence et explicabilité, qualité des données, cybersécurité, exactitude, non-discrimination et absence de biais, bonne spécification des objectifs du modèle, etc. La sûreté de l’IA à l’européenne n’est donc pas si différente de la sûreté de l’IA à l’américaine, voire à la chinoise (modulo une importance accrue du contrôle de contenu dans le cas de la Chine). Dans le cadre du sommet transatlantique EU-US Trade and Technology Council (TTC), l’Europe et les États-Unis se sont même accordés sur une feuille de route commune pour développer des normes et des outils d’évaluation de l’IA. Malgré la volonté de l’Europe de prendre le devant de la course à la gouvernance de l’IA, c’est à ce stade le NIST américain qui guide ce processus. Or le pire scénario pour l’innovation en Europe serait une réglementation européenne en désaccord avec les mauvais outils d’évaluation et de mise en œuvre.

La France a encore le temps pour trouver son point d’équilibre, entre rattrapage technologique, champion de la gouvernance mondiale et principe de précaution face à d’éventuels risques majeurs. Mais ce qui ressemble à un trilemme insoluble constitue en réalité une opportunité inédite. Devenir un acteur incontournable de l’innovation dans la sûreté des grands modèles d’IA fondationnels - leur développement et leur évaluation - permettrait d’asseoir la position pionnière de l’Europe dans la course à la gouvernance de l’IA, et en même temps de faire éclore un écosystème d’acteurs capables de proposer des modèles d’IA qui peuvent réellement être déployés par des acteurs économiques, en toute confiance.

 

Copyright Image : Lionel BONAVENTURE / AFP

Cette photographie prise à Toulouse, dans le sud-ouest de la France, le 18 juillet 2023, montre un écran avec les logos de Chatgpt et Bard AI, une application logicielle d'intelligence artificielle conversationnelle développée par Google.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne