twittertwitter  facebook  linkedin  youtube  instagram
Communiqué de presse À Paris, le 19 avril




CP - 19 avril - Investir l'IA sûre et digne de confiance
Découvrir la note de l'Institut Montaigne

À Paris, le 19 avril 2023 - Le développement accéléré des systèmes d’IA à « usage général » tels que ChatGPT appellent à nous questionner collectivement sur les opportunités et les dangers que portent les évolutions de l'Intelligence Artificielle. Alors que les régulateurs européens commencent à se mobiliser pour répondre à cette vague d’inquiétude, le développement d'une IA sûre et digne de confiance représente non seulement un impératif pour notre sécurité et notre modèle de société mais aussi une opportunité stratégique inédite pour la France et l’Union Européenne. 

Dans une note d’actions - nouveau format que nous dévoilons -  intitulée « Investir l'IA sûre et digne de confiance : un impératif européen, une opportunité française », nous proposons 10 recommandations opérationnelles pour que la France et l’Europe saisissent cette opportunité

Si l’Europe veut s’assurer que les systèmes d’IA performants mais dangereux, soient soumis à une future réglementation européenne, avec la même portée internationale que le RGPD, elle doit adopter une approche ambitieuse pour l’IA « à usage général ». La France au sein de l’Europe est particulièrement motrice et s’est positionnée comme leader dans le développement de systèmes d’IA sûrs et dignes de confiance.

« La France a une opportunité unique à saisir sur l'IA sûre et digne de confiance : si nous envoyons un signal international fort, avec des investissements à la hauteur, nous pouvons attirer certains des meilleurs talents du monde et nous positionner sur un maillon clé pour l'avenir de l'IA » précise Milo Rignell, responsable de projets et expert résident sur les nouvelles technologies à l’Institut Montaigne et auteur de la note.

Objectif 1 : faire de la France un leader mondial de la R&D dans la sûreté et la confiance des modèles d’IA à usage général

Recommandation 1 : Attirer en France les meilleurs chercheurs internationaux de l’IA avec un appel porté au plus haut niveau de l’État, sur le modèle de l’initiative « Make Our Planet Great Again », centré sur le développement de systèmes d’IA à usage général sûrs et dignes de confiance.

Recommandation 2 : Mener un projet d’innovation de rupture pour développer des systèmes d’IA à usage général sûrs et dignes de confiance, doté de 100 millions d’euros et d’une gouvernance agile, qui s'appuie sur les forces de l’écosystème français.

Recommandation 3 : Créer un pôle de recherche mondial sur la compréhension des préférences humaines et leur bonne spécification pour des systèmes d’IA à usage général. Confier la coordination de ce pôle à un institut de recherche emblématique (ENS ou 3IA par exemple) et assurer son financement via une enveloppe dédiée, par exemple des Programmes et équipements prioritaires de recherche (PEPR).

Recommandation 4 : Faire de l’IA sûre et digne de confiance un projet important d'intérêt européen commun (PIIEC) permettant d’assouplir les règles d’aides d’Etat et/ou l’un des « produits phares » de l’Union européenne dotés d’environ 1 milliard d’euros.

Recommandation 5 : Développer en France deux référentiels (benchmarks) pour la recherche permettant de mesurer la confiance et la performance d’un système d’IA à usage général.

Recommandation 6 : Créer une discipline de sûreté de l’IA (ou génie de l’IA) en conditionnant le financement public des formations à l’IA à l’intégration d’un module sur la sûreté et la confiance de l’IA.

Objectif 2 : définir un cadre réglementaire européen pour la sûreté et la confiance de l’IA à usage général et favoriser son adoption dans le monde

Recommandation 7 : Concrétiser la proposition de la France d’inscrire les systèmes d'IA à usage général dans la réglementation européenne de l’IA et favoriser son adoption dans le monde via le E.U.-U.S. Trade and Technology Council (TTC) et le G20.

Recommandation 8 : Confier au futur régulateur français de l’IA une expérimentation pilote ou un audit à blanc du processus d’audit de l’IA prévu par la réglementation européenne, afin d’accompagner la montée en puissance d’un écosystème d’audit français (entreprises, auditeurs, régulateur).

Recommandation 9 : Développer au sein du futur régulateur français de l’IA et en association étroite avec les acteurs de l’évaluation comme le LNE un « bac à sable » (sandbox) réglementaire de l’IA, pour tester sans conséquence juridique le degré de conformité de nouveaux systèmes d’IA et d’IA à usage général.

Recommandation 10 : Confier au futur régulateur français de l’IA la création d’une base de données de référence de documentation des défaillances de systèmes d’IA.

Découvrir la note de l'Institut Montaigne
À propos de l’Institut Montaigne

Créé en 2000, l’Institut Montaigne est un espace de réflexion, de propositions concrètes, et d’expérimentations au service de l’intérêt général. Think tank de référence en France et en Europe, ses travaux sont le fruit d’une méthode d’analyse rigoureuse, critique et ouverte qui prennent en compte les grands déterminants sociétaux, technologiques, environnementaux et géopolitiques afin de proposer des études et des débats sur les politiques publiques. Association à but non lucratif, l’Institut Montaigne organise ses travaux autour de quatre piliers thématiques : la cohésion sociale, les dynamiques économiques, l’action de l’État et les coopérations internationales. Menés dans la collégialité et l’indépendance, l’Institut Montaigne réunit des entreprises, des chercheurs, des fonctionnaires, des associations, des syndicats, des personnes issues de la société civile et d’horizons divers. Nos travaux s’adressent aux acteurs publics et privés, politiques et économiques, ainsi qu’aux citoyens engagés. Depuis sa création, ses financements sont exclusivement privés, aucune contribution n'excédant 1,2 % d'un budget annuel de 7,2 millions d'euros.

Catherine Merle du Bourg
Chargée de projets - Communication et relations presse
07 71 74 03 97
cmerledubourg@institutmontaigne.org

Visualiser en ligne

Se désinscrire de cette liste

© INSTITUT MONTAIGNE 2024


Institut Montaigne

twitter  facebook  linkedin  youtube  instagram
Visualiser en ligne

Se désinscrire de cette liste

© INSTITUT MONTAIGNE 2024
Institut Montaignetwitter  facebook  linkedin  youtube  instagram