AccueilExpressions par MontaigneIA générative et élections européennes : opportunité ou péril ?L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.29/05/2024IA générative et élections européennes : opportunité ou péril ? Technologies SociétéImprimerPARTAGERAuteur Louise Frion Responsable de projets - Nouvelles Technologies Auteur Charleyne Biondi Experte Associée - Numérique Le Forum de Davos, qui s’est tenu du 15 au 19 janvier, faisait du risque de désinformation lié à l’IA la principale menace planétaire à court-terme, devant le changement climatique, dans son Rapport sur les risques globaux de 2024. Alors que 70 % des Français s’inquiètent de l’impact de la désinformation liée à l’intelligence artificielle (IA), à l’approche des élections européennes qui se tiendront du 6 au 9 juin prochain, comment capitaliser sur la mobilisation des pouvoirs publics, des acteurs privés et de la société civile pour renforcer notre esprit critique ? Quelles sont les réponses collectives et individuelles à envisager dès maintenant ? Quelles leçons tirer pour l’avenir, sachant que courant 2024 se tiendront des élections pour près de la moitié de la population mondiale ? Nos expertes Louise Frion et Charleyne Biondi apportent leur éclairage.La vulnérabilité de l’opinion à l’âge des réseaux sociaux est devenue un sujet d’inquiétude pour les démocraties occidentales en 2016, lors de la campagne présidentielle américaine puis du référendum sur le Brexit. À l’époque, l’extrême viralité de certaines fausses informations susceptibles d’avoir influencé les scrutins en faveur des populistes surprend au point de laisser craindre un basculement dans une ère de "post-vérité" (terme que le dictionnaire d’Oxford consacre alors comme le "mot de l’année"). C’est un renversement total des promesses émancipatrices de l’internet : la libéralisation de l’information, censée promouvoir les valeurs démocratiques, transformée en redoutable levier d’influence au service des anti-libéraux de tous bords.La libéralisation de l’information, censée promouvoir les valeurs démocratiques, transformée en redoutable levier d’influence au service des anti-libéraux de tous bords.Au-delà du modèle économique des plateformes qui encourage la promotion de contenus sensationnalistes et souvent faux, il s’est avéré que des franges entières de l’électorat pouvaient être la cible de campagnes de désinformation parfois orchestrées par des puissances étrangères. En d’autres termes, l’imbrication toujours plus poussée de la politique et des médias sociaux a fragilisé le cœur même du processus démocratique en exposant la formation de l’opinion publique à toutes sortes de manipulations.En conséquence, la France s’est dotée dès 2018 d’une "loi fake news", et l’Union européenne a soumis les plateformes à un nouveau règlement visant à lutter contre la propagation de fausses informations. Cependant, les récents développements de l’intelligence artificielle (IA) dite générative pourraient rendre ces mesures inopérantes.L’IA générative, apparue au grand public en novembre 2022 sous la forme du chatbot "Chat GPT", permet de générer des contenus textuels ou graphiques originaux, semblables à ceux que pourrait créer un humain - une innovation susceptible d’accroître non seulement la quantité de fausses informations en circulation, mais aussi leur vraisemblance. Des chercheurs d’OpenAI (l’entreprise ayant commercialisé ChatGPT) ont eux-mêmes conclu, dans une étude sur les possibles détournements de leur outil, que l’IA pourrait rendre la désinformation plus efficace que la propagande traditionnelle, et surtout plus difficilement repérable. Il serait en effet presque impossible de distinguer un contenu artificiellement généré d’une archive originale.Ainsi, alors que la moitié de la population mondiale est appelée aux urnes en 2024, les possibles mésusages de l’IA générative ravivent les pires scénarios d’ingérence. Pour les analystes de Microsoft comme pour le Parlement européen, cela se traduit par un risque accru d’influence étrangère dans le processus électoral, qui prendrait la forme de campagnes de désinformation massives, à la fois facilitées et augmentées par l’IA.Pour l’Union européenne, où l’on anticipe déjà une percée des extrêmes, les élections de juin s’annoncent comme un véritable test de la résilience de ses institutions et de ses systèmes face à la pénétration de contenus eurosceptiques et populistes. Reste à savoir jusqu’à quel point le recours à l’IA peut être déterminant pour l’efficacité de ces éventuelles campagnes de propagande - car c’est bien là tout l’enjeu : évaluer la nature et la portée de la menace technologique qui pèse sur les élections à venir.Que reste-t-il de la compétence de l’électeur lorsqu’il n’est plus à l’abri de vidéos ou d'enregistrements audio truqués et capables de lui faire croire n’importe quoi ? Un scrutin est-il encore légitime quand il résulte d’une telle manipulation ? Pour la démocratie, le danger ne réside pas tant dans la "qualité" de ces fausses informations dopées à l’IA, mais dans l’état de grande insécurité épistémique où ces technologies nous plongent, noyant les critères de crédibilité et les capacités de jugement dans le bruit (dés)informationnel qu’elles alimentent. Il est donc plus que jamais essentiel de s’armer critiquement - et collectivement - pour faire en sorte que l’IA ne soit pas un obstacle, mais un prétexte pour refonder les bases d’un dialogue démocratique.L’IA générative, amplificateur de fakesD’après le rapport sur les risques globaux de 2024 présenté à Davos en début d’année, la désinformation amplifiée par l’IA générative présenterait la principale menace planétaire à court-terme, devant le réchauffement climatique. Si depuis 2016, la manipulation des effets de bulle, d’auto-radicalisation et de polarisation de l’opinion par des acteurs malveillants représente un enjeu majeur de sécurité internationale, l’arrivée de l’IA générative risque de décupler le danger potentiel des campagnes de désinformation politique.Le rapport pointe la propagation des deep fakes (des images, vidéos ou fichiers audios falsifiés à l’aide de l’IA générative pour faire faire ou faire dire à une personne des choses qu’elle n’a en réalité jamais dites ni faites), mais met surtout en garde contre les usages moins sophistiqués de l’IA qui permettent de rendre plus "plausibles" des fausses informations (en donnant, par exemple, meilleure allure aux profils ou sites web qui les diffusent).La désinformation amplifiée par l’IA générative présenterait la principale menace planétaire à court-terme.Or, selon le rapport de Davos, cette accélération de la viralité et de la plausibilité des fausses informations aurait le potentiel de créer des troubles importants (manifestations violentes, crimes haineux ou encore actes terroristes), sans pour autant nécessiter de prouesses techniques. En somme, l’IA générative mettrait la déstabilisation sociétale à la portée de tout le monde.En particulier, l’IA générative peut être utilisée facilement pour brouiller les frontières entre le factuel et le plausible, et ainsi augmenter considérablement "l’efficacité" des fausses informations en contexte électoral. Les altérations audio et visuelles produites par l’IA sont en effet difficilement discernables sans expertise technique, et créent donc des narratifs d’autant plus convaincants qu’ils sont vraisemblables. L’exemple de la Slovaquie, où la diffusion, 48 heures avant l’ouverture des urnes, d’un deep fake audio impliquant le candidat progressiste dans un (faux) scandale de corruption qui lui a coûté l’élection illustre bien la forte dimension performative de la désinformation politique augmentée par l’IA. Ces contenus peuvent devenir viraux plus facilement via des bots qui propagent de l’information à grande échelle et à moindre coût. Concrètement, cela pourrait se matérialiser par des débats politiques qui semblent avoir lieu entre candidats, alors que ce ne sont en réalité que des dialogues entièrement artificiels créés de bot à bot.Mais le rapport de Davos met aussi en garde contre la dangerosité d’usages bien plus modestes de l’IA, qui pourraient néanmoins avoir des effets tout aussi néfastes que les deep fakes sophistiquées. Une analyse partagée par les experts de Microsoft, dont l’étude du 17 avril dernier nous apprend que la plupart des tentatives de manipulations électorales ayant eu lieu depuis l’été 2023 ne nécessitent pas de maîtriser finement un algorithme d’IA. En effet, les exemples recensés jusqu’à présent sont davantage des fake news que des deep fakes. Le principal risque pour cette période électorale est donc bien de voir des IA génératives grand public instrumentalisées pour disséminer des contenus de propagande à grande échelle.Or, en s’immisçant ainsi dans notre quotidien, l’IA générative pourrait incarner un nouvel outil de contrôle invisible, à la manière des réseaux sociaux, par le biais de l’exploitation de données comportementales résiduelles. Dans The Age of Surveillance Capitalism, Shoshana Zuboff explique comment ce procédé permet aux plateformes de prédire les comportements futurs en s’appuyant sur les "traces" numériques laissées par les utilisateurs à leur insu. Demain, des bots d’IA générative (faux comptes gérés par une IA générative par exemple) pourraient se propager insidieusement et créer des contenus fortement émotionnels, orientés ou biaisés destinés à influencer l’opinion avant ou pendant l’élection.L’insécurité épistémique, un risque structurel pour la démocratieDans les campagnes de désinformation, les fake news les plus virales sont très souvent de piètre qualité. En 2016, les fausses informations les plus massivement partagées pendant la campagne présidentielle américaine concernaient une théorie du complot rocambolesque sur un réseau pédophile organisé par la candidate démocrate dans le sous-sol d’une pizzeria (le pizzagate). Plus récemment, au début de la guerre en Ukraine, une deep fake présentant un montage grossier du président ukrainien appelant à la capitulation a été massivement partagée sur les réseaux sociaux avant d’être supprimée par Meta. Comme le note cette étude sur les effets de la désinformation dans la guerre en Ukraine, il est très peu probable que cette vidéo de Zelensky ait convaincu qui que ce soit, tant les manipulations de l’image et du son sont évidentes ; mais sa seule existence suffirait pourtant à nourrir une forme de scepticisme envers toutes les sources médiatiques (y compris les plus légitimes).Sa seule existence suffirait pourtant à nourrir une forme de scepticisme envers toutes les sources médiatiques (y compris les plus légitimes).Une autre étude portant sur la valeur attribuée aux contenus informationnels selon qu’ils sont générés par une IA ou créés par des humains, a montré d’une part que les participants étaient incapables de distinguer un contenu artificiel d’un contenu authentique, et d’autre part, qu’ils étaient plus enclins à dégrader la valeur de tous les contenus présentés lorsqu’ils n’en connaissaient pas la source.En d’autres termes, la méfiance envers l’IA conduit (paradoxalement ?) à une érosion générale de la confiance dans les médias.Or, c’est bien là le plus insidieux danger de la désinformation : sa propension à semer le doute sur l’ensemble de l’écosystème informationnel, à créer un état "d’insécurité épistémique" selon la formule d’Elizabeth Seger. Pour la chercheuse, la sécurité épistémique, c’est-à-dire la capacité à protéger les sources et la dissémination des connaissances, est essentielle pour gouverner, surtout en temps de crise. Une altération de l’écosystème informationnel, quand les sources légitimes ne font plus autorité auprès d’une part importante de la population, menace la mise en place d’une action publique coordonnée. Dans une situation d’urgence, telle qu’une pandémie ou une menace nucléaire, un contexte d’insécurité épistémique pourrait rendre difficile, voire impossible, la bonne exécution d’une politique sanitaire ou sécuritaire auprès des populations qui douteraient de leur bonne foi.Plus fondamentalement, la sécurité épistémique est la condition de possibilité d’un régime démocratique. Le droit de vote et le principe de l’élection supposent en effet un public à la fois informé et apte à la délibération - deux pré-requis pour l’exercice d’une forme d’esprit critique et d’auto-modération. Or, pour délibérer, en soi-même ou en société, il faut a minima que l’on s’accorde sur les critères de jugement, sur ce qui différencie une vérité factuelle d’une croyance. Dans un état d’insécurité épistémique, c’est précisément ce consensus nécessaire et fondateur qui est érodé : on ne peut même plus s’accorder sur les fondements qui nous permettraient de débattre de nos désaccords. Le dialogue est rompu, et la démocratie "défigurée" (Urbinati).Préserver un débat public informé et rationnel, un enjeu politique de tailleÀ l’approche des élections européennes, la protection de l’écosystème informationnel est un enjeu des plus pressants. La dernière étude Ipsos / Sopra Steria montre en effet une forte porosité des Français à la désinformation, 66 % des personnes interrogées adhérant au moins à une fake news. Ces données sont d’autant plus inquiétantes que les Français ne semblent pas prendre la mesure de l’ampleur du phénomène : si 20 % seulement des répondants craignent que s’informer sur les réseaux sociaux ne les conduisent à développer des biais, seulement 10 % d’entre eux ont répondu correctement aux 4 questions d’actualité qui ont été posées dans la foulée. Dans la même veine, alors qu’ils sont 60 % à adhérer à au moins une thèse complotiste, 75 % des Français estiment qu’ils ont un esprit critique. Or, ces contradictions ne sont pas seulement le symptôme d’un écosystème informationnel dégradé, mais d’une société qui peine à s’accorder sur les critères d’un jugement rationnel.L’enjeu des mesures de lutte contre la désinformation est donc double : il s’agit à la fois de protéger la qualité de l’information disponible en ligne, et de renforcer les conditions d’un débat public rationnel et factuel. Des mesures plus ou moins offensives sont prises pour préserver la qualité des informations en ligne, comme la labellisation des contenus générés par de l’IA (ou "watermarking", c’est-à-dire l’ajout d’un message, logo ou signature à une donnée pour déterminer sa provenance ou son origine, gérer les droits d’auteurs et tracer la provenance d’un document), la vérification de leur véracité (fact-checking) ou le retrait pur et simple des fausses informations publiées (debunking, soit le retrait ou la correction d’une fausse information déjà publiée, dans l’objectif de rétablir la vérité des faits).Dans la même veine, alors qu’ils sont 60 % à adhérer à au moins une thèse complotiste, 75 % des Français estiment qu’ils ont un esprit critique. Or, ces contradictions ne sont pas seulement le symptôme d’un écosystème informationnel dégradé, mais d’une société qui peine à s’accorder sur les critères d’un jugement rationnel.L’objectif n’est pas de censurer les contenus (ce qui serait contraire à la liberté d’expression) mais de limiter la propagation des fausses informations en agissant directement sur ses canaux de diffusion, c’est-à-dire les plateformes. En 2018 a ainsi été lancé par la Commission européenne un Code de bonnes pratiques contre la désinformation, qui n’est pas contraignant en soi, bien que ses signataires se soient engagés à prendre des mesures pour la juguler. Dans cet esprit, le régulateur européen a acté avec le Digital Services Act (DSA) l’obligation pour les plateformes d’être transparentes quant à leurs systèmes de recommandation de contenus. Les directives de la Commission européenne prévoient d’infliger des amendes à hauteur de 6 % de leur chiffre d’affaires mondial aux plateformes et moteurs de recherche qui ne prendraient pas les mesures nécessaires, notamment en période de campagne électorale.En parallèle, le secteur privé a développé ses propres garde-fous. Google, TikTok et Meta ont mis en place des techniques de watermarking, ou labellisations (telles que des étiquettes "Made with AI" sur Meta) pour authentifier les contenus générés par de l’IA. Dans une lettre adressée à Whatsapp, la Mozilla Foundation propose d’ajouter des étiquettes d’avertissement de type "transmis en masse : veuillez vérifier" (au lieu de "transmis de nombreuses fois") pour préempter la désinformation, notamment en période électorale. Chez Meta, les contenus susceptibles d’entraîner des violences imminentes sont retirés pour mettre en œuvre des stratégies d’atténuation en temps réel. Google concentre ses efforts sur le retrait des fausses informations avant qu’elles n’aient pu devenir virales, avec près de 50 % des contenus de désinformation retirés avant d’avoir atteint les 100 vues. Open AI a mis en place des "détecteurs de deep fakes" pour repérer les contenus générés par DALL-E (générateur d’images). Le sujet mobilise en outre les plus gros acteurs avec la signature le 16 février dernier du AI Election Accord (par 26 entreprises parmi lesquelles Amazon, Anthropic, Google, Meta, Open AI, Snapchat ou TikTok ) qui pose sept grands principes pour s’assurer de la qualité de l’information disponible en ligne : la prévention, la provenance, la détection, la réponse proportionnée, l’évaluation, la sensibilisation du public et la résilience.Enfin, le prebunking, qui consiste à anticiper les possibles manipulations de l’information de façon à prémunir les internautes avant qu’ils n’y soient exposés, est en train de s’imposer comme la technique de choix pour préserver les conditions d’un débat public rationnel. Google a ainsi lancé en Europe de l’Est une campagne pour contrer les fausses informations concernant les réfugiés ukrainiens. TikTok a créé un "centre électoral" multi-langues en vue des prochaines élections européennes. À Taiwan, la ministre des affaires numériques Audrey Tang s’est filmée en train de réaliser elle-même un deep fake pour avertir les citoyens des risques de désinformation chinoise. Ces mesures de prebunking visent donc avant tout à donner aux citoyens les moyens de s’émanciper des effets de sidération que peuvent produire les faux-contenus augmentés par l’IA.L’IA, une opportunité de refonder les bases d’un dialogueLes risques liés aux usages malveillants de l’IA - et en particulier, l’ampleur que pourrait prendre la désinformation politique si l’IA n’est pas suffisamment encadrée - ont le mérite de ramener la démocratie à sa vérité première. De rappeler qu’une démocratie ne se reconnaît pas tant à la simple tenue d’une élection, mais à sa capacité à organiser la multitude, à faire émerger d’une masse plurielle une forme de compromis, voire de consensus (au travers, entre autres, des élections). En l'occurrence, quand on s’inquiète des manipulations de l’opinion publique, de la qualité de l’écosystème informationnel, ou des ingérences étrangères dans l’espace public, c’est bien parce qu’elles menacent directement la capacité d’atteindre un compromis - et donc, l’essence même de la démocratie. Dès lors, les politiques publiques de lutte contre la désinformation doivent avant tout être des mesures de dialogue, fondement et condition du pluralisme par excellence.Une démocratie ne se reconnaît pas tant à la simple tenue d’une élection, mais à sa capacité à organiser la multitude, à faire émerger d’une masse plurielle une forme de compromis, voire de consensus (au travers, entre autres, des élections).Pour cela, il faut d’abord savoir d’où l’on parle. Un dialogue ne peut s’établir (encore moins se ré-tablir) sans une certaine transparence sur les racines de la pensée. Les content credentials (labels de provenance de contenus digitaux dans le cadre de la Content Authenticity Initiative (CAI), qui ont déjà été adoptées par Open AI) pourraient offrir une piste intéressante en ce sens. Sorte de "nutri score" pour les contenus en ligne, ces métadonnées permettent aux créateurs de contenu d’ajouter un "justificatif" (avec des informations sur le processus de création lors de l’exportation ou du téléchargement du contenu) sur l’origine de l’information.Ces content credentials semblent d’autant plus actionnables qu’ils ne nécessitent pas, à l’instar des fake news, une maîtrise poussée de la technologie. Plusieurs organisations, parmi lesquelles Adobe, Open AI, Camera Bits, Leika, Microsoft, Nikon, Publicis Group et Truepic,ont d’ailleurs mis en place ce type de dispositif dans le cadre de la Content Authenticity Initiative et du standard CP2A (coalition pour la provenance et l’authenticité des contenus) promouvant l’adoption de normes industrielles et techniques visant à certifier l’authenticité et la provenance des informations en ligne.Il faut ensuite savoir "avec qui" l’on parle : garantir la pluralité des points de vue nécessite l’engagement d’une pluralité d’acteurs. Le second enjeu des politiques publiques est donc celui d’une meilleure coopération entre les parties prenantes - entreprises technologiques, pouvoirs publics, société civile - pour déployer efficacement les outils destinés à se former aux biais de l’IA générative dans un contexte électoral.Enfin, tout dialogue requiert une grammaire commune. Nous avonsbesoin de standards partagés sur ce qui constitue la sécurité épistémique de notre espace informationnel. Pour cela, nous pensons que la grille de bonnes pratiques de design des interfaces utilisateurs portée par la commission Bronner, Les Lumières à l’ère numérique, doit s’enrichir de critères spécifiquement conçus pour affûter l’esprit critique des internautes confrontés aux dark patterns (interfaces conçues explicitement pour manipuler ou tromper un utilisateur). L’AI Office, qui est en cours de constitution, pourrait par exemple envisager une commission composée de spécialistes du design, de l’éthique et de sciences sociales (psychologues, philosophes et sociologues). En outre, les gouvernements pourraient limiter les engagements entre les fournisseurs de solutions d’IA générative et les annonceurs publicitaires, en exerçant un contrôle sur l’heure et la manière dont sont diffusées des informations politiquement sensibles. Les outils d’IA générative open source pour faire du fact-checking en contexte électoral pourraient également se développer davantage, sous l’égide de communs numériques comme Décidim qui se sont constitués pour une meilleure participation citoyenne à la vie publiqueAu travers de la régulation de l’IA et de ses applications, c’est une réflexion sur les normes du discours et du débat public que l’Union européenne et ses partenaires sont en train de mener. En ce sens, la maîtrise des "effets secondaires" de l’IA, qui passe par une redéfinition des bases d’un dialogue dans l’espace numérique, sur le processus électoral offre aussi une opportunité inédite de revitaliser la culture démocratique.Nous avons besoin de standards partagés sur ce qui constitue la sécurité épistémique de notre espace informationnel.Copyright image : Sebastien BOZON / AFPImprimerPARTAGERcontenus associés à la uneJanvier 2024Pour une Autorité française de l’IAL'année 2023 a été marquée par la déferlante IA. Le monde a découvert ChatGPT, l’intelligence artificielle à usage général de l’entreprise américaine OpenIA. Alors que plusieurs pays leaders de l’IA ont déjà pris les devants en annonçant la création de leurs propres Instituts de Sûreté de l’IA et que l’Europe s’apprête à mettre en place des règles contraignantes en matière de développement et d’usage, la France manque à l’appel de cette réflexion et prend un retard impardonnable.Consultez la Note d'action 11/03/2024 Préparons proactivement l’Europe à la révolution de l’IA Aiman Ezzat Paul Hermelin 09/01/2024 2024 : les nouvelles frontières des pionniers du numérique Jonathan Guiffard 04/12/2023 Intelligence artificielle en santé : l’innovation sous surveillance Laure Millet