Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
19/04/2023

Technopolitique de l’IA : luttes idéologiques, tensions géopolitiques, espoirs démocratiques

Technopolitique de l’IA : luttes idéologiques, tensions géopolitiques, espoirs démocratiques
 Asma Mhalla
Auteur
Spécialiste des enjeux politiques et géopolitiques de la Tech

Les débats autour de l’intelligence artificielle se multiplient depuis plusieurs semaines, favorisés par l’utilisation à très grande échelle de ChatGPT. Sommes-nous les contemporains d’une révolution dont l’agent conversationnel serait le leader et le héraut ? Pour Asma Mhalla, si ChatGPT marque un nouveau tournant pour l’intelligence artificielle, la révolution a déjà eu lieu. En matière d’IA, la question centrale ne serait plus tant celle du “comment” ou du “quand” mais bien celle du “qui” : qui en détient la vision ? La conception ? Et selon quels intérêts ? Face à la Chine et aux États-Unis, l’enjeu est non seulement géopolitique mais également idéologique. À cet égard, souligne l’auteur, il revient à la France et à l’Europe d’élaborer une véritable stratégie techno-industrielle.

La façon dont le débat public s’est emparé de la question de l’intelligence artificielle laisse parfois songeur : l’intelligence artificielle est souvent comprise comme un "bloc", un "concept".. Elle nous est présentée comme une perspective, quelque chose à venir, à craindre. Un horizon fantasmatique : "pour ou contre", "danger ou progrès", "l’homme ou la machine", etc. La réflexion proposée est bien souvent victime d’un enfermement binaire dont nous sommes désormais coutumiers mais qu’il faut toujours combattre avec nuance et complexité.

Pourtant, le sujet, hautement complexe, ne peut se contenter de cet excès de simplisme, l’intelligence artificielle se situe à un carrefour interdisciplinaire stratégique : data science, philosophie politique, géopolitique, droit, économie, politiques publiques.

Au-delà des fantasmes, l’IA est une réalité bien palpable, un enjeu de puissance et un vecteur de pouvoir. Elle pointe les failles de nos démocraties, nous enjoint à une réflexion sur la singularité de l’Homme. En tant que Technologie totale, elle exige une pensée totale.

La révolution a déjà eu lieu et le monde ne s’est pas effondré

En l’espèce, le fantasme est précisément de croire qu’il y en a un. Pour aborder sereinement un sujet aussi complexe, il faudrait avant tout se mettre en condition et convoquer les travaux du psychologue Daniel Kahneman : inhiber son premier circuit cognitif, heuristique, celui qui alimente instinctivement les émotions primaires, souvent négatives, la peur en premier lieu, pour mieux activer le second circuit, celui de la pensée complexe, du raisonnement à froid, de la distance critique avec son objet.

Partant de là, l’IA n’est pas un horizon, elle est une réalité matérielle, opérationnelle, déjà omniprésente dans nos existences. Elle n’a d’ailleurs pas d’unicité propre. Elle est au contraire multiple, issue de modèles d’entraînement plus ou moins profonds, du "machine learning" simple au "deep learning" le plus sophistiqué : intelligences artificielles génératives de contenus (textes, voix, images, codes), agents conversationnels, systèmes de prédiction, logiciels de prise de décisions, algorithmes de recommandation, reconnaissance faciale ou biométrique, véhicules et armes autonomes en perspective. L’ "IA-as-a-concept" participe déjà à nos environnements quotidiens directs ou indirects. Disons-le, la révolution de l’IA n’est pas une perspective, elle a déjà eu lieu, progressivement, par à-coups, de sauts technologiques en surprises. Son développement s’est plus particulièrement déployé ces trente dernières années avec alternativement des moments d’emballement et d’Eurêka - ChatGPT en ce moment en est un, Deep Blue en 1997 (le superordinateur d’IBM qui avait alors réussi l’exploit de battre Gary Kasparov aux échecs) ou encore AlphaGo en 2015 (intelligence artificielle développée par DeepMind ayant réussi là encore à battre un joueur professionnel) - en leur temps, et puis de longs tunnels de ralentissements et de doute.

En ce qui concerne ChatGPT, la  vague de "hype" que nous vivons au moment où ces lignes sont écrites est une réussite technologique et commerciale, une réussite enrobée d’un récit savamment organisé par Sam Altman mais aussi par ses détracteurs qui ont ainsi fait monter la côte du sujet en flèche – donc sa valeur business. Ce storytelling a été abondamment repris par les médias du monde entier. Autour de ce "momentum" populaire et médiatique, ChatGPT marque en effet un tournant, et cela à trois égards :

-  Les modèles LLM (les Large Language Models) existaient déjà depuis la fin 2017, mais la vitesse de propagation (scalabilité du modèle) et le niveau d’acceptabilité sociale des utilisateurs à échelle globale furent quant à eux réellement inédits. En janvier 2023, ChatGPT 3.5 comptabilisait plus de 100 millions d’utilisateurs actifs à peine deux mois après son lancement.

- Le saut qualitatif réel entre la version 3.5 de fin 2022 et ChatGPT 4 mis à disposition il y a à peine quelques semaines, plus complexe, plus fiable, plus cohérent, multimodal, capable de traiter des prompts (consignes) plus nuancés. Le narratif volontairement "anthropomorphe" participe à la fabrication de ce mélange paralysant de panique préfabriquée, de sentiment de perte de contrôle et de fascination. La déconstruction des discours est ici fondamentale car si les systèmes actuels sont incapables de raisonnement, ils le simulent très bien en revanche. Par exemple, les modèles génératifs reposent sur des calculs probabilistes mais à aucun moment sur une pensée autonome.

- Le nouveau coup de projecteur dans le débat public sur la place de ces outils dans nos agencements sociaux, industriels et politiques représente une occasion unique de mettre à plat des sujets latents en matière de politiques publiques que l’IA vient bousculer de nouveau, comme l’éducation (le rôle de l’école) ou le futur du travail. Le récent débat sur les retraites en France a été, de ce point de vue, une occasion politique ratée. Elle offrait pourtant un espace-temps idéal pour lancer une réflexion collective sur la place du travail dans un avenir en gestation, les mutations des emplois actuels et à venir, les mécanismes de solidarités à repenser collectivement autour d’une réaffirmation et/ou d’une mise à jour de notre contrat social.

Le potentiel de rupture proposé par ChatGPT vient de ce test d’acceptabilité de l’usage de ces programmes à grande échelle. Le passage à l’échelle prépare en quelque sorte la commodisation et la démocratisation de cet outil et de ses semblables à l’instar de MidJourney (application basée sur une IA générative d’images et d’illustrations à partir de consignes écrites) par exemple avec les bénéfices et les écueils qui leur sont associés. Cette dynamique est en train d’ouvrir des marchés nouveaux, de créer de nombreux cas d’usages à la fois civils et militaires, avec les éternelles questions éthiques et politiques qui les accompagnent inévitablement.

Ainsi, la révolution a déjà eu lieu, ou plus exactement, est en cours, et cela depuis longtemps sans que notre monde ne se soit effondré pour autant. En revanche, ce dernier mute, profondément. De ce point de vue, est venu le temps de faire le tri entre les faux sujets et les vrais problèmes.

Intelligence artificielle : vrais sujets, faux problèmes

La question technologique sous-tend par définition les luttes de pouvoir, les jeux de puissance, elle en est l’un des véhicules. Même la technologie "low tech", dirions-nous aujourd’hui, du papyrus fut une "révolution"  en son temps ! Au XXIème siècle, le changement paradigmatique passera notamment par l’intelligence artificielle. De façon directe ou indirecte, explicite ou implicite, c’est l’IA comme domaine scientifique et industriel omni usages ainsi que l’ensemble des ramifications du méta-système qu’elle induit, qui cristallise par exemple la rivalité stratégique entre États-Unis et Chine. La lutte, pour ne pas dire la guerre technologique, est féroce, elle se joue sur trois fronts : idéologique, géopolitique et militaire, ainsi que philosophique.

- Sur le plan géopolitique, la compétition sino-américaine se joue en particulier sur la question des IA à usages militaires. De ce point de vue, l’intelligence artificielle transforme profondément la chose militaire. La guerre d’Ukraine nous en offre les prémices, celles des guerres du futur et de la suprématie de l’une ou l’autre des hyperpuissances.

- Dans le champ idéologique, la technologie n’a de valeur qu’en cela qu’elle encapsule des normes, une vision du monde. Celui qui détient la technologie en contrôle l’intention politique. Cette question s’articule à deux niveaux : entre nations mais aussi entre concepteurs.

- Enfin, elle pose une question philosophique universelle cruciale : face à ces performances calculatoires de plus en plus puissantes, où se loge notre singularité d’Humain ? Comment préparer cet avenir par nature imprévisible ? La question philosophique devient alors fondamentalement politique. Une fois mûre, elle doit, en tout état de cause, se transformer en projet de société, donc en politiques publiques claires et précises dûment partagées avec la population, dernier amortisseur du choc technologique.

L’innovation technologique exige en ce sens une capacité d’innovation politique au moins de même ampleur mais pour le moment immature. En conséquence de quoi, la question de l’IA pointe les faiblesses de nos réponses institutionnelles, nos prêts-à-penser politiques et intellectuels. En miroir, elle nous contraint à affronter les dilemmes, les paradoxes, les voies à priori sans issues. En gardant son cap, celui d’un réalisme serein, un optimisme raisonnable qui ne soit pris ni dans le piège d’une folie transhumaniste encore balbutiante ni une collapsologie technophobe morbide et mortifère.

Dans ces moments de mutations historiques qui déstabilisent nos repères et nos équilibres, il faut urgemment démystifier l’IA pour recentrer la réflexion collective vers l’essentiel, mettre de l’ordre dans la façon dont plus généralement la question technologique est abordée. Ces derniers mois, nous nous sommes trompés de débat car nous nous sommes trompés de question. L’IA n’anéantira pas tout d’un coup l’école ou l'hôpital, ni ne mettra du jour au lendemain des millions de personnes au chômage. En revanche, en fonction des choix qui seront faits, elle pourrait participer à optimiser les points de friction des services publics (problèmes de compétences, de recrutement et d’attractivité récurrents) ou au contraire, à aggraver une situation préexistante. Un exemple concret : certains systèmes d’IA appliqués à la médecine peuvent aider l'hôpital public à poursuivre sa mission sans (trop de) douleur, voire en améliorer sensiblement la promesse (la santé prédictive représente à cet égard un réel enjeu de santé publique) grâce à des gains de productivité qui permettraient à moyen terme de pallier le manque d’attractivité du secteur, pourtant central dans la conception toute française de l’État social.

Partant de là, l’intelligence artificielle ne pose pas tant la question du "quoi". Pour la CNIL, "l’intelligence artificielle n’est pas une technologie à proprement parler mais plutôt un domaine scientifique". Elle ne pose pas non plus la question du "quand". Nous l’avons vu plus haut, la révolution a déjà eu lieu, elle est encore en cours et fonctionne par sauts, hibernations, surprises. La question du "comment" est plus intéressante mais déjà fort bien documentée, la technologie irrigue nos grands systèmes. Elle est équivalente à ce que fut l’électricité en son temps : omni usages, invasive, omniprésente, incontournable, définissant les nouveaux critères de production, de consommation, d’information, d’éducation, de pratiques démocratiques, de révolution dans les affaires militaires. Elle est système, charge au politique de se préparer et de préparer la société à ces mutations civilisationnelles profondes, à éviter la prochaine grande crise pour cause d’impréparation et de manque d’anticipation. La question n’est pas non plus "pourquoi" : elle est une vision, un objectif politique, économique et idéologique pour ceux qui y travaillent. Elle est, tout simplement, un instrument de pouvoir et de puissance.

En France, les experts consultés, par le prisme spécialisé de leur expertise, se sont alternativement focalisés sur l’une de ces quatre questions. Chacune posant évidemment des enjeux, des arbitrages mais qui apparaissent, dans le fond, secondaires. Non pas secondaires par leur importance mais secondaires en ce sens qu’elles dérivent d’une question originelle, première. Cette question première, c’est celle du "QUI". Car qui dominera cette technologie dessinera en partie les contours du siècle qui advient. L’IA incarne de façon éclatante notre éternel problème politique qui était, est et sera toujours de savoir qui domine et qui est dominé. Au Ve siècle avant notre ère, Thucydide le formulait déjà ainsi au moment de la guerre du Péloponnèse "les hommes tendent, selon une nécessité de leur nature, à la domination partout où leurs forces prévalent".

Nous voilà arrivés a priori à un premier consensus : oui, l’intelligence artificielle est et sera partout. Il y a bien une dynamique irrépressible qui est en marche, qui articule à la fois la recherche de pouvoir et de puissance. Or c’est bien cette soif-là, très humaine, qui risque de nous dépasser et non pas (ou du moins pas encore) l’outil lui-même. Cela pose encore une fois la seule question qui vaille, celle du "Qui" : Qui détient la vision ? Qui la conçoit, c’est-à-dire qui détient la capacité à donner corps à cette vision ? Selon l’intérêt de qui ou de quoi ? En contrechamp, sur quel projet politique commun devrait-on aligner ce nouveau socle non pas seulement technologique mais aussi civilisationnel ?

En somme, la puissance technologique est un chemin vers le pouvoir politique. De ce point de vue, CHATGPT n’est que l’arbre qui cache la forêt ou plutôt le système qui est en train de s’ordonner.

La question idéologique : technologie totale, risque x et alignement

La question du "Qui" nous emmène vers une analyse du sujet sous l’angle idéologique.

Ces dernières années, nombre de critiques ont été formulées, de tous bords, sur notre panne idéologique, remplacée par une approche purement technocrate de la chose politique. Or ce n’est pas tout à fait vrai. La dimension idéologique du monde qui advient, la réflexion sur les contours et la morphologie de notre futur est belle et bien préemptée. L’épicentre se situant à la fois entre Oxford University et la Silicon Valley.

Les technologues de la Silicon Valley sont d’abord des idéologues, ils ont un projet politique, un horizon, un moteur. La technologie, d’une certaine façon, n’en est que le prétexte et le chemin. Le problème posé est double :

La conversation mondiale a bien lieu, portée haut et fort par Elon Musk, Peter Thiel ou Sam Altman, David Holz (PDG de MidJourney) plus récemment et consorts. Le vide idéologique dont nous nous étions tellement plaints est ici comblé et les propositions sont à la hauteur du vide : intelligence artificielle générale, transhumanisme, long-termisme. Nous ne sommes pas déçus. Il est intéressant de noter que les technologues américains ne privatisent pas simplement la technologie mais ce faisant mettent en mot une privatisation plus subtile, une privatisation idéologique d’une certaine façon.

La confiscation de la discussion à laquelle nous avons bien voulu consentir, par facilité, jusque-là, est doublée en Europe d’une gestion subtile de la passivité. Car ici, en Europe, nous commentons, nous gérons du mieux que nous le pouvons nos impuissances sur ce qui ne nous appartient pas mais ce qui nous impacte déjà tant. Vous rétorquerez : oui mais la norme ! Certes, nous y viendrons plus tard.

Les concepteurs des systèmes d’intelligence artificielle proposent des agendas très précis via un système de ce que l’on peut appeler un projet de "technologie totale" que j’évoquais déjà dans un précédent article en analysant le "système Musk". Ils "designent" notre futur par leurs outils, ils appellent cela le "long-term thinking". Sam Altman, patron d’OpenAI, est l’un de ceux qui explicitent et revendiquent le mieux cette nécessité à la fois business et idéologique de penser le futur, de projeter les technologies sur le long-terme. Cela renvoie sans conteste au "Triptyque des BigTech" que je formalisais en janvier 2023.

La question de la Technologie totale est à comprendre ici à deux niveaux :

- Technologie totale en ce sens qu’elle enferme nos usages autour de quelques interfaces privées, nous encerclent cognitivement, ce que Tim Berners Lee appelait déjà en 2007 les "Walled Gardens".

- Technologie totale car elle met en place les briques d’une captation et d’une exploitation des usages et des données totales, sans couture avec son corollaire, des dispositifs de surveillance et de monitoring généralisés.

En plus du développement d’une intelligence artificielle générale dite "AGI" (une IA forte, capable de concurrencer directement l’intelligence humaine avec une autonomie totale dans la prise de décision), Sam Altman a d’ores et déjà commencé la collecte de données biométriques mondiales avec le programme WorldID sous prétexte de combattre les bots et les faux comptes. Sur le volet transhumaniste, il est un "siliconien" tout ce qu’il y a de plus classique, biberonné aux désirs démiurgiques des gourous du transhumanisme, de ses amis Peter Thiel ou son nouveau meilleur ennemi Elon Musk. Lui aussi rêve de combattre le vieillissement et la mort et vient d’investir 180 M$ dans Retrobiosciences.

En réponse à ChatGPT, première brique d’un projet d’AGI plus grand porté par Altman, Elon Musk a lancé son offensive via d’abord un moratoire  plus que discutable, hypocrite, voire dangereux car invisibilisant les risques déjà bien réels posés par l’IA mais surtout soutenu par le Futur of Life Institute, institution promouvant une idéologie particulière et discutable que l’on appelle le "long-termisme". Le long-termisme stipule que la priorité de nos décisions aujourd’hui doit être la pérennité de l’espèce humaine dans le temps, que l’avenir des générations futures compte au moins autant que nos vies ici et maintenant et cela, coûte-que-coûte, un rationalisme qui, poussé à son extrême limite, crée des problèmes éthiques majeurs. Ce courant de pensée, très en vogue à la Silicon Valley et qui compte comme adeptes Thiel ou Musk, fait l’objet d’une critique virulente. Le long-termisme trouve ses racines récentes à Oxford University. Nick Bostrom ou encore William McAskill, qui vient d’y consacrer un essai au retentissement mondial, en sont les chefs de file. Curieuse alliance, au passage, entre Oxford et la Silicon Valley.

En parallèle du moratoire qui appelait à une absurde "pause" de six mois dans la R&D de l’IA, Elon Musk lançait au même moment son dernier projet X.AI, censé concurrencer frontalement OpenAI, dont il fut – ironie du sort – cofondateur en 2015. Mais le plus intéressant de X.AI est qu’il est évidemment en lien avec l’autre grand projet de Musk, sa X App, interface universelle sur le modèle WeChat évoqué ici comme brique du projet muskien de "technologie totale", en complément de Starlink et Neuralink. Le prétexte de la bronca anti-ChatGPT est qu’il poserait un risque existentiel, le désormais célèbre "risque", à l’Humanité. La critique idéologique doit être néanmoins lue et comprise à plusieurs niveaux, plus proche de nous le combat est nettement plus pragmatique : Musk, chantre du "freedom of speech" maximaliste, suppose que l’entraînement et les filtres de ChatGPT en feraient un outil "woke". Dans sa bataille contre le "woke capital", son idée est donc, aussi, de développer une IA-anti-woke ou pour aller encore plus loin, une IA recherchant une forme de vérité totale et absolue sobrement baptisée “TruthGPT. Woke, pas woke, étroite (narrow AI), générale (AGI) ou super (Super AI), la guerre de tranchées des IA a bel et bien commencé sur fond inquiétant de post-vérité.

Cette logique à la croisée des idéologies long-termiste et transhumaniste est cristallisée par son autre startup Neuralink dont l’une des expérimentations consiste en des implants dans le cerveau pour créer des interfaces directes esprit-machine tout en augmentant sensiblement les capacités cognitives humaines, à des visées thérapeutiques mais aussi disons, existentielles (cela permettrait à l’homme de concurrencer l’hypothétique avènement des AGI). Au moment de la publication du moratoire, Elon Musk annonçait sans complexe le démarrage prochain de tests d’implants Neuralink sur les hommes. Fort heureusement, la FDA rejeta la demande compte-tenu des risques posés par une technologie NBIC loin d’être stabilisée.

Sous ce vernis technologique et rationaliste, l’on voit déjà poindre l’irraison démiurgique de ces projets. L’excès de raison risque rapidement de devenir son opposé, une folie dystopique car pour la première fois, ces idéologues ont les moyens de leurs ambitions. David Holz, patron de Midjourney, illustre le risque politique réel de cet excès de rationalisme. En avril 2023, il justifiait l’interdiction de générer des images via MidJourney du président chinois Xi Jinping ainsi : "Je pense que les gens en Chine qui utilisent cette technologie peuvent faire avancer quelque chose dans le monde en général (dans le bon sens). Des individus lambdas ici qui font de la satire politique n’apportent pas grand-chose. L’analyse coûts/bénéfices semble claire". Par ce rapide calcul rationaliste coûts-bénéfices, au demeurant tout à fait discutable, Holz s’est trouvé en position de pouvoir imposer des lois de censure digne d'un pays autoritaire à la communauté mondiale.

Les techno-idéologues de la Silicon Valley créent des combats et des dilemmes que nous allons devoir résoudre :

- Comment préserver notre réel face à leur futur fantasmé et fantasmatique ?

- Comment refonder notre rapport à la Liberté, comme projet politique, comme contre-modèle à leur projet de technologie totale matinée de surveillance généralisée et au vernis biopolitique inquiétant ?

Sous l’angle prosaïquement technologique, cela pose la question de l’alignement.
Dans le domaine de l'IA, le terme "alignement" désigne le processus qui consiste à s'assurer que les comportements d'une IA s'alignent bien sur les intentions et objectifs de ses créateurs. Autrement dit, il s’agit d’éviter que l'IA puisse agir contre les intérêts de ses concepteurs. L’alignement est un domaine de recherche en tant que tel, qui a pu faire l’objet de controverses.

Comment faire pour que les algorithmes se comportent comme nous voulons qu'ils se comportent ? À qui ces machines vont-elles servir, avec quelle intentionnalité ? Quels savoirs sont embarqués et visibilisés, quels sont ceux qui sont, à l’inverse, invisibilisés ? Selon quelles valeurs et d’après quelle vision du monde ?

Les problèmes liés à l’alignement n'ont rien de nouveau. Sauf que dans le cas présent, nos responsables politiques semblent encore relativement éloignés de ces enjeux technologiques profonds et semblent pour le moment plutôt enclins à une attitude à la fois normative et attentiste. Certes, le temps technologique n’est pas le temps politique mais si nous attendons trop longtemps, les gagnants ("the winner takes all") rafleront la mise (en quantité : capital et nombre d’utilisateurs captifs, et en qualité : leurs idéologies infusent déjà et les usages dépolitisent déjà la question). Le politique arrivera une fois de plus après la bataille, sera une fois de plus soumis à la volonté d’acteurs privés prônant une vision politique à la fois claire, tranchée et arbitraire. Or défaire les usages et les idées prendra bien plus de temps qu’y participer dès l’amont pour en infléchir l’horizon.  

D'une manière ou d'une autre, nous allons devoir collectivement décider de ce que nous souhaitons faire de (et avec) ces technologies, ce que nous sommes prêts à obtenir et ce à quoi nous allons renoncer en connaissance de cause. À cet égard, la peur et la panique ou la fascination n’aideront en rien l’installation d’un débat méthodique, apaisé et sain.

La valeur de la réponse normative européenne

En réponse, le premier réflexe, usuel, en Europe est l’arme juridique.

Fin mars 2023, l’Italie lance les hostilités contre ChatGPT et interdit l’outil le temps de l’instruction d’une enquête du régulateur national sur l’usage des données personnelles par l’outil et pour non-conformité au Règlement général des données personnelles (RGPD). Elle justifie sa décision sur quatre critères : inexactitude des données utilisées à l'entraînement, défaut d’information (éternel problème du consentement éclairé), absence de base légale justifiant l’usage des données aspirées pour l'entraînement du modèle, absence de vérification de l’âge des utilisateurs, ce qui pose problème pour les mineurs de moins de 13 ans.

L’Allemagne et l’Espagne pourraient suivre la voie italienne. La France quant à elle, par l’intermédiaire de la CNIL, va également se pencher sur la question à l’occasion de deux plaintes déposées auprès du régulateur national. Fait intéressant à noter, les régulateurs européens ont décidé de se coordonner en montant une "taskforce" spéciale sur ChatGPT.

En attendant l’AI Act européen, certains des arguments juridiques portés en Italie ou en France pourraient in fine être retoqués, mais quelle que soit l’issue de ces enquêtes, deux éléments structurants doivent être notés, et gardés à l’esprit le moment venu. Ces deux éléments sont moins juridiques que politiques :  

- La norme n’endiguera pas la dynamique mais permettra a minima d’énoncer les règles du jeu;

- L'interdiction italienne ne résoudra pas la question mais a le mérite singulier de brandir un concept philosophique et politique avant d'être normatif : le droit à l'intime, au secret, à ce qui fonde nos libertés fondamentales.

De ce fait, les IA génératives, intégrées aux différents projets de "technologie totale", peuvent devenir à terme anti-démocratiques. Nous devons visibiliser cette question en ces termes car ce faisant, cela repolitise une technologie dont l’usage ludique ou créatif se dépolitise progressivement par l’accoutumance et la familiarité d’apparence inoffensive qu’il crée, cela réaffirme au passage notre attachement à la singularité du privé et aux droits fondamentaux qu’elle permet de protéger.

Cela pointe un paradoxe fondamental : le régulateur semble bien plus attaché aux libertés et à la vie privée que nous, utilisateurs, qui produisons et octroyons nos données toujours davantage, malgré tous les avertissements et les scandales. Nous continuons bille en tête, le confort de l’expérience du consommateur supplantant visiblement tout sur son passage. Le régulateur ne pourra pas tout faire tout seul sur des sujets de cette ampleur si le citoyen qu’il protège ne se mobilise pas sur la cause ou n’est qu’indifférent à celle-ci.

En outre, compte-tenu des échelles et vitesse de déploiement dont on parle, des forces de frappe en présence, la position normative européenne reste essentiellement défensive, une condition nécessaire mais non suffisante.

Et la France ? Là encore, il faut encore muscler davantage le versant proactif et offensif, à savoir une véritable stratégie techno-industrielle qui cesse pour de bon le saupoudrage des fonds publics alloués - qui restent honorables pour un pays de la taille de la France. Une vision qui permette de décider de la place de la France à 20 ou 30 ans sur des secteurs de niche à identifier et flécher, en repensant (identifier, dégraisser, agiliser, raccourcir, faciliter) le système national d’innovation de bout en bout (SNI). Le repositionnement de la French Tech ou le programme France 2030 auraient dû en être l’occasion rêvée. Le renouvellement de l’approche est d’autant plus urgent que la France n’est aujourd’hui pratiquement plus une puissance technologique malgré de nombreux atouts, par exemple la recherche nationale en IA ou sur certains usages médicaux et scientifiques par exemple. D’après le Global AI Index, elle arriverait tout juste à la 10ème position, après les Pays-Bas et l’Allemagne, très loin derrière le Royaume-Uni, 3ème après les États-Unis et la Chine. Sur le seul critère de la recherche, elle est positionnée 15ème là où l’Allemagne est 6ème et le Royaume-Uni, 5ème. Une position de niche sur des secteurs stratégiques où la France possède des avantages comparatifs réels, voilà le seul chemin possible de l’autonomie stratégique, en fait de la souveraineté technologique, à savoir la capacité à tenir un rapport de force en cas de besoin.

Si l’affaire n’est pas totalement perdue, elle est néanmoins urgente et pour des bénéfices politiques qui ne seront visibles qu’à long-terme. Une véritable stratégie en IA suppose du courage politique qui s’affranchit des effets d’annonce qui s’égrènent au gré des effets de mode.

Mais l’Europe n’est pas la seule à normer. États-Unis et Chine, les deux hyperpuissances de l’IA, s’y mettent également, avec une approche fidèle à leur corpus de valeurs.

Côté américain, l’approche est basée sur la responsabilité des systèmes, leur transparence et l’usage, éventuellement abusif, des données personnelles. La National Telecommunications and Information Administration (NTIA) a publié le 11 avril un "AI Accountability Policy Request for Comment", un appel à contribution sur ce que devrait être une bonne politique publique en matière de responsabilité de l’IA, avec des cas d’usages appliqués sur des secteur stratégiques comme la santé.

En Chine, la Cyberspace Administration of China (CAC) soutient les projets d’IA en générale et des IA génératives en particulier.Mais avec des règles à respecter, en premier lieu desquelles la conformité aux valeurs socialistes du pays et la transparence sur l’identité des utilisateurs (ces derniers devront fournir leur véritable identité). Un volet concerne également le bon usage des données utilisées à l’entraînement afin d’éviter les biais et les discriminations mais aussi la conformité des systèmes aux règles établies par la CAC.

La géopolitique de l’IA comme réponse aux projets idéologiques : ordre mondial et ordre social font bon ménage !

Au même titre que la question climatique, l’IA reflète de plus en plus un désaccord politique persistant qui est en train de se hisser au sommet de l'agenda mondial.

Si les USA ou la Chine s’emparent de la question normative, ce n’est pas pour freiner une innovation devenue le carburant de leur rivalité stratégique, mais pour garder le contrôle d’abord intérieur d’outils dotés à terme d’une puissance qui pourraient déborder les États eux-mêmes. À échelle encore "raisonnable", nous en voyons déjà les prémices avec les dégâts possibles d’un ChatGPT ou d’un MidJourney dans les luttes informationnelles et guerres cognitives qui se jouent à bas bruit. Imaginons les conséquences d’IA duales, aux usages civils et militaires  décuplés.

Chine et États-Unis doivent jouer aux équilibristes : stimuler l’innovation et les acteurs technologiques, bras armés technologiques fournisseurs d’instruments de projection de puissance et dans le même temps, garder l’écosystème sous contrôle, et en conséquence de quoi, la hiérarchie des normes et des acteurs mais aussi l’ordre social. Ordre mondial et Ordre social font bon ménage.   

Avec le climat, la question technologique, et en particulier l’IA, va participer à structurer l’ordre et la sécurité mondiale des prochaines décennies. En particulier, l’IA va participer à dessiner la morphologie des futures guerres, hybrides, cyber ou cinétiques. L’IA a déjà apporté des robots tueurs, des IA conversationnelles capables de rédiger des communiqués gouvernementaux, des programmes capables de traiter des données à une hypervitesse supérieure à la cognition humaine. Il est alors logique que les puissances mondiales se lancent dans une course pour dominer ce nouveau paysage technologique.

Les IA à usage militaire permettront, notamment aux armes, d’être hyper rapides (vitesse), autonomes (critère vital à l’heure des brouillages électromagnétiques), super-précises dans le traitement de la donnée et dans la prise de décision avec le traitement le flux d’information ("fog of more") à une vitesse irrattrapable par l’homme.

L’horizon des IA à usages militaires est l’hyperguerre, la "hyperwar" pour reprendre le concept d’Allen et Husain. L’IA est au cœur des attributs de puissance, à la fois côté chinois et américain.

L’intention politique chinoise est claire : en  2017, le Parti communiste chinois a présenté un plan visant à développer l'intelligence artificielle pour faire du pays le premier centre mondial d'innovation en IA d'ici 2030. En janvier 2023, le ministère de l'Industrie et des Technologies de l'information chinois a réaffirmé l’intention de suprématie technologique chinoise en déclarant que l'IA et les autres industries émergentes "étaient une priorité clé pour 2023".

Côté américain, le discours politique est encore plus musclé. Celui de Jake Sullivan (conseiller à la sécurité nationale des États-Unis auprès du président Joe Biden depuis janvier 2021) en date du 8 septembre 2022 est, dans ce contexte, à lire avec précaution car il y donne le ton en énumérant par le menu les industries critiques pour le maintien du leadership américain dans le monde dont l’IA et sa condition de production : les semi-conducteurs, point faible chinois sur lequel l’administration américaine se concentre en conséquence pour affaiblir son rival.

Pour cela, tous les outils de la "Power Politics" y passent : jeux d’alliances, arsenalisation des dépendances et des interdépendances, instrumentalisation politique des goulots d’étranglement dans les chaînes d’approvisionnement globales et cela, conformément aux cadres d’analyse posés par Farrell et Newman dans leur célèbre article "Weaponized Interdependence" paru en 2019. Cela est particulièrement vérifié dans le cas de la politique américaine sur les semi-conducteurs, via une panoplie d’instruments allant de la coercition économique, à l’extra-territorialité du droit américain en passant par l’interdiction d’exportation de certains composants stratégiques, le tout associé à une stratégie de découplage progressive vis-à-vis de la Chine qui, de son côté, développe assez logiquement son propre arsenal techno-militaire.

De ce point de vue, nous pouvons aussi lire les projets des techno-idéologues américains comme participant à la stratégie de puissance américaine. À condition que l’État américain en garde le contrôle final.

Pour finir, rester humain

Dans ce combat de titans entre Hyperpuissances et HyperTechnologues, nous, simples citoyens, pouvons avoir l’impression d’être démunis. Mais nous ne le sommes pas. Il est normal d’être déstabilisé dans les périodes de mutations profondes, mais ne perdons pas de vue un point cardinal : notre Humanité.

Cette Humanité-là ne doit pas se réduire à ce que l’on entend parfois ici et là, nos "émotions", nos "intuitions". Non, nous ne sommes définitivement pas que cela. Nous sommes aussi Intelligence et Raison. Accepter le discours que notre "avantage comparatif" face aux IA serait notre "sensibilité", c’est abandonner la bataille, c’est paradoxalement accepter son statut "animal" pour reprendre le merveilleux essai "God, Human, Animal, Machine: Technology, Metaphor, and the Search for Meaning" de Meghan O'Gieblyn. Se replier est un abandon. Un abandon dangereux car c’est bien dans ces failles cognitives, émotionnelles et émotives, que se loge le lent poison de la désinformation, des stratégies de cyber-déstabilisation sans nul doute amplifiées par les outils évoqués dans le présent papier. En somme, nous avons le devoir de rester vigilants, singuliers, complexes, humains !

Dans Species Technica, le philosophe Gilbert Hottois expliquait que la technique ne finissait par prendre le contrôle de certains pans de nos existences que parce que l’Homme ne les investissait plus. Dans le fond, oui, l’Homme n’est plus là car il est bel et bien déjà ailleurs, reparti à la découverte de contrées nouvelles. C’est à partir de cette seule conviction, le refus du renoncement, que la véritable discussion démocratique pourra alors commencer.

 

Copyright Image : Marco BERTORELLO / AFP

Une photo prise le 31 mars 2023 à Manta, près de Turin, montre un écran d'ordinateur avec la page d'accueil du site web de l'intelligence artificielle OpenAI, affichant son robot ChatGPT. L'organisme italien de protection de la vie privée a déclaré en mars qu'il avait bloqué le robot controversé ChatGPT, estimant que l'application d'intelligence artificielle ne respectait pas les données des utilisateurs et ne pouvait pas vérifier l'âge de ces derniers.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne