Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
21/06/2023

Quand l’IA défie le libéralisme politique

Imprimer
PARTAGER
Quand l’IA défie le libéralisme politique
 Charleyne Biondi
Auteur
Experte Associée - Numérique

Quels principaux défis la révolution de l’IA pose-t-elle aux gouvernements et régulateurs internationaux ? Pour Charleyne Biondi, nouvelle experte associée à l’Institut Montaigne, spécialiste des questions numériques, l’IA générative transforme l’enjeu réglementaire en un véritable défi éthique. La protection de nos sociétés et des individus qui la composent doit être la priorité, face à des systèmes autonomes qui peuvent altérer la vérité et ébranler le fonctionnement de certains de nos services publics. Alors que l’UE vient d’adopter une législation pionnière en la matière, l’AI ACT, l’auteur s’interroge sur l’impact de ces réglementations sur nos institutions politiques libérales.

Le succès de Chat GPT, premier modèle d’intelligence artificielle (IA) générative à connaître un large usage commercial, a donné un nouveau souffle aux dystopies technologiques des grands récits de science-fiction. Avec la lettre ouverte demandant un moratoire sur le développement de l’IA, signée par les fondateurs de Chat GPT eux-mêmes, le scénario catastrophe d’une super-intelligence capable de mettre en danger l’humanité est tout à coup devenu une hypothèse sérieuse dans le débat public. Si la communauté scientifique reste partagée sur la probabilité qu’une telle menace se matérialise à l’avenir, les perspectives de croissance de l’industrie numérique, et en particulier de normalisation des applications d’intelligence artificielle générative, ne laissent cependant aucun doute sur l’enjeu sociétal que ces nouvelles technologies représentent dans l’immédiat. Du marché de l’emploi à l’éducation, de la recherche médicale à l’industrie de défense, tous les secteurs sont susceptibles d’être transformés par la massification de contenus générés par des IA.

L’arrivée des IA génératives est souvent comparée à la naissance d’internet, pour souligner la qualité épistémologique de la rupture qui se profile : ces nouveaux systèmes d’apprentissage non-supervisés, autonomes, et capables de créer de toutes pièces des textes, images ou mélodies qui n’existaient pas, laissent en effet présager un changement radical dans le socle des connaissances, et surtout, une remise en cause des hypothèses fondamentales à partir desquelles on appréhende le réel. Par exemple : l’équation philosophique de la modernité, par laquelle la raison humaine est le moteur du progrès et de l’avancement de l’humanité, n’apparaît plus comme une évidence ; l’idée que la créativité est le propre de l’homme, non plus. Ainsi, dans tous les domaines, des machines dont le fonctionnement demeure parfois opaque, même pour leurs concepteurs, produiront toujours plus de connaissances et de vérités sur le monde, soulevant du même coup des préoccupations inédites pour les droits d’auteur, la vie privée ou encore la véracité des informations… Nul besoin, donc, de s’aventurer vers les extrapolations long-termistes d’un "risque existentiel" pour l’humanité pour comprendre que l’IA générative pose déjà un défi majeur à la société : c’est tout un tissu de normes et de pratiques sociales qu’elle met en jeu.

Dès lors, la puissance publique ne peut pas se contenter de venir réguler a posteriori les externalités socio-économiques produites par des innovations "disruptives" telles que les économies de plateforme de Uber ou AirBnB. Car l’IA générative, précisément parce qu’elle a vocation à être signifiante, à dire des choses sur le monde, transforme l’enjeu réglementaire en un enjeu éthique : celui de protéger les individus et les sociétés contre le risque que ces systèmes autonomes disent n’importe quoi – risque d’autant plus important lorsque l’IA en question est appliquée à un domaine sensible tel que la justice pénale, la police, ou la sécurité.

Bénéficier des opportunités révolutionnaires de ces innovations tout en minimisant les risques potentiels de ces nouveaux outils pour les droits fondamentaux, tel est donc l’objectif des gouvernements et des organisations internationales, lancés dans une "course à la réglementation" depuis l’avènement de Chat GPT. L’Union européenne (UE), qui travaille à un "acte sur l’intelligence artificielle" depuis avril 2021, vient d’adopter le 14 juin 2023 une législation pionnière en la matière, visant à catégoriser et réguler les applications d’IA en fonction de leur niveau de risque. Le texte est à ce stade loin d’être définitif, puisqu’il sera prochainement débattu et amendé durant la phase de trilogues ; mais il offre cependant un aperçu très complet des enjeux politiques de l’intelligence artificielle.

Nous nous concentrerons plus particulièrement sur la façon dont l’IA met sous tension le cadre libéral de nos institutions politiques ; d’abord, à travers ses applications à visées sécuritaires telle que la reconnaissance faciale, qui ont fait ressurgir dans le débat public le spectre de la "surveillance de masse" et l’impossible arbitrage entre sécurité et liberté ; et enfin, à travers le dilemme que soulève la réglementation des IA génératives, qui pour être correctement appréhendées forcent le libéralisme à renoncer à ses propres principes – et à se prononcer sur ce qui serait (ou non) un avenir – un progrès – désirable.

L’IA fait ressurgir le spectre de la surveillance de masse

L’IA, comme la plupart des technologies numériques, est un objet juridique difficile à saisir – il n’y a pas de définition universellement admise de ces outils, dont les usages évoluent d’ailleurs souvent trop vite pour être "fixés" par des termes spécifiques. En conséquence, pour éviter de construire un cadre réglementaire qui glisserait trop rapidement dans l’obsolescence, l’Union européenne a fait le choix d’appréhender les applications d’IA en fonction de leur niveau de risque.

L’Acte sur l’intelligence artificielle classe ainsi les systèmes d'IA en quatre catégories de risque : inacceptable, élevé, limité et minimal. Les applications tombant dans la catégorie de risque minimal ne sont soumises à aucune exigence spécifique, tandis que celles présentant un risque limité, comme les chatbots par exemple, sont soumises aux normes de transparence traditionnelles de sécurité des produits dans l’UE. En revanche, pour les systèmes d'IA à risque élevé, l’acte européen établit un nouveau cadre réglementaire spécifique. Ainsi, les systèmes d’IA utilisés pour l’identification biométrique à distance ou pour prendre des décisions automatisées ayant des conséquences juridiques par exemple, auront l’obligation de respecter des critères stricts en matière de transparence, d'explicabilité et de robustesse des systèmes.

Quant aux IA présentant un risque jugé inacceptable pour la sécurité et les droits fondamentaux, ils sont tout simplement prohibés. C’est le cas par exemple des systèmes qui manipulent le comportement humain et portent atteinte à la dignité des personnes, des applications qui permettent une forme de "crédit social" à la chinoise, ou des IA qui font de la reconnaissance faciale ("identification biométrique") en temps réel.

Les mesures d’encadrement de la reconnaissance faciale demeurent cependant l’objet de vives controverses. L’acte sur l’IA autorise en effet certains usages de reconnaissance faciale et en proscrit d’autres. L’identification biométrique n’est interdite que si elle est opérée en temps réel, dans l’espace public et à des fins de répression ; mais autorisée, par exemple, si elle intervient "a posteriori" de la captation d’images de vidéo-surveillance (elle est alors classée dans la catégorie des systèmes à risque élevé). L’ambiguïté du texte a provoqué de vives réactions de la part d’organisations de la société civile, qui craignent que l’absence d’interdiction ferme ne conduise à des usages abusifs de ces technologies par les pouvoirs publics. Ces craintes de voir la reconnaissance faciale instrumentalisée au nom de la sécurité et de la lutte antiterroriste ont par ailleurs été accentuées par une récente proposition de loi émanant de sénateurs français, qui vise à mettre en place une "expérimentation" des technologies d’identification biométrique en temps réel par les pouvoir publics, dans des lieux particulièrement exposés à des risques d’insécurité.

De fait, l’encadrement de la reconnaissance faciale a fait ressurgir la question qui structure tout le débat politique autour des technologies numériques depuis le 11 septembre 2001 : celle de la surveillance de masse. Hantées par les spectres des États totalitaires du XXème siècle, nourries de références post-modernes sur les sociétés panoptiques et de contrôle et de fantasmes orwelliens, les théories de la surveillance numérique dénoncent l’instrumentalisation des nouvelles technologies par l’État, et la mutation illibérale de nos démocraties en appareils techno-sécuritaires, au prétexte d’une lutte contre le terrorisme et autres insécurités.

Or, l’IA est de ce point de vue beaucoup plus intrusive que la collecte massive de données (Big Data) : d’une part, les données biométriques utilisées dans le cadre de la reconnaissance faciale sont considérées comme des données "sensibles" par le règlement général pour la protection des données (RGPD) ; d’autre part, la reconnaissance faciale permet de surveiller les individus à une échelle et avec une précision inégalées. Enfin, même sans identification biométrique, l'IA peut être utilisée pour analyser et interpréter toutes sortes de données de surveillance, permettant ainsi des contrôles bien plus ciblés. Comme en témoigne le texte de la loi "JO" en France, des "caméras augmentées" (ou intelligentes) sont tout à fait capables, sans avoir recours à aucun marqueur d’identification biométrique, de détecter en temps réel des comportements suspects, et donc de suivre (sans pour autant l’identifier) un individu donné dans une foule.

Ainsi, après une décennie d’alertes lancées au sujet des moyens de surveillance des services de renseignement et de l’industrie technologique, de lois adoptées pour encadrer ces pratiques et pour protéger les données des utilisateurs, et de prise de conscience de ces enjeux par le marché, la reconnaissance faciale nous renvoie en quelque sorte à la case départ. Elle rend potentiellement caduques les garde-fous que l’on croyait avoir institués, et reformule ce paradoxe politique que la technologie ne cesse de nourrir : à l’ère numérique, la condition de la sécurité de l’État libéral – incarnée par l’appareil techno-surveillanciel – porte aussi sa négation potentielle.

Pour le dire autrement : en collectant les données de ses citoyens, ou en identifiant à leur insu leurs visages, en se donnant les moyens de violer la vie privée de n’importe qui, l’État libéral enfreint cela même qui légitime son existence : la séparation du public et du privé, et la promesse de protéger, toujours, le second des invectives du premier. C’est ce que David Lyon nommel’irréductible ambiguïté de la surveillance : celle-ci apparaît à la fois comme une nécessité pour la sécurité de la société et comme une menace pour les libertés individuelles.

En théorie, l’acte sur l’IA est précisément formulé pour éviter ces écueils, et pour instituer, en amont, un cadre qui empêche toute instrumentalisation abusive de ces technologies, y compris par l’État. Cependant, l’approche réglementaire choisie, et notamment la catégorisation des systèmes d’IA selon leur niveau de risque, ne peut faire l’économie d’un certain degré de généralité dans la spécification des systèmes proscrits. En d’autres termes, les autorités et les acteurs réglementés devront interpréter les dispositions légales applicables, ce qui n’est pas optimal lorsque des droits fondamentaux sont en jeu.   

L’IA générative et la tentation d’une réglementation "à la racine"

Les limitations d’une approche réglementaire par le risque apparaissent déjà dans l’acte sur l’IA lui-même. En effet, pris de court par l’arrivée sur le marché de Chat GPT, le Parlement européen a dû amender le texte présenté par la Commission, qu’il jugeait inadapté à l’encadrement de tels systèmes (nommés dans le texte "modèles de fondation", en référence à ce type d’IA générative polyvalente, capable de servir de "base" pour une large gamme d’applications, comme Chat GPT).

Ainsi, pour les IA génératives polyvalentes, les parlementaires ont estimé qu’il ne suffisait pas de réglementer les applications de ces IA, mais leur conception même. En d’autres termes, toute innovation en matière d’IA générative devra être soumise, dès sa création, à un certain nombre de règles éthiques et politiques, comme l’utilisation de bases de données contrôlées, le respect des droits d’auteur, la prise en compte de l’impact environnemental, et une garantie de transparence. Bien entendu, il ne s’agit à ce stade que d’un projet de mandat de négociation adopté par le Parlement, lequel sera encore débattu et sans doute largement amendé au cours la dernière phase législative des trilogues durant laquelle il passera de nouveau par la Commission et le Conseil avant d’être soumis à la validation finale du Parlement européen. Ces propositions ne sont donc pas définitives, mais elles sont néanmoins essentielles pour évaluer l’enjeu politique de ces technologies.

Le vote du Parlement européen a été unanimement salué comme un geste politique fort - voire trop fort, pour ceux qui craignent que, dans la course stratégique à l’innovation, la prudence européenne n’inflige à son industrie un fardeau irrémédiable. Pour le meilleur ou pour le pire, il témoigne en effet d’une tentative d’extension du pouvoir politique à une sphère qui lui restait plus ou moins imperméable : celle du progrès techno-scientifique. Alors qu’on a tant de fois regretté que la puissance disruptive de l’industrie numérique conduise à une destitution du politique, et craint que face à l’influence des GAFAM la démocratie se trouve vidée de son sens, le Parlement européen envisage, pour la première fois, la seule mesure qui permettrait vraiment de renverser ce rapport de force : celle de soumettre, à la racine, le progrès technologique à une volonté politique.

Que ce projet soit souhaitable, ou même réalisable, n’est pas la question. Ce qui est essentiel, c’est de comprendre ce que la position européenne sur l’IA révèle de la crise politique, et métaphysique, que la transformation numérique fait germer depuis des années. Il ne faut pas se tromper de sujet : le problème n’est pas que la technologie décide et détermine le sens de l’Histoire – elle l’a toujours fait. Ce que l’IA générative fait désormais apparaître avec une virulente clarté, c’est que les avancées technologiques remettent en question le sens même du Progrès, et ce faisant, brisent la seule boussole de l’ordre politique occidental, privent nos institutions démocratiques de l’unique assise éthico-philosophique dont elles pouvaient se prévaloir.

Le Progrès comme boussole : force et faiblesse du libéralisme

On reproche souvent à la modernité d’avoir remplacé Dieu par une autre religion, celle du Progrès. C’est faux, car en réalité la Foi de l’homme moderne ne se fonde qu’en lui-même : c’est en sa propre Raison qu’il croit, et en la liberté qu’elle lui confère de tracer toujours plus loin son propre chemin – de progresser. Or, dès lors que l’horizon des hommes n’est plus la découverte et l’acceptation du dessein que Dieu a voulu pour eux, mais la poursuite d’un avenir meilleur qu’il leur incombe de construire, les institutions politiques gagnent un tout autre rôle : celui d’organiser les affaires humaines de façon à ce que la société soit libre de produire le plus efficacement possible tout ce qui contribuera à l’amélioration de ses conditions. En d’autres termes, au lieu d’incarner un ordre et une vision qui les transcende, les institutions politiques sécularisées deviennent le moyen par lequel l’ordre du monde est déterminé, le rouage intermédiaire et essentiel entre les hommes et leurs espoirs – entre les hommes et leur Progrès.

Ce Progrès, cependant, reste indéterminé. C’est une abstraction totale, un concept sans visage, qui n’est rattaché à aucune idée transcendante. Le Progrès n’est d’ailleurs même pas une idée, mais seulement l’idée, sans cesse changeante, que l’on s’en fait. C’est une coquille vide, un réceptacle des aspirations toujours renouvelées de l’humanité. En un mot : le Progrès est un processus – celui d’une avancée perpétuelle, et perpétuellement redirigée par la contingence des hommes et de leurs désirs.

La relation de la démocratie libérale au Progrès est donc beaucoup plus subtile qu’une soumission de la première au second. Car le Progrès comme processus historique, le Progrès comme promesse des hommes à eux-mêmes, pour être réalisé, force la politique à renoncer à tout ce qui la rend prescriptive. Pour le dire autrement, le libéralisme est bien la théorie politique du Progrès ; c’est même précisément la théorie qui a réussi l’exploit de transformer cette notion parfaitement a-morale de Progrès en horizon moral. En effet, en renonçant à imposer toute "vision" transcendante du Bien ou du Juste, le libéralisme a indexé le "bien" et le "juste" à la liberté des hommes, et en particulier, à leur liberté d’entreprendre, de déployer leur ingéniosité, et de matérialiser leur Raison au travers de prouesses techniques et scientifiques.

Les institutions politiques de nos démocraties libérales ont donc été pensées et construites pour tenir cette promesse : pour faire en sorte que l’ingéniosité et l’entreprise humaines, en tant qu’expression de notre liberté, soient les seuls déterminants de ce qu’il nous est permis d’espérer, ou autrement dit, les seuls déterminants du Progrès. Cela implique, en retour, une conception strictement administrative du politique, où le mandat des institutions consiste simplement à garantir que rien n’arrête le progrès perpétuel de la société, et à s’assurer qu’elle en détermine librement l’orientation. L’équation politique du libéralisme est presque miraculeuse, tant elle est subtile : c’est en s’effaçant que le politique gagne toute sa noblesse, en se limitant à sa dimension administrative qu’il devient le garant éthéré du bien le plus précieux, la liberté.

 L’IA, ou la mise au défi du libéralisme politique

L’équation politique moderne repose donc sur une croyance : que le progrès technique est le moteur du Progrès de l’humanité. Or, l’IA aujourd’hui nous fait douter de cette équivalence. D’abord, parce qu’elle met en péril les droits fondamentaux ; mais surtout, parce que l’ampleur des mutations qu’elle pourrait provoquer conduirait à radicalement redessiner les frontières du monde social. En d’autres termes, l’IA pourrait bien piper les dés du jeu libéral, indexer le sens du progrès à son propre système, ce qui reviendrait à priver les hommes de leur liberté politique.

C’est bien parce que l’on pressent que l’IA comporte une "charge morale", et qu’elle pourrait donc imprimer sur le monde une forme de "vision" qui contraindrait des formes de vie, que les législateurs européens ont fait le choix d’intervenir "à la racine", de contrôler les hypothèses-mêmes à partir desquelles ces systèmes fonctionnent. Ce que cela nous indique, c’est que pour faire face à l’IA et aux risques qu’elle fait peser sur les droits fondamentaux, l’idéal libéral d’un État neutre, d’un État qui refuse d’endosser une quelconque "vision" collective au nom du pluralisme, devient intenable – car l’IA, elle, endossera cette vision. L’IA vient donc pousser le libéralisme dans ses derniers retranchements, en forçant le politique à se prononcer sur ce qui est (ou n’est pas) un avenir - un progrès - désirable.

En d’autres termes, le vrai enjeu politique de l’IA, c’est que ces technologies viennent mettre au défi nos institutions sur un plan qui les dépasse, et qui les exclut : elles les force à reconvoquer une forme de politique morale, que le libéralisme avait justement congédiée.

 

Copyright Image : OLIVIER MORIN / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne