Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
02/11/2023

Hauts risques et forts impacts : réguler l'IA

Imprimer
PARTAGER
Hauts risques et forts impacts : réguler l'IA
 Nicolas Moës
Auteur
Directeur de la gouvernance européenne de l'IA pour The Future Society

C'est à Bletchley Park, non loin de Londres, où Alan Turing développa en son temps la machine Enigma, que s’est ouvert le premier sommet mondial sur les risques extrêmes associés à l’intelligence artificielle. Par cette initiative, Rishi Sunak, premier ministre technophile, s'attèle à un difficile sujet. Acteurs de la BigTech, industriels et États, par-delà leurs intérêts divergents, devront se saisir de la question des risques extrêmes auxquels cette technologie de rupture nous soumet.
Risques extrêmes, c'est-à-dire fort impact, c'est-à-dire formidable potentiel. Il suffira seulement de rappeler le sens étymologique de formidable pour mesurer l'enjeu :
formidabilis, en latin, c’est ce qui est redoutable et terrible…
Alors qu’une première déclaration a été publiée, qui affirme que l’IA représente « d’énormes opportunités mondiales » à condition qu’elle soit « utilisée et déployée de manière sûre », et qu’on attend l’annonce de la création d’un institut d’experts sur la sécurité de l’IA, Nicolas Moës dresse dans cet entretien le contexte de cet important sommet en matière de gouvernance.

Qu'entend-on par "intelligence artificielle générative" ? 

Le concept a été distordu en tous sens par les médias, les experts ou les entreprises d’IA qui ont intérêt à estampiller leurs produits sous la bannière "d’IA générative" alors même que le type de modèle qu’ils développent sont très éloignés des modèles d’IA type chatGPT.. Il convient en réalité de distinguer trois types d’IA sous ce concept d’IA générative :

  • L'IA à usage général de pointe, modèles à la frontières, telle que GPT 4. Il s'agit de modèles construits pour être les plus généraux possibles, qui cherchent à repousser les limites des capacités et compétences actuelles. Ils permettent énormément de fonctionnalités, du conseil financier à la santé mentale en passant par le secteur scolaire ou l'apprentissage d’une langue étrangère. Pour ces modèles, nulle autre limite d’usage que celle de l'imagination de l'usager… C'est là que se situent les risques principaux. 
  • Les modèles d’IA à usage général "classique", qui ne sont pas de pointe. Ces modèles ne repoussent pas les capacités de l'IA. Ils servent de modèles de base et, par leurs fonctionnalités plus restreintes, il est plus facile aux industriels et aux services publics de les rendre fiables. On les retrouve par exemple dans les modèles utilisés pour la traduction. 
  • L'IA générative : ce sont des IA capables de générer texte, images, vidéos, sons à partir de leurs données d'entraînement. 
L'intelligence artificielle générative, et notamment les modèles de LLM, représente-t-elle une rupture épistémologique ? 

Oui, ces modèles sont bien des ruptures majeures, à plusieurs égards. 

  • C’est d’abord une rupture technologique : si les "Large Language Model" (LLM, ou "Grand modèle de langage", réseaux artificiels de neurones profonds) existent depuis longtemps, la rupture est survenue avec l’immense capacité de calcul acquise par les derniers progrès technologiques. 
  • C’est aussi une rupture commerciale : l'IA a décollé il y a trois ou quatre ans. Alors que GPT2 n’était connu que par le public restreint des chercheurs, GPT4 représente un phénomène historique qui a été rendu possible par une intense concentration capitalistique sans laquelle les investissements colossaux requis pour développer ces modèles très spécifiques, qui coûtent à développer environ un millier de fois plus que les précédents, n'auraient pu être créés. 
  • Londres veut concentrer ses efforts sur les "risques extrêmes" : quels sont-ils ou, plus largement, quel est l’enjeu de cette conférence de Londres ? 

Il faut prendre en compte plusieurs facteurs sous-jacents : les risques associés à la diffusion des modèles auprès de tous les publics (non-experts ou mal intentionnés) et les risques inhérents à ces modèles en eux-mêmes (quel que soit l’usage, quel que soit l’usager). 

Plus un modèle est "capable", plus, pour satisfaire ses objectifs, il risque de tromper et manipuler ses utilisateurs accidentellement, en vertu de la convergence instrumentale des objectifs. 

En effet, plus un modèle est "capable", plus, pour satisfaire ses objectifs, il risque de tromper et manipuler ses utilisateurs accidentellement, en vertu de la convergence instrumentale des objectifs : ces modèles ont tendance à essayer d’acquérir du savoir, ce qu'on appelle en anglais "powerseeking behaviour". Le scénario de l'avènement d’une "intelligence artificielle générale" ou IGA n'est pas à exclure : là où l'IA est un programme informatique limité à des tâches spécifiques, l'IGA reproduit l'ensemble des capacités intellectuelles et se montre capable de prendre des décisions complexes en autonomie, avec les risques intenses associés à une telle aptitude.

Le rapport de The Future Society, consacré à ces risques IA, renvoie à une suggestive citation de Shakespeare : "Heavy Is The Head That Wears The Crown" :  la contrepartie de la puissance est un risque élevé pour celui qui en dispose…

Un autre risque est externe : c'est celui de l’utilisation de ces modèles très puissants par des acteurs mal intentionnés, capables par exemple de changer le résultat des élections sans même avoir besoin d’usine à trolls, à partir de modèles disponibles en open-source. On se retrouve à espérer de la bonne volonté du monde en général qu’il n’utilise pas ces modèles à fin malveillante… Espoir bien vague en vérité ! D’autant plus si l’on songe que, des États-Unis à l’Union Européenne, 2024 est une année électorale intense… 

Ce risque externe ne se cantonne pas à des acteurs malveillants. Il réside aussi dans l'usage accidentel ou inconscient d’un utilisateur mal avisé. Les risques de dépendance affective, par exemple, sont très loin d’être anecdotiques. On étudie sérieusement la possibilité d’une épidémie d’addiction affective en santé mentale, chez des individus qui développeraient une relation forte avec leur modèle d'IA. Nulle science-fiction, nul scénario de Luc Besson : l'enjeu est tout à fait sérieux. Il faut comprendre que ces modèles d'IA sont extrêmement convaincants et que nous sommes des animaux sociaux, intrinsèquement susceptibles de nous laisser piéger par notre tendance anthropomorphique. 

Le risque est également systémique : l'infrastructure IA est organisée de manière hyper-concentrée et il existe très peu de modèles concurrents. Chacun d'entre eux est utilisé par des milliers d’applications en ligne : il suffit d'une mise en jour dysfonctionnelle pour qu’on subisse des répercussions dommageables à des milliers d’applications. Les risques sont corrélés, la moindre faille a des conséquences en chaîne.

Le risque est également systémique : l'infrastructure IA est organisée de manière hyper-concentrée et il existe très peu de modèles concurrents.

Il existe environ cent cinquante millions d'utilisateurs de ChatGPT, dont une grande partie est constituée d'entreprises qui dépendent de leur chaîne d’approvisionnement digital. Il faut que ces modèles soient très robustes car le risque qu’ils font courir à l’économie est énorme. 

Dans un registre social, enfin, le risque de remplacement soudain et à grande échelle du travail humain mérite aussi d'être pris très au sérieux. 

La régulation s'oppose-t-elle au progrès technologique ? Dans quelle mesure peut-on considérer que les normes sont des facteurs d'inventivité ou qu'un équilibre est possible entre régulation et innovation ? 

En réalité, il n'y a pas à choisir. Il serait naïf de considérer la régulation comme une limite nuisible au potentiel d’innovation. On a au contraire besoin de régulation pour assurer la confiance des investisseurs et clients à long terme, qu’ils soient des industriels ou des consommateurs de l’IA. Plus les modèles sont sûrs, plus les usagers sont prêts à payer pour les utiliser. L’investissement dans la qualité, même s'il conduit à un renchérissement des produits, est fortement incitatif pour l’usager. 

La régulation, en assurant une meilleure qualité aux modèles d’IA ou du moins de meilleurs signaux de qualité, permet de diviser les coûts de surveillance et de soulager les usagers. 

La loi de "Lemons Market", que l'on doit au Nobel d’économie 2001 George Akerlof , le vérifie : les produits de bonne qualité ne subsistent pas sur les marchés si les produits de mauvaise qualité leur font concurrence sans que les consommateurs ne puissent distinguer les uns des autres au moment de l'achat : la conformité avec une réglementation de produit permet (enfin) cette distinction. Aujourd’hui, l’exigence est forte et les usagers n’acceptent pas l’aspect probabiliste de la performance de l’IA à laquelle ils ont recours. La régulation, en assurant une meilleure qualité aux modèles d’IA ou du moins de meilleurs signaux de qualité, permet de diviser les coûts de surveillance et de soulager les usagers.

Il faut donc que les pouvoirs publics mettent en œuvre des mesures en faveur de la précision, fiabilité et transparence des instruments IA afin de forcer les entreprises à investir dans la qualité des produits plutôt que dans la performance du marketing ou du lobbying. La régulation a un rôle crucial à jouer, y compris en matière de performance technique

Quels sont les principaux points de consensus et ceux de divergence entre les différentes parties prenantes de la régulation (secteur de la BigTech, États…) ? 

Les États commencent à saisir l’importance de la rupture que constitue l'IA.

L'Union Européenne, qui a raté la révolution Internet des années 1990 tout comme elle a raté la révolution de la big data, a des atouts technologiques limités mais reste riche de talents susceptibles d’être mobilisés dans l'IA pour mettre en œuvre des outils industriels et administratifs dignes de confiance. De plus, le Marché unique européen constitue un marché de déploiement attractif mais qui doit aussi faire valoir ses intérêts. L'UE est très performante sur les secteurs verticaux : l'industrie pharmaceutique, de l’agro-industrie, la robotique industrielle. Ce sont autant de domaines qui seraient fortement bénéficiaires d’une IA à usage général solide et de qualité. 

L'Union Européenne [...] a des atouts technologiques limités mais reste riche de talents susceptibles d’être mobilisés dans l'IA pour mettre en œuvre des outils industriels et administratifs dignes de confiance. 

Malheureusement, les entreprises américaines de la Silicon Valley n'ont pas les mêmes intérêts. A la différence des industriels non digitaux, qui désirent une régulation de contrôle-qualité sur les développeurs comme Microsoft ou Google, ces développeurs, au contraire, promeuvent une régulation en aval, sur leurs utilisateurs qui se retrouveraient légalement et contractuellement responsables tandis qu'eux, les développeurs, n'auraient aucun compte à rendre. Microsoft et Google sont malheureusement beaucoup plus audibles que les industriels usagers car, pour ces derniers, l'IA ne représente qu’un intérêt stratégique parmi d’autres tandis que la Big Tech mobilise toutes ses ressources, qui sont énormes, sur le sujet. Il faut que les États et les industriels verticaux s’emparent de la question et intègrent l'idée que l'industrie digitale n’est pas du tout alignée sur les mêmes intérêts que les siens.

En Europe, l'entreprise allemande Aleph ou les Français Mistral AI sont les seuls qui s’élèvent contre une régulation de l’IA générale, au détriment de milliers d’autres entreprises industrielles qui seraient rendues incapables, faute de l’assurance d’un contrôle suffisant, d’intégrer les fonctionnalités et facilités liées à l'IA. Parmi les acteurs américains, Open IA, Deepmind, Anthropic sont des organismes très concentrés qui sont en réalité captifs de leurs investisseurs : Alphabet, Microsoft, Intel, Nvidia. Il faut donc les considérer comme les entreprises de la Big Tech

Enjeux de gouvernance
Le 14 juin dernier, les députés européens ont adopté le cadre à partir duquel formaliser la législation européenne en matière de régulation de l'IA, qui reposera notamment sur la priorisation des risques : IA prohibé / IA à haut risque / IA à risque limité. Cette législation devrait entrer en vigueur "au plus tôt fin 2025", selon le commissaire au marché intérieur, Thierry Breton. Quelle est l'approche de l'UE en matière de régulation ?

Cette approche par les risques, censée être horizontale, est en réalité devenue très verticale. Plutôt que de parler de haut risque, il faudrait parler de secteurs à haut impact, capable de limiter les erreurs humaines grâce à une technologie de pointe dans des domaines cruciaux comme la santé, l’éducation ou l’administration publique. Parler de haut risque pourrait désinciter les investisseurs et simplement les conduire à éviter ces secteurs… Il faut au contraire évaluer avec précision la plus-value des modèles IA par rapport aux performances humaines et parler simultanément d'opportunités et de risques pour ces outils. 

Pour l'instant, l'IA d'usage général ne répond pas au cahier des charges de l'IA Act de juin et n’est pas conforme. Il faut donc que la régulation aille de pair avec une politique industrielle ambitieuse et digne de confiance en la matière. La mécanique de marché laissée à elle-même ne peut fonctionner : il faut garantir que les fournisseurs de ces modèles soient bien à niveau. 

Face aux puissances normatives concurrentes (Chine, États-Unis, UE, Londres, autre…), y a-t-il le risque d’une "législation en archipel" ? 

Le risque, de fait, est là : celui d'une régulation libre-service où chaque acteur irait se servir selon ses préférences. Il est remarquable de constater que, quasi simultanément, se déroulent de grandes réunions capitales pour la gouvernance de l’IA : le sommet onusien IA for Good les 6 et 7 juillet 2023, le Code de conduite international pour les systèmes d'IA avancés dans le cadre du processus d’Hiroshima le 30 octobre, la Loi sur l'IA de l'UE de juin 2023, le sommet de Londres sur la gouvernance des risques extrêmes de ce 1er novembre… Ces forums concomitants font courir le risque d’une dissolution et d’un éparpillement de la prise de décision tout en noyant le débat dans une sorte de confusion sur les acteurs en présence. La nécessité d’une régulation bien organisée n’en est que plus impérieuse. 

Propos recueillis par Hortense Miginiac. 

Copyright Image : JUSTIN TALLIS / AFP

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne