AccueilExpressions par MontaigneIntelligence artificielle, efficacité automatique ? Transformations de notre rapport à l’informationL'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.11/02/2025Intelligence artificielle, efficacité automatique ? Transformations de notre rapport à l’information TechnologiesImprimerPARTAGERAuteur Nicolas Spatola Chercheur en Sciences cognitives et sociales à l’Institut de recherche Artimon Perspectives Après l’entrée en vigueur partielle de l’IA Act, le 2 février, et le Sommet pour l’Action de l’IA, les 10 et 11 février, comment prendre en compte les conséquences de l’IA sur la prise de décision à l’échelle individuelle et collective ? Les IA entraînent-elles automatiquement un surcroît d’efficacité et si non, pourquoi ? Nicolas Spatola esquisse les défis humains, sociaux et civilisationnels de notre ère cybernétique (contrôle et information en vue de la connaissance et du pilotage de systèmes.) Des biais d’automation au forçage cognitif, quels sont les usages, quels sont les risques, quelles pourraient être les solutions ?L’information comme énergie : comprendre l’IA à travers la cybernétiqueLa révolution numérique et l’essor fulgurant de l’intelligence artificielle (IA) modifient nos modes de communication, de production et de prise de décision au niveau de l’individu et des institutions publiques et ce, dans la plupart des secteurs : santé, éducation, sécurité, finance, etc. La réception, l’analyse et la diffusion de l’information s’accélèrent et l’IA est souvent présentée comme une "disruption", un "bouleversement", un "changement de paradigme". Cependant, passés les discours, par le prisme historique, cet ensemble de techniques et les systèmes qu’elles opèrent dérivent plutôt d’un processus continu de contrôle et de communication entre l’homme et la machine. Pour mieux comprendre cette évolution, on peut la lire au prisme de la cybernétique, définie par le mathématicien et philosophe des sciences Norbert Wiener. La cybernétique suggère que l’information est une ressource comparable à l’énergie, nécessaire pour maintenir un système dans un état stable, et montre que la régulation d’un système - biologique, mécanique ou social - repose sur la circulation de l’information et l’ajustement continu des comportements via des boucles de rétroaction (ou feedback, concept clef qui désigne le mécanisme par lequel un système mesure la différence entre l’état souhaité et l’état réel, puis ajuste son action en conséquence). Le "thermostat" offre l’exemple d’un usage familier de ces boucles de rétroaction. Le thermostat capte en continu la température ambiante afin d’activer ou de désactiver le chauffage et ainsi de maintenir la température à la valeur de consigne. De la même façon, les politiques publiques sont ajustées en fonction des "boucles de rétroaction" d’opinion issus des sondages, pour une adaptation continue des décisions gouvernementales. Le bon fonctionnement de ces boucles suppose de choisir le bon système le mieux adapté pour capter l’information, définir les seuils de rétroaction, et les objectifs mêmes de la régulation.La rétroaction conditionne les systèmes d’IA actuels : qu’il s’agisse d’algorithmes d’apprentissage supervisé ou non supervisé, de systèmes de recommandation ou de moteurs de recherche, la capacité à collecter des données et à ajuster les modèles en continu fait écho à la conception wienerienne de la cybernétique, définie comme un système autorégulé basé sur l’information.L’IA transforme notre rapport à l’information, à l’échelle individuelle, parce qu’elle a un impact sur nos processus cognitifs, et au niveau du secteur public, où la gestion des informations et la prise de décision collective sont remodelées. Ces transformations majeures dépassent le seul cadre technique et demandent à être questionnées. L’IA contemporaine et la massification de l’informationAujourd’hui, l’IA s’appuie sur des capacités de calcul et de stockage de données sans précédent, favorisées par l’explosion du Big Data. Les algorithmes apprennent non seulement à traiter un volume massif d’informations, mais aussi à identifier des relations (schémas - structures - ou patterns - relations statistiques) de plus en plus subtiles. Cette approche repose sur plusieurs techniques. L’apprentissage profond (deep learning) rend ainsi des réseaux de neurones artificiels à plusieurs couches capables de traiter des données complexes (images, texte, son). Le traitement du langage naturel (NLP) permet aux machines de réagir au langage humain et d’en générer, avec un impact considérable sur la recherche d’informations et la production de contenu. Le renforcement (reinforcement learning) est le processus grâce auquel l’algorithme apprend en faisant des essais et en commettant des erreurs, selon les approbations et récompenses qu’il reçoit lorsqu’il adopte le comportement souhaité.Les orientations des développements techniques sont également des orientations sociales. C’est la vision de la société comme un système informationnel qui ouvre la possibilité d’une automatisation par l’information.Ces conditions techniques ne peuvent être isolées du contexte social dans lequel elles se sont développées car les orientations des développements techniques sont également des orientations sociales. C’est la vision de la société comme un système informationnel qui ouvre la possibilité d’une automatisation par l’information selon des boucles de rétroaction prédéfinies, avec des risques d’abus pointés en son temps par Norbert Wiener. Notre rapport quotidien à l’information et la manière dont les institutions publiques gèrent la société sont donc affectés par la cybernétique.Ainsi, les systèmes de police prédictive sont des outils informatiques qui collectent en continu des données (localisation, types d'incidents, etc.) pour ajuster automatiquement la répartition des ressources policières en fonction des prévisions d'activité criminelle, ce qui montre comment une orientation technique (l'automatisation par l’information via des boucles de rétroaction) s'inscrit dans un contexte social et soulève des questions éthiques quant à la gestion du pouvoir et aux risques d'abus.L’impact au niveau individuel : entre opportunités et risques cognitifsSur le plan individuel, l’IA démocratise l’accès à une quantité exponentielle d’informations. Les assistants virtuels (ChatGPT, Claude, etc.), les systèmes de recommandation (YouTube, Netflix, Spotify, etc.) et les moteurs de recherche avancés (Perplexity, Exa, etc.) offrent un accès immédiat à des connaissances spécialisées. Cette facilité d’accès améliore l’accès à l’information, l’apprentissage et une certaine forme de créativité. Cette abondance de données présente également des risques de surcharge informationnelle. Le cerveau humain n’est pas adapté à traiter d’immenses flux de contenus à la même vitesse que les machines car peu ou prou, sa structure n’a pas évolué depuis plusieurs milliers d’années. Les processus cognitifs peuvent alors s’en trouver perturbés, avec un changement de notre manière de traiter l’information : lecture en diagonale (l’individu, soumis à un flux constant de nouveautés, scanne rapidement les textes sans réelle profondeur d’analyse), perte de sens critique face à l’autorité perçue de l’algorithme et confiance excessive dans les informations qu’il génère et transmet. Un tel traitement plus superficiel de l’information favorise le poids de l’émotion au détriment de celui de la réflexion. Si la désinformation est présentée comme le grand enjeu de l’ère de l’IA, la surabondance d’informations produites et la surcharge émotionnelle des contenus pourraient s’avérer bien plus perturbantes. À titre d’exemple, le contenu généré par l'IA sur LinkedIn aurait augmenté de 189 % de janvier à février 2023.Ni la durée de nos journées ni la vitesse de notre cerveau n’ont augmenté depuis février 2023 (date à laquelle ChatGPT passe le cap des 100 millions d’utilisateurs mensuels actifs et lance sa version payante) : l’information se massifiant, son flux accélérant, les utilisateurs s’en remettent à l’information émise par la machine pour la retransmettre telle quelle. On parle de biais d’automation. Pour notre exemple de LinkedIn, une partie de cette information n’est plus pensée, analysée, contredite, ce qui minimise voire fait disparaître la réflexion humaine du processus. Dès lors, quand la machine commet des erreurs - et elle en commet - l’utilisateur est moins prompt à sans s’en rendre compte, renforçant ainsi le processus de mésinformation, c’est à dire le partage d’une information que l’on pense, à tort, véridique sans l’avoir vérifiée. Les études montrent d’ailleurs que les fausses informations sont bien plus relayées par la mésinformation (non-intentionnelle) que la désinformation (intentionnelle).Cela illustre le rapport que nous pouvons avoir aux algorithmes dans nos processus de décisions. Les individus s’en remettent aveuglément aux recommandations ou décisions proposées par un système automatisé et, à force de déléguer le travail d’analyse à la machine, ils peuvent perdre en capacités d’analyse. Ainsi, la tendance à suivre les recommandations d’un algorithme s’alimente elle-même, en un cercle vicieux qui conduit à accepter comme fiables des informations ostensiblement aberrantes. Cela est d’autant plus vrai lorsque l’objectif principal de l’utilisateur est de faire "plus", "plus vite" plutôt que de "prendre le temps de faire mieux". En simplifiant le processus, plus les systèmes permettent d’aller vite, plus l’individu délègue de place dans la réflexion et le traitement de l’information aux systèmes, plus il devient dépendant de ces systèmes, et plus ces systèmes permettent d’aller vite.À l’échelle individuelle, il devient nécessaire de mettre en place des politiques d’éducation numérique et de développer des compétences informationnelles (savoir chercher, vérifier, croiser les sources). Sans ces mécanismes d’apprentissage, la qualité de la décision individuelle pourrait se dégrader à mesure que nous confions davantage de tâches à l’IA, même si cette technologie est aussi vectrice de progrès. C’est tout le dilemme entre l’approche technique et l’approche sociale : on ne pense pas un outil de la même manière si on le réfléchit simplement sur ce qu’il peut faire en théorie ou si l’on pense l’humain et la société qui le développe et l’intègre en pratique..Ni la durée de nos journées ni la vitesse de notre cerveau n’ont augmenté depuis février 2023 (date à laquelle ChatGPT passe le cap des 100 millions d’utilisateurs mensuels actifs et lance sa version payante).Secteur public : vers une gouvernance algorithmique ?L’influence de l’usage des IA se lit également dans le secteur public et les administrations, qui usent de ces outils dans le but d’optimiser la gestion des services et des ressources. Analyse prédictive (prévoir des pics de consommation énergétique ou détecter des fraudes fiscales), automatisation des processus (traitement de dossiers administratifs et aide à la décision sont accélérés, libérant du temps pour des missions à plus forte valeur ajoutée) ou politiques basées sur les données (les gouvernements s’appuyant sur des rapports d’algorithmes pour élaborer des politiques publiques) sont autant d’usages répandus. Dès lors, si le secteur public est un grand système informationnel d’action et de rétroaction, plus nous pouvons traiter d’informations, plus le système devrait être efficace. Nous retrouvons notre approche cybernétique.Or, dans la sphère publique également, l’usage de l’IA peut mener à une forme de superficialité dans le traitement d’informations, notamment quand il affecte le pouvoir discrétionnaire des agents, c’est-à-dire la capacité de l’administration à apprécier une opportunité pour agir. On parle de "discrétion artificielle" quand l’automatisation des processus bureaucratiques relègue partiellement la capacité de décision à un algorithme afin qu’il produise des recommandations d’action. On met en avant certains avantages comme la meilleure qualité et cohérence des décisions, la réduction des biais humains et la capacité à traiter d’énormes volumes de données. Cela se fait toutefois au détriment de la transparence et se traduit par une complexité accrue des systèmes administratifs, et parfois la résistance des agents concernés.Les décideurs politiques tentés de s’en remettre à la "neutralité apparente" de l’algorithme en implémentant ces systèmes sont contraints de minimiser la complexité du terrain et risquent plusieurs conséquences négatives : le biais d’automation à grande échelle, quand des biais techniques se transforment en discriminations systémiques (dans le logement, l’emploi, la justice) ; la déresponsabilisation, quand les responsables publics se retranchent derrière l’algorithme en cas de contestation d’une décision ; la cécité aux enjeux sociaux, quand les indicateurs quantitatifs, bien que utiles, lissent la réalité humaine et les dynamiques sociales complexes (précarité, inégalités, discriminations) qu’elle recèle. Ainsi, l'algorithme de la CAF (Caisse d'allocations familiales) a fait l'objet d'un recours auprès du Conseil d'État par 15 organisations en 2024 car il était accusé de discrimination envers les personnes vulnérables. Aux Pays-Bas, on peut citer le scandale "Toeslagenaffaire" (affaire des allocations familiales) en 2021, où un algorithme discriminatoire a ruiné des milliers de familles en les accusant à tort de fraude aux aides sociales. En Serbie, le "registre des cartes sociales" mis en place en 2022 a automatisé l'attribution des aides sociales, excluant injustement des milliers de personnes, notamment des Roms et des personnes en situation de handicap. Au Danemark, le système Udbetaling Danmark (UDK) utilise 60 modèles algorithmiques pour détecter les fraudes aux prestations sociales, ciblant de manière disproportionnée les personnes ayant des liens avec des pays non-membres de l'Espace économique européen. En Suède, l'agence de sécurité sociale Försäkringskassan a été critiquée pour son utilisation de systèmes d'IA opaques dans la gestion des prestations sociales.L’explicabilité des algorithmes est souvent la seule réponse apportée à ceux qui pointent les risques : une analyse critique qui motive les décisions de l’algorithme et qui en explique le fonctionnement est censée permettre de déterminer s’il est pertinent ou non de se fier aux recommandations. Encore une fois, cette approche souligne la distinction entre l’approche technique et l’approche pratique. S’il est vrai que l’explicabilité permet de réduire certains écueils, en pratique, cela nécessite du temps et de l’expertise, temps et expertise que l’on tend justement à délaisser pour plus de "performance". Si les objectifs de quantité et de rapidité sont ceux qui priment, même lorsque les informations qui facilitent la compréhension des recommandations sont disponibles, les individus les négligent pour accomplir plus vite leur tâche. L’objectif est d’aller du point À au point B, et dans ce contexte, l’outil est généralement considéré comme un simple moyen.Si le secteur public est un grand système informationnel d’action et de rétroaction, plus nous pouvons traiter d’informations, plus le système devrait être efficace.Un tel état de fait érode le sentiment de responsabilité. En s’inspirant de ce qui se pratique en médecine, on pourrait donc envisager des systèmes obligeant à prendre une décision ou à se forger un avis avant l’utilisation de l’outil. C’est ce que l’on appelle le forçage cognitif : une approche de débiaisage cognitif qui traite les pièges des raisonnements pour réduire le biais d’automation.Le principe est d’obliger à penser une solution ou un raisonnement avant de pouvoir solliciter une aide algorithmique, afin d’être dans une posture d’échange critique avec l’outil plutôt que de laisser l’information algorithmique servir d’ancrage à la pensée. Les études montrent toutefois que ce forçage réduit la satisfaction de l’utilisation de l’outil puisqu’il ne s’oriente plus vers un objectif de "performance" (aller plus vite) mais vers un objectif de "maîtrise" (faire mieux). L’économie de la réflexion n’est plus de mise, au contraire, et l’insatisfaction vient illustrer la dichotomie entre l’objectif de performance dans l’utilisation et le besoin de contrôle sur l’outil.Au-delà de l’utilisation in situ, le recours accru aux algorithmes dans la gouvernance soulève la question de la transparence : dans quelle mesure les citoyens ont-ils accès aux critères et aux paramètres utilisés ? La cybernétique de Wiener impliquait déjà un retour d’information critique pour maintenir l’équilibre d’un système. Dans la gouvernance algorithmique, les citoyens, les médias et la société civile doivent disposer de moyens pour questionner et comprendre les décisions issues des systèmes d’IA.Sur le plan juridique, l’Union européenne a élaboré des règlements spécifiques (IA Act) visant à fixer des normes de transparence et de responsabilité pour les algorithmes à "haut risque" : l’IA Act, dont les premières mesures sont entrées en application le 2 février en Europe. La création de comités d’éthique pluridisciplinaires (experts en IA, philosophes, juristes, sociologues) peut aussi contribuer à anticiper les conséquences sociales et politiques d’un usage massif de l’IA dans l’administration.Saisir l’IA à travers le prisme de la cybernétique permet de souligner la nécessité d’inscrire les innovations techniques dans une réflexion plus large sur le rôle de l’information et sur les mécanismes de rétroaction. Que ce soit au niveau individuel, avec l’émergence de nouveaux automatismes et l’importance d’une éducation numérique, ou au niveau institutionnel, avec les risques de déresponsabilisation et de superficialité au sein des processus de décision, l’IA ne doit pas être envisagée comme une simple amélioration de l’efficacité. Elle implique avant tout une reconfiguration des responsabilités et des rapports de pouvoir, nous rappelant qu’aucun outil technique, aussi sophistiqué soit-il, ne peut se substituer entièrement à la réflexion critique, à l’éthique et à la prise en compte de la complexité sociale.Elle implique avant tout une reconfiguration des responsabilités et des rapports de pouvoir, nous rappelant qu’aucun outil technique, aussi sophistiqué soit-il, ne peut se substituer entièrement à la réflexion critique, à l’éthique et à la prise en compte de la complexité sociale.Copyright image : Ludovic MARIN / AFP Emmanuel Macron au sommet pour l’Action sur l’IA, au Grand Palais, le 10 février 2025. ImprimerPARTAGERcontenus associés à la uneJanvier 2024Pour une Autorité française de l’IAL'année 2023 a été marquée par la déferlante IA. Le monde a découvert ChatGPT, l’intelligence artificielle à usage général de l’entreprise américaine OpenIA. Alors que plusieurs pays leaders de l’IA ont déjà pris les devants en annonçant la création de leurs propres Instituts de Sûreté de l’IA et que l’Europe s’apprête à mettre en place des règles contraignantes en matière de développement et d’usage, la France manque à l’appel de cette réflexion et prend un retard impardonnable.Consultez la Note d'action 30/01/2025 Deepseek : la réussite, et le conte de Noël chinois François Godement 14/11/2024 [Trump II] - Les risques pour la souveraineté technologique européenne Charleyne Biondi