AccueilExpressions par MontaigneLes défis de la modération des contenus : les droits de l'Homme d'abord !L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.18/07/2019Les défis de la modération des contenus : les droits de l'Homme d'abord !Entretien avec Victoria Nash TechnologiesImprimerPARTAGER Victoria Nash Directrice adjointe et Senior Policy Fellow à l'Oxford Internet Institute (OII) La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cette interview, Victoria Nash, directrice adjointe et professeure associée à l'Oxford Internet Institute, plaide en faveur d'une approche de la modération des contenus fondée sur les droits de l’Homme. Elle souligne la nécessité d'un programme de recherche ambitieux pour établir une catégorisation des nuisances en ligne et évoque les efforts consentis jusqu'à présent par le gouvernement britannique dans ce domaine, en particulier en ce qui concerne les opportunités et les risques que les enfants rencontrent en ligne.Le débat sur la modération des contenus est souvent présenté comme une tension entre la liberté d'expression d'une part, et l'idée que le contenu nuisible doit être supprimé d'autre part. Que pensez-vous de cette dichotomie ?À mes yeux, l’approche idéale en matière de modération des contenus - ce, quel que soit le pays - devrait se concentrer sur la protection des droits de l’Homme. Le choix d'une telle approche par des États comme la France et le Royaume-Uni dissuaderait les régimes plus autoritaires d'utiliser à mauvais escient les modèles qu'ils conçoivent et appliquent. En outre, ce cadre permettrait aux gouvernements de défendre une variété de droits et non seulement celui de la liberté d'expression. Nul doute que la liberté d’expression soit un élément essentiel, mais il y a d'autres valeurs fondamentales que nous devrions protéger en ligne, comme le droit à l'information et le droit à la participation, qui devraient tous faire l'objet d'une réflexion commune.Il y a d'autres valeurs fondamentales que nous devrions protéger en ligne, comme le droit à l'information et le droit à la participation, qui devraient tous faire l'objet d'une réflexion commune.En effet, il faut que les gouvernements considèrent avec inquiétude les cas de suppression abusive des contenus et leur impact sur la liberté d'expression. Mais dans le même temps, ils doivent aussi être alarmés par le fait que certaines minorités ne puissent pas participer aux débats publics. Une approche fondée sur les droits de l'Homme permet de légitimer des recours comme le droit d'appel, autorise la prévalence de la transparence et impose aux gouvernements de donner des définitions claires de la nature des contenus qu'ils souhaitent voir supprimer. Cette approche implique également la mise en place d'organismes de régulation ou de tribunaux indépendants en vue de régler les différends les plus controversés en matière de modération et de suppression des contenus.Le rapport français publié le 10 mai dernier insiste sur le fait que la réglementation doit se concentrer sur le contrôle des efforts consentis par les plateformes de réseaux sociaux dans la modération des contenus et souligne l'importance de la transparence à cet égard. Que pensez-vous de cette approche ?Si nous étions dans un monde idéal, oui, je voudrais probablement épuiser tous les mécanismes d'autorégulation avant d'introduire des réglementations très strictes et, à cet égard, je pense que de telles mesures sont des premiers pas utiles. Pour autant, j’ai bien conscience que ce n'est peut-être pas absolument suffisant. Dans le système actuel, et c’est en cela une de nos préoccupations principales, les grandes entreprises agissent en tant que "gendarmes privés", sans cadre clair sur la nature exacte des propos nécessitant d’être supprimés. Cette situation conduit à un excès de pouvoir de la part d’entreprises qui n’ont besoin de rendre de compte à personne, ce qui leur permet de choisir entre retirer trop peu ou trop de contenus.Autre élément inquiétant : l’effet que ces mesures pourront avoir sur différents types de plateformes. Des entreprises comme Facebook, Youtube ou Twitter ont beaucoup de ressources à consacrer à la modération des contenus, et nous savons déjà que des acteurs comme Facebook envisagent la voie du recours en appel. Ils ont déjà déployé des processus et des cadres de suivi clairs sur la façon dont les décisions de modération doivent être prises. Bien que cela soit très positif, j’émets plus de doutes sur la façon dont ces modèles peuvent être reproduits dans les petites entreprises et les entreprises plus spécialisées. La question est de savoir si les gouvernements exigeront que les mêmes normes s'appliquent à tous. Par exemple, une entreprise comme Reddit tolère clairement plus de liberté d'expression que Facebook... Il serait important, à mes yeux, que ces différences persistent, du moins en ce qui concerne les contenus illégaux. Au Royaume-Uni, la question de savoir quel type de contenu doit être supprimé - et pourquoi il doit l’être - est actuellement brouillée par le Online Harms White Paper (Livre blanc sur les nuisances en ligne), en raison du large éventail de questions que les entreprises sont invitées à saisir. La modération d'un discours nuisible, comme le harcèlement par exemple, implique des décisions très subjectives, et on ne sait pas très bien à quoi pourraient ressembler des exigences de transparence dans ces circonstances. Il est probable que cela nous mènerait, ironiquement, à un cadre in fine moins transparent...Vous l'avez dit : il est très complexe de délimiter clairement ce qui est faux ou nuisible. Qui devrait être chargé de définir ces termes ?À l'heure actuelle, le gouvernement britannique propose que la définition de ce qui est nuisible soit rendue par les entreprises et l'organisme de réglementation, ce qui, à mon avis, est le principal problème du Livre blanc. La propension d'un contenu à “nuire” dépend en partie de la personne qui consomme ce contenu. Par exemple, les données sur la nuisance liée aux discours autour des troubles de l'alimentation sont très ambiguës. Ce type de contenu peut en effet être nuisible pour les publics vulnérables qui ont déjà une sensibilité aux troubles de l'alimentation, mais pas nécessairement pour le public général. Ici, nous sommes face à un problème conceptuel fondamental : on peut tenter de définir le contenu nuisible en déterminant certaines catégories, mais le doute reste entier sur la question de savoir si on pourra prouver que le contenu est réellement nuisible.D’une part, l'approche britannique actuelle du duty of care (obligation de diligence) est séduisante, car elle demande aux plateformes d'examiner quels types de contenus sont susceptibles d'être nuisibles en fonction de leurs utilisateurs, ce qui autorise une certaine nuance. Mais d’autre part, nous avons besoin d'une législation qui clarifie quels types de contenu doivent être supprimés en priorité, peut-être en fonction de groupes particuliers d'utilisateurs. Cela implique la mise en place d'un vaste programme de recherche pour les cinq prochaines années.À cette fin, il est important que le gouvernement demande aux plateformes de travailler de concert afin de générer une base de recherche utile.À cette fin, il est important que le gouvernement demande aux plateformes de travailler de concert afin de générer une base de recherche utile. Cela peut impliquer l'ouverture de certaines données des plateformes dans un certain nombre de domaines, comme la désinformation, les troubles de l'alimentation, l'automutilation, la misogynie, etc. La recherche supposerait la compréhension des modèles d'utilisation et la réalisation d'études à petite échelle avec des groupes particuliers. L'objectif serait de travailler avec des groupes et des plateformes spécifiques afin de mieux comprendre les habitudes de ceux-ci en matière de réseaux sociaux et la façon dont cela peut contribuer à leur bien-être mental, de manière à déterminer l'effet causé par le contenu en question. Ce programme de recherche pourrait être un bon complément à l'approche de surveillance que nous venons de mentionner. Le contenu des plateformes de réseaux sociaux doit-il être modéré en fonction de l'âge des utilisateurs ?Le Livre blanc est le résultat d'un travail de longue haleine de la part d'organisations caritatives défendant les droits des enfants et d'une campagne médiatique féroce contre certaines entreprises, fondée sur des cas de préjudices en ligne subis par des enfants. Pourtant, les preuves de nuisances subies sont loin d'être aussi solides qu'on pourrait s'y attendre. Ce qui est aussi dommage, c’est que ces débats mettent de côté les opportunités que ces technologies peuvent offrir aux plus jeunes. Bien sûr, il y a une certaine injustice pour les enfants sur les plateformes, en particulier entre 9 et 15 ans, car les enfants de cet âge sont trop âgés pour utiliser des plateformes réservées aux enfants, mais peut-être trop jeunes pour des contenus non contrôlés. On a la preuve que que la plupart des nuisances que les enfants déclarent avoir subies en ligne sont causées par des contenus haineux, y compris l'intimidation.À cet égard, le Livre blanc est une réponse légitime au fait que les enfants peuvent être perturbés par des contenus destinés aux adultes sur les réseaux sociaux. Pourtant, les propositions du Livre blanc vont plus loin que cela ; je crains que nous nous retrouvions tout bonnement dans une situation où les plateformes peu enclines à prendre des risques empêcheront simplement l'accès aux utilisateurs de moins de 18 ans, afin d'éviter d'avoir à assumer la responsabilité de la diffusion de contenus potentiellement dangereux. La réponse trop excessive préconisée par le Livre blanc pourrait donc entraîner la fin des opportunités positives qui existent en ligne pour les enfants.Une approche moins stricte consisterait à consacrer beaucoup plus de ressources à l'éducation, ce dans un large éventail de domaines, et tant pour les adultes que pour les enfants. L'éducation sexuelle vient d'être rendue obligatoire dans les écoles, et des consultations sont actuellement en cours sur la manière dont on peut aborder la pornographie en ligne et le "sexting" (ou textopornographie). Ce sont là des enjeux essentiels pour que tous les enfants soient bien armés pour faire face à ce type de défis. Ce qui pourrait également être utile, c’est que les gouvernements comprennent les modèles économiques qui sous-tendent ce genre de contenus et qu'ils trouvent des moyens astucieux pour les détourner. Dans le domaine de la désinformation, par exemple, cela impliquerait de fournir davantage d’efforts pour suivre et pister les auteurs des campagnes les plus importantes. Bien entendu, de telles initiatives exigent plus de ressources que de simples mesures réglementaires à destination des entreprises qui hébergent ces contenus...ImprimerPARTAGERcontenus associés 20/06/2019 Le challenge de la modération de contenu Théophile Lenoir 03/07/2019 Les défis de la modération des contenus : de l'importance de la coopération Ben Nimmo 11/07/2019 Les défis de la modération des contenus : définir "contenus problématiques" Claire Wardle