Rechercher un rapport, une publication, un expert...
L'Institut Montaigne propose une plateforme d'Expressions consacrée au débat et à l’actualité. Il offre un espace de décryptages et de dialogues pour valoriser le débat contradictoire et l'émergence de voix nouvelles.
11/07/2019

Les défis de la modération des contenus : définir "contenus problématiques"

Entretien avec Claire Wardle

Imprimer
PARTAGER
Les défis de la modération des contenus : définir
 Claire Wardle
Présidente exécutive chez First Draft

La France et d'autres pays, dont l'Allemagne et le Royaume-Uni, tâchent actuellement de fournir un cadre réglementaire à la modération des contenus sur les réseaux sociaux. Si ces initiatives sont souvent encouragées par les pouvoirs publics, elles font l'objet de vifs débats quant à leur impact potentiel sur la liberté d'expression. Dans cet entretien, Claire Wardle, présidente exécutive de First Draft et membre du précédent groupe de travail de l'Institut Montaigne Media Polarization "à la française"?, soutient qu'une réflexion multinationale sur la modération des contenus serait bénéfique pour des pays qui ont travaillé jusqu'ici en vase clos.

La mission de régulation des réseaux sociaux insiste sur l’importance de la transparence des algorithmes utilisés par les plateformes et le principe de "responsabilité dès la conception" (accountability by design). Quel regard portez-vous sur cette approche ? La pensez-vous à même de réduire les nuisances en ligne ?

Ce qui me préoccupe le plus dans ces débats croissants sur les initiatives gouvernementales de réglementation des contenus "nuisibles", c'est l’absence de définition claire de ce que nous entendons par là. Même si nous savons définir un contenu illégal, comme par exemple un contenu relatif au terrorisme ou un contenu pédopornographique, nous manquons de définition et de limites claires pour tout discours se situant en dehors de cette catégorie. Dans mon travail, j'assiste régulièrement à l’instrumentalisation du contexte : des images "honnêtes" ou des messages a priori inoffensifs sont détournés de manière à devenir potentiellement nuisibles. Décider de ce qui doit être considéré comme "problématique" ou "nuisible" n’est pas chose aisée, et nos sociétés ne sont pas encore tombées d’accord sur les types de contenus qu’elles veulent voir conservés ou supprimés par les plateformes. C'est pourquoi je suis assez peinée par l'utilisation du mot "nuisance" sans définition claire de cette dernière et sans indication de la manière dont on peut la mesurer.

Décider de ce qui doit être considéré comme "problématique" ou "nuisible" n’est pas chose aisée, et nos sociétés ne sont pas encore tombées d’accord sur les types de contenus qu’elles veulent voir conservés ou supprimés par les plateformes.

Face à ces ambiguïtés, l’accent mis sur la transparence des algorithmes et la "responsabilité dès la conception" (accountability by design) est certainement justifié et mérite d'être davantage exploré. Récemment, les entreprises répondaient à cette approche en soutenant que leurs algorithmes étaient sensibles sur le plan commercial et/ou que ces algorithmes étaient intrinsèquement et structurellement trop changeants pour que le processus qu'ils utilisent puisse être expliqué ou rendu plus transparent. Je pense pourtant qu'il est essentiel de commencer à évaluer les résultats produits par ces algorithmes.

Il est important que nous comprenions la nature des contenus sensibles et potentiellement nuisibles (par exemple, l’information sur les vaccinations, l'intégrité des processus électoraux, les discours haineux, les insultes et le harcèlement) que les gens "voient" passer sur les fils d’actualité de leurs réseaux sociaux. Il convient d’organiser des discussions mobilisant l’ensemble de la société sur les types de contenus que nous considérons comme nuisibles ; il nous faut décider des règles que les plateformes devraient appliquer face à ces contenus.

Je suis beaucoup plus séduite par l’idée que les gouvernements obligent les entreprises à réaliser des audits indépendants - plutôt qu’une approche qui consisterait à leur demander de rédiger leurs propres rapports de transparence. Il nous faut recueillir beaucoup plus de données avant d'élaborer une réglementation sérieuse de la modération des contenus.

Aux États-Unis, les annonces faites par Mark Zuckerberg pour en appeler à une plus grande réglementation des contenus nuisibles en ligne ont parfois été accueillies avec scepticisme, notamment en raison de l'attachement du pays à la liberté d'expression, définie au sens large. Pensez-vous que les approches réglementaires développées en France et plus généralement en Europe pourraient néanmoins inspirer les Etats-Unis ?

Les débats sur la réglementation de la modération des contenus se sont récemment multipliés aux États-Unis. La position européenne est plus dure que de l’autre côté de l’Atlantique, en partie parce que l’histoire récente de l’Europe lui permet de comprendre davantage la gravité des conséquences potentielles du discours haineux. Les États-Unis sont plus tolérants à l'égard de certains types de discours, dont celui-ci, ce qui explique que les débats sur la modération des contenus y soient moins courants. Cela dit, les États-Unis suivent de près ce qui se passe en Europe, et le règlement général sur la protection des données (RGPD) n’a pas manqué de susciter d'importantes discussions sur les mécanismes à déployer pour protéger les données personnelles. Toutefois, je suis prête à parier que toute réglementation américaine relative aux plateformes se concentrera sur des mesures antitrust plutôt que sur la modération des contenus.

First Draft News déploie ses activités dans de nombreuses régions du monde, dont au Brésil, en Indonésie et au Nigeria. Selon vous, quelles initiatives ont été les plus marquantes à travers le monde jusqu'à présent ?

Nous avons pu assister à un surgissement d'initiatives réglementaires à travers la planète, du Brésil à l'Australie, en passant par la Russie. Un projet de loi est en cours à Singapour. Toutes ces initiatives ont été faites à la va-vite et chacune peut être controversée à sa façon. L'accent est mis sur la modération des contenus et, trop souvent, c’est l'utilisateur qui porte le fardeau en cas de partage d'informations erronées. Toutes ces initiatives se fondent sur des définitions insatisfaisantes de ce qui est problématique ou nuisible. L'absence de réflexion collective est également inquiétante. Les entreprises de réseaux sociaux concernées agissent à l’échelle mondiale ; les réponses nationales sont donc insuffisantes, voire problématiques. Une démarche multinationale, rassemblant des représentants de pays divers qui dialogueraient à la fois avec des experts et des plateformes, serait une voie bien plus intéressante pour recueillir des retours d’expérience et formuler des solutions plus larges à ces enjeux.

Recevez chaque semaine l’actualité de l’Institut Montaigne
Je m'abonne