Réguler les contenus diffusés sur l’internet et régulation des plateformes

Partager

La sécurité internationale passe par la régulation des grands principes régissant les infrastructures, mais également des contenus illicites diffusés sur l’internet. Il convient de bien distinguer les deux domaines, ces derniers mobilisant des cadres juridiques différents.

La manipulation de l’information

Tout particulièrement en contexte électoral, la problématique de la manipulation de l’information a fait l’objet d’études et de prises de position publiques de la part du ministère de l’Europe et des Affaires étrangères, que ce soit à travers la publication du rapport CAPS IRSEM intitulé « Les manipulations de l’information : un défi pour nos démocraties » ou que ce soit à travers le discours de clôture du Ministre lors de la Conférence internationale « Sociétés civiles, médias et pouvoirs publics : les démocraties face aux manipulations de l’information » qui s’est tenue à Paris le 4 avril 2018.

Dans la lignée de ces travaux, l’Ambassadeur pour le numérique a constitué dès mars 2019 une équipe spécifiquement dédiée à la lutte contre la désinformation et la manipulation de contenus en ligne.

Les outils développés par cette équipe pour prévenir, détecter, répondre et sensibiliser aux campagnes de désinformation sont en accès libre, entièrement ouverts et collaboratifs. Ils reposent sur une implication plus grande des acteurs engagés dans la lutte contre la désinformation, mais également et surtout de la société civile.

  • Une encyclopédie collaborative recense et documente les meilleures pratiques, outils et acteurs permettant à toutes les personnes qui cherchent à lutter contre la manipulation de l’information d’améliorer les compétences de l’écosystème tout entier.
    https://disinfo.quaidorsay.fr/encyclopedia
  • En France, la publicité politique est interdite en période électorale. Une interface de classification fonctionnant via le crowdsourcing permet aujourd’hui aux citoyens de voir des publicités liées au politique sponsorisées sur Facebook et de faire ressortir les acteurs qui ne respectent pas la loi. Son code libre et aisément téléchargeable permet d’étendre cet outil à d’autres pays.
    https://disinfo.quaidorsay.fr/political-ads/
  • A également été développée une interface de détection de robots, qui affiche en temps réel le nombre de comptes Twitter inauthentiques trouvés algorithmiquement. Le programme navigue les relations d’abonnement de Twitter pour identifier des groupes de comptes suspects à partir d’un compte donné avec une fiabilité d’environ 85%. Il utilise l’API gratuite Twitter et peut donc être facilement déployé.
  • Enfin, un chat collaboratif accessible permet de détecter, qualifier et réagir à des campagnes de désinformation de manière collaborative. Il réunit les acteurs impliqués dans la lutte contre la désinformation, soutient les bonnes pratiques identifiées dans l’encyclopédie et propose les meilleurs outils via des chatbots.
    https://disinfo.quaidorsay.fr/encyclopedia/contribute

La lutte contre les contenus terroristes en ligne et l’Appel de Christchurch

La lutte contre l’utilisation d’internet à des fins terroristes constitue l’un des axes majeurs de l’action de la France en matière de contre-terrorisme. Ce sujet fait l’objet d’une mobilisation politique de haut niveau, notamment au sein de l’Union européenne et du G7. La France soutient notamment l’adoption d’un projet de règlement européen sur le retrait de contenus terroristes en ligne, visant à imposer le retrait d’un contenu terroriste dans l’heure à la demande d’un État membre.

L’Ambassadeur pour le numérique a également directement contribué au lancement de l’Appel de Christchurch sur la lutte contre les contenus terroristes et extrémistes violents en ligne le 15 mai 2019. Ce texte engage les entreprises de l’internet, les gouvernements et des représentants de la société civile à collaborer activement pour supprimer les contenus terroristes et extrémistes violents en ligne. Il fait suite aux tragiques attentats perpétrés contre une mosquée en Nouvelle-Zélande le 15 mars 2019, dont la vidéo avait été diffusée en en direct sur un réseau social puis relayée de manière massive sur internet.

L’Appel de Christchurch propose des engagements volontaires collectifs pour lutter contre l’utilisation d’internet à des fins terroristes, dans le respect des libertés fondamentales et des principes d’un internet libre et ouvert et sûr.
Les engagements énoncés par l’Appel comprennent :

  • Des engagements de la part des États à veiller à l’application efficace de lois interdisant la diffusion de contenus terroristes et extrémistes violents en ligne et à envisager des mesures législatives si nécessaire.
  • Des engagements des entreprises à développer davantage de mesures concrètes pour détecter, prévenir, supprimer, et empêcher le téléchargement et la diffusion de contenus terroristes et extrémistes en ligne, y compris en encadrant la diffusion en direct.
  • Une reconnaissance du rôle de la société civile, pour soutenir ces efforts.
  • Des engagements communs aux États et aux entreprises, notamment la création d’un protocole de crise pour répondre à la diffusion de contenus à la suite d’un événement terroriste, le soutien aux petites entreprises, et l’accélération de la recherche et du développement de solutions techniques pour lutter contre les contenus terroristes en ligne.

La régulation des plates-formes numériques

La dynamique portée par l’Appel de Christchurch a permis l’UE d’adopter des textes ambitieux en matière de régulation des plates-formes numériques.
La proposition de la Commission portant sur le Digital Services Act (DSA), publiée le 15 décembre 2020, forme avec le Digital Markets Act le paquet législatif visant la création d’un nouveau cadre de régulation applicable aux plateformes numériques opérant au sein de l’Union Européenne. Ce texte de la Commission modernise le cadre de régulation des contenus en ligne et la responsabilité des opérateurs, en modifiant la directive « e-Commerce » de 2000.

La France soutient les objectifs ambitieux du DSA, qui sont :

  • La responsabilisation des plateformes numériques à la hauteur de leur rôle dans la diffusion de contenus et des produits en question, avec un système d’obligations graduées et proportionnées à la taille des acteurs, et l’obligation de rendre des comptes sur leur mise en œuvre ;
  • La nécessité d’une plus grande transparence sur la modération des contenus, qui reste opaque à ce stade ;
  • Le système d’obligations renforcées pour les très grandes plateformes pour les risques systémiques qu’elles présentent ;
  • La mise en place d’un régime de supervision robuste avec des sanctions dissuasives pouvant aller jusqu’à 6% du chiffre d’affaires ;
  • L’extension du champ d’action du régulateur au-delà de la seule modération des contenus illicites, dans la mesure où la régulation doit englober toute la politique de modération que les plateformes mettent en œuvre sur la base de leurs conditions générales.

L’objectif du texte n’est pas de conférer un pouvoir de censure arbitraire aux plateformes mais au contraire de responsabiliser ces acteurs pour les contenus diffusés grâce à leurs services. Sont ainsi imposées des obligations de transparence, en particulier de leurs conditions générales d’utilisation ou sur les systèmes de recommandation de contenu, et de reporting. Le texte renforce également la place de l’utilisateur en offrant des outils de signalement de contenu tout en garantissant des possibilités de recours, y compris devant la plateforme elle-même, afin de contester un retrait et ou d’autres mesures telles que la suspension de compte. Les autorités publiques, nationales et la Commission, auront la capacité de contrôler le respect de ces obligations, grâce à un accès, sur requête, aux données d’une plateforme et par des mécanismes d’information entre ces acteurs et les autorités publiques. Le principe de l’interdiction d’imposer une obligation générale de surveillance, importante pour les plateformes mais aussi pour la confiance des citoyens, n’est pas affecté.

Le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne a été adopté le 28 avril 2021. Celui-ci prévoit à la fois des mesures fortes pour lutter contre la diffusion des contenus à caractère terroriste en ligne, et des garde-fous afin de protéger la liberté d’expression, éducative, de recherche ou encore journalistique :

  • Des outils pour lutter efficacement contre les contenus terroristes :
    • Le retrait des contenus terroristes dans un délai d’une heure
    • La portée transfrontière des injonctions de retrait : l’autorité compétente de tout État membre pourra émettre une injonction exécutoire à destination de toute plateforme établie sur le territoire de l’Union, y compris dans un autre État membre
    • Des mesures destinées à prévenir en amont la diffusion des contenus terroristes
    • Des obligations de transparence et de rendre des comptes pour les plateformes qui devront clairement expliquer leur politique de lutte contre la diffusion des contenus terroristes dans leurs conditions d’utilisation et publier chaque année un rapport de transparence sur les actions menées dans le cadre de cette lutte.
    • Des sanctions pouvant aller jusqu’à 4% de leur chiffre d’affaire de l’année précédente.
  • Des garde-fous :
    • Les contenus diffusés à des fins éducatives, journalistiques, artistiques ou de recherche, ou à des fins de prévention ou de lutte contre le terrorisme, y compris le matériel qui représente l’expression d’opinions polémiques ou controversées dans le cadre du débat public, ne sont pas considérés comme étant à caractère terroriste.
    • Un contrôle de conformité aux droits fondamentaux en cas d’injonction transfrontière
    • Des voies de recours sont prévues pour les plateformes ainsi que pour les fournisseurs de contenu.

Mise à jour : mai 2021