le Spiil
le Spiil

Contenus en ligne et terrorisme : le Spiil réclame plus de garde-fous !

Le Spiil approuve le principe de mesures pour lutter contre la propagation de contenus terroristes. Mais tout en prenant acte des efforts de proportionnalité du règlement européen destiné à prévenir le contenu terroriste en ligne, le Spiil alerte sur les risques qu’il fait peser pour la liberté d’informer et appelle à mettre en place des garde-fous lors de son application en France.

Le Parlement européen s’apprête à voter un règlement destiné à prévenir les contenus terroristes en ligne, dont l’une des mesures phares est l’obligation faite aux fournisseurs de services d’hébergement, notamment les réseaux sociaux, de supprimer dans l’heure des contenus considérés comme à caractère terroriste, après injonction par une “autorité compétente” désignée dans chaque État. Cette mesure s’appliquera à tous les États membres de l’Union européenne.

En 2020, la loi visant à lutter contre les contenus haineux sur internet, dite loi Avia, avait déjà imposé le retrait de contenus dans les 24 heures, avant censure de ces mesures par le Conseil constitutionnel. A l’époque, le Syndicat de la presse indépendante d’information en ligne (Spiil) avait pris position contre la loi, alertant sur les risques de sur-censure de la part des plateformes, préjudiciables à la liberté d’informer.

Tout en partageant la nécessaire lutte contre le terrorisme et tout en prenant acte des différences très importantes entre la loi initialement présentée en France et ce règlement, tant concernant le périmètre des contenus concernés que l’effort de proportionnalité des mesures et les possibilités de réaction, le Spiil alerte sur plusieurs risques.

Sur-censure, portée transfrontalière, légitimité de “l’autorité compétente”

A l’instar des 61 ONG qui ont adressé une lettre ouverte aux parlementaires européens fin mars, le Spiil pointe trois risques majeurs :

  • Le premier est celui de la sur-censure de la part des plateformes, alors que le règlement leur enjoint de prendre des mesures “proactives”, “y compris au moyen d’outils automatisés”, pour identifier et supprimer des contenus à caractère terroriste. Ces outils risquent en effet de ne pas distinguer des contenus à caractère terroriste de contenus alertant au contraire sur des situations de non-droit, ou encore des contenus satiriques.
  • Le second concerne la légitimité de l’autorité compétente, habilitée à procéder à ces injonctions de retrait, pour laquelle beaucoup de questions restent en suspens. Cette autorité sera-t-elle indépendante ? Quelle sera sa légitimité ? Permettra-t-elle un débat contradictoire ? À quel contrôle judiciaire sera-t-elle soumise ?
  • Le troisième risque est celui de la portée transfrontalière des injonctions. Cette mesure, si elle ne fait pas l’objet d’une double validation dans chaque pays où elle sera appliquée, risque d’aboutir à des censures liées à des différences d’interprétation culturelle, voire à des abus de pouvoir de la part de démocraties illibérales.

Pour ces trois raisons, le Spiil estime que le règlement actuellement soumis au vote des parlementaires, malgré ses efforts de nuance et de proportionnalité des mesures, ne garantit pas suffisamment la liberté d’informer.

Propositions pour aménager l’application de ce règlement :

Alors que le règlement est dans sa dernière ligne droite au Parlement européen et pourrait entrer en vigueur rapidement après l’aval du Conseil de l’Union européenne, le Spiil appelle à mettre en place des gardes-fous lors de son application :

  1. Établir des garanties concernant l’indépendance de fonctionnement de l’autorité compétente, la transparence de son référentiel de décision, la transparence de ses décisions, sa composition, la possibilité d’un débat contradictoire en cas de contestation, la possibilité d’un recours rapide auprès de l’autorité judiciaire pour trancher en cas de désaccord.
  2. Imposer la validation préalable par l’autorité compétente de toute injonction de retrait de contenu émanant d’un autre pays, avant son application.
  3. Donner la possibilité de signaler à l’autorité compétente les censures de contenus jugés à tort comme ayant un caractère terroriste, afin qu’elle puisse enjoindre les fournisseurs de services d’hébergement de les rétablir si elle reconnaît le caractère abusif du retrait. Ainsi, cette autorité n’aurait pas pour unique objet de retirer des contenus mais aussi d’en garantir l’accès, ce qui équilibrerait son rôle.
  4. S’assurer de la totale application de l’article 8 en matière de transparence des fournisseurs de service dans l’application du règlement, en formalisant de manière concrète cet attendu.

(Source : le Spiil )