Fin 2022, le règlement 2022/2065 du Parlement européen et du Conseil relatif à un marché unique des services numériques, appelé Digital Services Act (DSA), est entré en vigueur. Depuis la mi-février de cette année, il s’applique à l’ensemble des acteurs en ligne qui fournissent des services intermédiaires dans l’Union européenne. Le règlement s’applique à l’ensemble des acteurs en ligne qui fournissent des services intermédiaires.
Cette législation européenne a largement remplacé la législation nationale des 27 États membres. Le Digital Services Act est une loi volumineuse, comprenant 93 articles sur 102 pages.
Selon la Commission européenne, le DSA vise à ancrer des «règles strictes pour préserver les valeurs européennes» et à «protéger les utilisateurs en ligne contre les contenus illicites, dangereux et préjudiciables». Le règlement a pour objectif de contribuer au bon fonctionnement du marché intérieur, en établissant des règles harmonisées dans lequel les droits fondamentaux, consacrés par la Charte, sont efficacement protégés.
Commentaires légaux… et tout de même supprimés
«Cette profession de foi en faveur de la protection de l’article 11 de la Charte des droits fondamentaux de l’UE, de
l’article 10 de la Convention européenne des droits de l’homme et, en fin de compte, de l’article 5 de la Loi fondamentale allemande est toutefois trompeuse», déclare Manfred Kölsch.
Ce juriste berlinois a exercé la fonction de juge pendant plus de quarante ans et travaille aujourd’hui comme avocat. Ces derniers mois, il s’est penché intensivement sur le DSA et le règlement. L’ancien juge met en garde: «La liberté d’expression dans l’UE est gravement menacée par le DSA.»
Manfred Kölsch attire l’attention sur divers articles de loi et justifications problématiques. Ainsi, selon l’article 34, les plateformes devront supprimer bien davantage que des «déclarations illégales». Lors de l’examen des commentaires, les plateformes doivent également accorder une attention particulière à des contenus préjudiciables. En fonction des résultats de leur analyse, les plateformes sont tenues, en vertu de l’article 35, de supprimer le contenu litigieux ou de prononcer des sanctions étendues à l’encontre de l’utilisateur. L’article 35 demande aux plateformes d’adapter leurs algorithmes, leurs systèmes de modération et leurs conditions générales, ainsi que le choix des publicités.
Les «informations nuisibles»: un terme fourre-tout
Selon le point 5 des considérants, non seulement les informations illicites, mais aussi les «la diffusion d’informations et d’activités illégales ou susceptibles de nuire», doivent être supprimées. Le considérant 84 précise:: «Lors de l’évaluation de ces risques systémiques, les fournisseurs […] devraient se concentrer sur les éléments susceptibles de contribuer aux risques, y compris tous les systèmes algorithmiques qui peuvent être concernés, en particulier leurs systèmes de recommandation et leurs systèmes publicitaires.»
Ces fournisseurs devraient donc être particulièrement attentifs à la manière dont leurs services sont utilisés «pour diffuser ou renforcer des contenus trompeurs ou mensongers, y compris la désinformation». Et le point 82 parle de risques qui concernent «les effets négatifs réels ou prévisibles sur le discours civique et les processus électoraux, ainsi que sur la sécurité publique».
Or, les expressions d’opinion fausses, trompeuses ou nuisibles ne sont pas nécessairement illégales, rappelle Manfred Kölsch. Il est révélateur, selon le spécialiste, que l’article 34 qualifie également de désinformation les déclarations ayant des «effets négatifs prévisibles» sur le «discours civique, les processus électoraux et la sécurité publique»: l’expert dénonce une forme de censure. Sont également mentionnés les propos «liés aux violences sexistes et à la protection de la santé publique et des mineurs» ou encore ayant des «conséquences négatives graves sur le bien-être physique et mental des personnes».
Les internautes s’aventureront de moins en moins sur le terrain miné par le DSA, afin d’éviter tout risque de couperet social pour eux-mêmes. Au risque de voir dépérir le débat démocratique et intellectuel, tenant compte des opinions contradictoires. Cette confrontation permanente est pourtant un élément fondamental de l’ordre libéral, critique Manfred Kölsch. Celui-ci craint de voir se répandre «une pensée assistée».
Des milliards d’euros d’amendes
Les grandes entreprises internet et les moteurs de recherche comme Facebook, Google, TikTok ou YouTube ont tendance à bloquer un nombre excessif de commentaires, selon Manfred Kölsch. Il s’agit d’une réaction compréhensible, car les exploitants des plateformes et des moteurs de recherche suppriment les contenus y compris «en cas de doute», ne serait-ce que dans leur propre intérêt économique, afin de ne pas devoir subir des sanctions «efficaces et dissuasives», selon la directive. Les groupes de la tech risquent, en cas de non-respect d’une obligation fixée par le DSA, des amendes pouvant atteindre 6% du chiffre d’affaires mondial de l’exercice précédent.
En 2023, Google a réalisé un chiffre d’affaires annuel mondial de plus de 200 milliards de dollars. Pour le groupe Meta, auquel appartient Facebook, il s’agissait d’environ 134,9 milliards de dollars. Pour les grands groupes, les amendes pourraient donc se chiffrer en milliards. Il n’est donc pas étonnant que plus de 12,2 milliards de posts aient été supprimés par les exploitants de plateformes au cours des six derniers mois. Leur nombre ne cesse d’augmenter. C’est ce qui ressort de la «base de données de transparence DSA» de la Commission européenne. Sur ce site internet, les utilisateurs peuvent également lire les raisons pour lesquelles Google, TikTok ou YouTube, par exemple, ont procédé à une suppression de contenu.
Une étude récente de l’organisation The Future of Free Speech montre que, sur Facebook et YouTube, la majorité des commentaires supprimés sont autorisés par la loi (voir graphique ci-dessus). Les auteurs de l’étude ont collecté les commentaires des 20 plus grandes pages Facebook et chaînes YouTube, en Suède, en Allemagne et en France. Puis ont suivi les commentaires supprimés sur une période de deux semaines. Le taux élevé de suppression d’entrées légalement autorisées démontre un phénomène d’ampleur. «Les plateformes, les pages ou les chaînes suppriment des contenus de manière excessive afin d’éviter des sanctions réglementaires», conclut l’organisation.
Conséquences antidémocratiques
Avec cette étude, les auteurs veulent montrer que les nouvelles règles ont de plus en plus de «conséquences réglementaires et politiques dans le monde réel, tandis que la portée du DSA continue de s’étendre». Ainsi, l’année dernière, le président français Emmanuel Macron et le commissaire européen au marché intérieur et aux services, Thierry Breton, ont tous deux annoncé leur intention d’utiliser le DSA pour fermer des plateformes de médias sociaux en période de troubles civils. Ce n’est que grâce à une réaction rapide et indignée des organisations de la société civile que l’Union européenne a fait marche arrière.
Pourquoi n’y a-t-il pas davantage de résistance face à la censure croissante, par les autorités et les acteurs du web? Selon Manfred Kölsch, le DSA ne se prêtait pas à un débat public, ne serait-ce qu’en raison de son ampleur et de sa complexité. «Il ne concerne pas directement les citoyens, mais il les affecte de manière insidieuse», analyse-t-il. Le caractère potentiellement dangereux de la loi n’est pas immédiatement perceptible, car elle se présente comme une législation respectant les principes de l’État de droit et visant à limiter tout effet de monopole par les grandes plateformes internet. «Derrière cette façade d’État de droit, le droit à la liberté d’expression et d’information est toutefois sciemment vidé de sa substance.» ❙
Les règles s’appliquent aussi aux petites plateformes web
Le Digital Services Act (DSA) de l’Union européenne n’impose pas seulement des règles aux grands groupes. Les obligations suivantes s’appliquent également aux petites plateformes en ligne:
• Signalement par des «entités de confiance»: Les signalements venant d’entités de confiance (trusted flaggers en anglais, que l’on traduit par «signaleur de confiance») doivent être traités en priorité. Ce statut est attribué dans chaque pays, par un organisme public, à des structures jugées expertes en la matière. Des rapports sur ces signalements doivent être publiés chaque année. En cas d’abus, le statut de «signaleur de confiance» peut être temporairement supprimé.
• Mesures en cas de diffusion abusive: Les utilisateurs qui diffusent des contenus illégaux de manière répétée doivent être temporairement bloqués après avoir été avertis. Le traitement des signalements et des plaintes de la part de personnes qui soumettent fréquemment des signalements non fondés peut être temporairement suspendu.
• Obligations en matière de rapports de transparence: Les plateformes en ligne doivent publier tous les six mois des informations sur le nombre de leurs utilisateurs actifs. Ces rapports sont adressés au coordinateur national des services numériques et, sur demande, à la Commission européenne.
Le Conseil fédéral réglemente la suppression des commentaires
Le Conseil fédéral et les offices fédéraux gèrent des profils et comptes officiels sur différents réseaux sociaux (Facebook, Instagram ou TikTok). Ils ont défini les critères selon lesquels ils supprimeront les commentaires indésirables sous leurs pages, à partir du mois d’août.
Le Conseil fédéral a ajouté, mi-juin, de nouveaux articles à l’ordonnance sur l’organisation du gouvernement et de l’administration (OLOGA). Les nouvelles dispositions précisent quand les autorités peuvent supprimer des commentaires ou bloquer des utilisateurs.
C’est le cas lorsque des commentaires incluent des contenus insultants, menaçants, discriminatoires ou pornographiques, incitent au crime, à la haine ou à la violence, mettent en danger la santé ou la sécurité, contiennent de la publicité, sont manifestement générés par une machine (spam), ont été postés plusieurs fois sans rapport avec le sujet, sont manifestement faux et porteurs de désinformation.