Adobe Stock

Le Professeur Dr Mark Cole est professeur de droit des médias et des télécommunications à l’Université du Luxembourg et directeur scientifique de l'Institut du droit européen des médias (EMR) à Sarrebruck.

Les responsables politiques, les influenceurs et les célébrités se servent entre autres des réseaux sociaux pour propager de fausses affirmations partout dans le monde. Avec sa plateforme « X », l’homme d’affaires américain Elon Musk tente de s'immiscer dans la campagne électorale allemande. Des campagnes orchestrées, probablement d'origine russe, répandent des contrevérités dans le but de fragiliser les sociétés occidentales. Les discours de haine et la violence en ligne constituent une menace pour les enfants, les femmes et les minorités. La législation en place est-elle suffisante pour protéger les utilisateurs et, surtout, pour préserver la démocratie ? Ou la régulation des réseaux sociaux populaires met-elle en péril la liberté d'expression ? Entretien avec le Professeur Dr Mark Cole, expert en droit européen des médias à l'Université du Luxembourg.

Infobox

Informations supplémentaires sur le Professeur Dr iur. Mark D. Cole

Le Professeur Dr iur. Mark D. Cole (né en 1972) est professeur de droit des médias et des télécommunications à l’Université du Luxembourg (depuis 2007) et directeur scientifique de l'Institut du droit européen des médias (EMR) à Sarrebruck (depuis 2014).

À l'Université du Luxembourg, il est aussi, entre autres, directeur de programme du Master en droit de l’espace, de la communication et des médias (LL.M.) et membre de la faculté au Centre interdisciplinaire pour la sécurité, la fiabilité et la confiance (SnT). Il est membre de l'assemblée consultative de l’Autorité luxembourgeoise indépendante de l'audiovisuel (ALIA), codirecteur de l'Institut d'informatique juridique (IR) à l'Université de la Sarre et membre du Conseil consultatif de l’Observatoire européen de l'audiovisuel du Conseil de l'Europe. Pour la période 2020-2021, il a été nommé par le Conseil de l’Europe au comité d’experts sur l’environnement des médias et la réforme (MSI-REF).

Ses recherches portent principalement sur le droit des médias européen et comparé et couvrent un large éventail de sujets allant du cadre légal des médias traditionnels aux questions de régulation d’Internet, en passant par le droit à la protection des données et le droit d’auteur (http://www.medialaw.lu).

Le professeur Cole publie et intervient en tant qu'orateur à des conférences internationales dans de nombreux pays en Europe et aux États-Unis sur des sujets liés au droit des médias, de l'information et de la communication, au droit à la protection des données ainsi qu'au droit international et européen. Il est régulièrement sollicité comme expert pour conseiller des institutions publiques, tant au niveau européen que national.

Les appels à une régulation plus stricte des réseaux sociaux se multiplient. Où en est la régulation en Europe : où s’arrête la liberté d’expression – qu’a-t-on le droit de dire et qu'est-ce qu'on ne peut pas dire ?

Mark Cole : Tracer cette ligne est loin d’être une tâche aisée. Tout d'abord, la liberté d’expression est un droit fondamental. Elle permet à chaque individu d’exprimer librement son opinion dans n’importe quel média. La liberté d’expression revêt toutefois aussi une dimension collective. L’Union européenne et ses États membres la perçoivent aussi comme un facteur clé de la démocratie. En effet, la liberté d’expression et la formation de l’opinion sont des prérequis pour garantir des élections démocratiques.

Beaucoup estiment que toute restriction de la liberté d’expression revient à en compromettre le fondement. Or, ce droit ne s’applique pas de façon absolue. L’État peut légiférer et interdire la diffusion de certains contenus. D’après le droit européen et les législations des États membres, la liberté d’expression ne s’applique pas aux contenus manifestement interdits par la loi. Cela inclut les contenus représentant des abus sur mineurs ainsi que ceux qui incitent au terrorisme.

Les insultes et les mensonges sur les réseaux sociaux, y compris ceux de responsables politiques éminents, relèvent donc de la liberté d’expression du simple fait qu’ils ne sont pas interdits par la loi ?

Mark Cole : Les droits fondamentaux, comme la liberté d'expression, sont toujours évalués en fonction d'autres droits et intérêts. Le contexte est déterminant pour savoir quand une opinion critique devient une insulte passible de sanctions. Le droit thaïlandais, par exemple, réprime avec fermeté toute critique, même minime, à l’encontre du roi. La personne visée par l'insulte constitue aussi un facteur important. Un responsable politique doit accepter bien plus de critiques qu’un simple citoyen. D’un point de vue juridique, les insultes adressées à des collectivités posent problème en raison de la difficulté de définir la notion de victime.

L'énonciation de faits inexacts - autrement dit de non-faits - n’est pas protégée en tant que telle par la liberté d’expression. Ce n’est pas un acte illicite, mais il peut causer du tort. La répression des mensonges dépend aussi de la culture juridique en vigueur : les faits ont-ils été sciemment déformés ou s’agit-il simplement d’une déclaration erronée découlant de la vision biaisée d’une personne ? En Allemagne, par exemple, il est interdit de nier l'Holocauste. Minimiser la gravité de l'Holocauste est une position politique effroyable, qui peut cependant, dans certains cas, relever de la liberté d’expression. Lorsqu'une plainte est déposée, il appartient aux juges de trancher.
 

Mais toute sanction prendrait des années, et pendant ce temps, les insultes et les mensonges continuent de se propager. Dans quelle mesure les plateformes peuvent-elles être tenues responsables des contenus qu’elles hébergent ?

Mark Cole : Il s’agit en effet de savoir comment le législateur peut réguler les plateformes en ligne. Les médias traditionnels, comme la presse écrite, la radio ou la télévision, s'assurent de la véracité des informations avant leur publication. Mais les réseaux sociaux ne se considèrent pas comme des médias. L’attitude prédominante venant des États-Unis est que ces plateformes se contentent de fournir une infrastructure technique permettant de véhiculer des opinions, à l’instar des compagnies téléphoniques qui fournissent des réseaux pour les appels. De ce fait, elles jouissent d’un privilège en matière de responsabilité, ce qui signifie qu’elles ne sont, en principe, pas tenues responsables des contenus publiés.

Ce principe ne s’applique pas aux contenus illicites passibles de sanctions. Les plateformes sont tenues de supprimer ces contenus dès qu’elles en prennent connaissance, selon la procédure dite « Notice and Take down ». Les contenus font donc l'objet d'une modération. Pendant des années, Facebook a formé ses modérateurs grâce à un guide regorgeant d'exemples de contenus à supprimer. Mais l'Union européenne estime que les grandes plateformes en ligne, qui comptent des milliards d'utilisateurs, ont une grande responsabilité en raison de leur énorme portée et qu'elles doivent aller plus loin que la simple suppression des contenus illégaux pour combattre la haine et la violence. C'est pourquoi des mesures législatives ont déjà été prises en ce sens.

La législation sur les services numériques est entrée en vigueur dans l’UE depuis 2024. Ce règlement encadre les médias numériques. Quels contenus permet-il et lesquels interdit-il ?

Mark Cole : Le privilège en matière de responsabilité reste applicable. Mais ce qui change, c’est que les plateformes en ligne sont désormais soumises à un devoir de diligence. Le règlement sur les services numériques (Digital Services Act, DSA) de l’Union européenne contraint les plateformes en ligne à expliquer aux utilisateurs, avant la création d’un compte, comment elles traitent les contenus des usagers, selon quels critères elles les modèrent, quelles publications elles suppriment ou bloquent, et comment fonctionnent leurs processus internes, tels que les algorithmes de recommandation qui proposent des contenus et des publicités dans le fil personnel des utilisateurs. Car la recherche et les autorités de régulation comprennent entre-temps comment fonctionnent les plateformes et quel rôle jouent les algorithmes, et devront encore approfondir leurs connaissances.

Les plateformes sont donc tenues d’assurer une plus grande transparence. Les géants du numérique, comme Facebook et Google, doivent par ailleurs fournir des rapports de transparence à intervalles réguliers. Des bases de données publiques sur la transparence permettent de suivre – de manière globale – en temps réel la quantité de contenus en cours de modération. De nouvelles mesures qui protègent mieux les enfants ont aussi été mises en place, par exemple pour interdire le ciblage publicitaire basé sur le profil.

Je crains que ce ne soit qu’une question de mois avant que les appels en faveur d’une ‘liberté sans restriction’ des réseaux sociaux ne se fassent entendre plus fortement en Europe aussi.

Professeur Dr iur. Mark D. Cole

Des sanctions ont aussi été introduites. L'UE ou les autorités nationales peuvent infliger des amendes allant jusqu’à 6 % du chiffre d’affaires annuel d’une plateforme. On peut s’interroger sur l’efficacité de ces sanctions. Cela signifie néanmoins qu’en Europe, la surveillance est bien plus stricte qu’auparavant – alors qu’aux États-Unis, le nouveau gouvernement est en train d'avancer vers une dérégulation. Les partisans d’une liberté d’expression sans limite aux États-Unis estiment que la régulation européenne est insensée. Le nouveau règlement sur les services numériques de l’Union européenne marque donc une avancée notable.

Peut-on déjà observer des résultats de cette législation récente ?  Des plaintes marquantes sont-elles en cours ? 

Mark Cole : L'UE a rapidement engagé ses premières procédures, par exemple, fin 2023 contre la plateforme « X », dont la Commission européenne estime que les activités pourraient être contraires aux standards du droit européen. La procédure est en cours, mais je suis convaincu que la Commission fera tout pour la clore rapidement afin d’envoyer un signal au vu de la situation politique actuelle aux États-Unis, qui évolue vers une dérégulation totale. L’Union européenne a aussi lancé une procédure contre la plateforme chinoise TikTok. En effet, le DSA impose des obligations en matière de protection des jeunes aux plateformes qui visent spécifiquement des enfants et des adolescents.

De plus, TikTok a retiré du marché européen la version « TikTok Lite Rewards », lancée au niveau mondial, car elle ne répondait pas aux exigences du règlement européen sur les services numériques. Cette version aurait encore renforcé l'« effet de défilement continu » et donc le potentiel d'addiction des utilisateurs. Le nouveau règlement de l'UE produit donc déjà des effets tangibles.

Le groupe américain Meta avec ses plateformes Facebook et Instagram a radicalement changé de position sur la question de la responsabilité à l'issue des dernières élections américaines. Ce revirement complique-t-il l’application de la loi ?

Mark Cole : Sur le plan politique, le retour de Donald Trump a en effet compliqué la situation. Mais depuis son acquisition par Elon Musk, la plateforme « X » avait déjà mis fin à toute modération et tout contrôle des contenus. Des études révèlent que la désinformation et le discours de haine ont pris de l’ampleur sur « X » depuis son rachat. Facebook, en revanche, s’était engagé depuis des années à respecter un code de conduite pour protéger ses utilisateurs et mobilisait un grand nombre de fact-checkers internes, mais la plateforme a soudainement changé sa politique après les élections. Personnellement, je crains que ce ne soit qu’une question de mois avant que les appels en faveur d’une ‘liberté sans restriction’ des réseaux sociaux ne se fassent entendre plus fortement en Europe aussi, bien que de manière moins virulente qu’aux États-Unis. Mais, malgré ces dynamiques, le cadre légal en place apportera des résultats tangibles à moyen terme.

Facebook souhaite revoir sa politique de lutte contre la désinformation aux États-Unis en abandonnant le fact-checking externe et en s’appuyant uniquement sur les « Community Notes »  – autrement dit, les avertissements laissés par la communauté. Une telle approche serait-elle autorisée en Europe, et suffirait-elle à enrayer la désinformation ? 

Mark Cole : Selon moi, l’idée du groupe Meta que des contrôles internes et des signalements de la communauté suffisent à remplacer les fact-checkers externes ne tient pas la route, surtout en ce qui concerne la désinformation. Il s’agit de la dissémination intentionnelle de contrevérités dans l'intention d'induire en erreur et de perturber l’équilibre sociétal. Les campagnes de manipulation électorale menées par le gouvernement russe en sont un exemple typique.

Le nouveau règlement européen sur les services numériques oblige les grandes plateformes en ligne à évaluer et à réduire les risques, et à prendre les mesures qui s'imposent. Mais il ne précise pas quelles mesures doivent être prises. L'Europe peut toutefois s'appuyer sur le « code de bonnes pratiques contre la désinformation », un engagement adopté par plus de 40 sociétés, dont Meta et ses plateformes Facebook et Instagram. La plateforme « X » d'Elon Musk s’est retirée de cet engagement. Le code souligne l’importance des fact-checkers comme outil clé dans la lutte contre la désinformation. À compter du 1er juillet de cette année, il deviendra le code de conduite officiel dans le cadre du DSA, établissant un standard industriel auquel les régulateurs pourront se référer.

Chaque plateforme est en outre tenue de proposer des mécanismes de plainte facilement accessibles afin que les utilisateurs puissent alerter sur des contenus inappropriés en un seul clic. Aux États-Unis, cependant, ce « signalement » de contenus par l’intermédiaire du système des « Community Notes », ne sera pris en compte que si des personnes aux opinions politiques divergentes conviennent qu’un contenu est problématique. Nous, les juristes, nous inquiétons déjà des implications de ce mécanisme.

Qui est chargé de faire appliquer le droit européen aux plateformes de réseaux sociaux ?

Mark Cole : Pour les très grandes plateformes qui atteignent des utilisateurs dans toute l'Europe, c’est la Commission européenne qui est compétente. Mais il existe d'innombrables petites plateformes de réseaux sociaux dans les États membres, pour lesquelles des autorités doivent être désignées pour garantir l’application de la loi. Beaucoup d'États ont pris du retard à cet égard. Au Luxembourg, c’est l’Autorité de la concurrence qui se chargera de cette mission, même si la loi en question n’a pas encore été adoptée. Les structures requises pour mettre en œuvre le nouveau règlement européen ne sont donc pas encore en place

Les entreprises américaines comme X ou Meta sont-elles réellement tenues de respecter le droit européen ?

Mark Cole : Si elles offrent leurs services aux personnes qui vivent dans l’UE, oui. D'ailleurs, des géants comme Meta possèdent des entités en Europe. Si elles ne se conforment pas au droit européen, une interdiction totale d’accès au marché pourrait être envisagée. C’est une approche que l’on observe par exemple en Australie. Le gouvernement australien a décidé d’interdire l’accès aux plateformes aux jeunes de moins de 16 ans.

L’Europe pourrait-elle suivre l’exemple de l’Australie ? 

Mark Cole : On peut tout à fait imaginer que l’Europe adopte une approche similaire. Pour ma part, je n’ai pas de comptes sur les réseaux sociaux pour des raisons liées à la protection des données, mais je mène des recherches sur la régulation de ces plateformes depuis plus de dix ans. Durant cette période, le regard que la société porte sur les services numériques a connu un revirement total. Au début, beaucoup craignaient que nos élèves ne soient pas initiés assez tôt aux nouvelles technologies, plaçant l’Europe en position de faiblesse dans la compétition mondiale. Aujourd’hui, on met surtout en garde contre les dangers d’une utilisation excessive des écrans, des réseaux et d’Internet en général.

Le moment est peut-être venu de réguler l’utilisation des réseaux sociaux de la même manière que le législateur protège les jeunes contre l’alcool et les drogues.

Professeur Dr iur. Mark D. Cole

Le moment est peut-être venu de réguler l’utilisation des réseaux sociaux de la même manière que les lois sur la protection des mineurs protègent les jeunes contre l’alcool, les contenus violents et les drogues. Je ne préconise pas une interdiction totale, mais plutôt un accès régulé visant à protéger les enfants et les adolescents. D’un point de vue juridique, ce ne serait pas facile à mettre en œuvre. En parallèle, des solutions technologiques sont en train d'être développées, notamment la reconnaissance faciale, qui améliore les vérifications d’âge des jeunes souhaitant créer un compte sur les réseaux sociaux.

Quels autres leviers existent, en dehors des interdictions et de la régulation : la sensibilisation, l’éducation aux médias ?

Mark Cole : Il n'y a pas de solution clé en main. Les médias classiques, soumis à une rigueur éditoriale, offrent le meilleur rempart contre les contenus non contrôlés des réseaux sociaux. L’un des atouts de l’Europe par rapport aux États-Unis est la diversité et la robustesse de son paysage médiatique, qui comprend des journaux, de même que des chaînes de télévision et de radios, y compris des chaînes publiques. Cette diversité médiatique doit être protégée. Grâce à une aide à la presse publique destinée à préserver la diversité médiatique, le Luxembourg agit déjà en ce sens.

Par ailleurs, il faut de solides connaissances pour identifier les contenus problématiques. Cela vaut pour tous les utilisateurs, mais particulièrement pour les jeunes. En effet, ils ne se servent plus des médias traditionnels pour s'assurer de la véracité d'une information. L'éducation aux médias est donc primordiale. Elle est aussi essentielle pour comprendre le fonctionnement des algorithmes de recommandation. En effet, si un utilisateur visionne l’interview d’Elon Musk avec la dirigeante de l’AfD, Alice Weidel, sur X, l’algorithme le considèrera comme un sympathisant et lui proposera régulièrement des vidéos du parti.

Par ailleurs, tout le monde peut envoyer un message clair. La Cour grand-ducale a annoncé qu'elle quitterait la plateforme « X » et l'Université du Luxembourg a déjà supprimé son compte en 2023. Un nombre croissant d’institutions souhaitent se retirer de la plateforme X. Même si Elon Musk ne s’en inquiétera pas, c’est une prise de position juste et importante. Un responsable politique aura naturellement plus de difficulté à renoncer à un tel canal de communication – mais le faire est une manière d’affirmer ses valeurs.

La pression sociale peut-elle inciter les grandes plateformes à s’autoréguler davantage par crainte pour leur réputation et leurs recettes publicitaires ?  

Mark Cole : Un marché de cette envergure – près de 500 millions de personnes dans l’Union européenne – pèse trop lourd économiquement pour que les plateformes puissent se permettre d’ignorer les lois et les règles de jeu en vigueur. « X » fait peut-être exception, dans la mesure où Elon Musk accorde plus d’importance à son influence politique qu'à la rentabilité économique. Mais pour des raisons financières, des plateformes comme Facebook recherchent des environnements sociétaux stables. Leur priorité demeure la maximisation de leurs revenus. C’est pourquoi j’ai bon espoir que la pression du marché, associée à la régulation et l’autorégulation des plateformes, suffira pour que Facebook et consorts garantissent la présence de fact-checkers externes sur les réseaux sociaux en Europe et respectent les limites.

Mais avant tout, nous ne devons pas céder à l’idée que réguler les services numériques constituerait un frein à l’innovation. De nombreux détracteurs minimisent l’ampleur des risques liés aux réseaux sociaux, et la régulation est jugée contraignante. Mais l’abolition des règles ne doit pas devenir monnaie courante en Europe.

Entrevue : Britta Schlüter
Rédaction : Michèle Weber, Jean-Paul Bertemes (FNR)
Traduction: Nadia Taouil (www.t9n.lu)

Aussi dans cette rubrique

Nouveautés en science 10 résultats captivants de la recherche au Luxembourg – Février 2025

Nouvelles connaissances sur la maladie d’Alzheimer ; un revêtement innovant pour protéger les ponts ; la parité salariale : voici les dernières nouvelles scientifiques du Grand-Duché.

Nouveautés en science 10 résultats captivants de la recherche au Luxembourg – Janvier 2025

Quelle est l’influence des polluants environnementaux sur la santé cardiaque ? Le pouvoir d’achat augmente-t-il malgré l’inflation ? Voici les dernières nouvelles scientifiques du Grand-Duché.

Un satellite « made in Luxembourg » Le premier satellite de l’Université du Luxembourg prend son envol

Le SnT de l’Université du Luxembourg lance son premier satellite miniature, Poquito, en orbite ce mardi 14 janvier 2025.

FNR Awards 2024 Prix pour l'excellence dans la recherche, le mentorat et la communication scientifique

En 2024, le Luxembourg National Research Fund (FNR) a décerné six FNR Awards dans quatre catégories. Découvre les lauréats et les lauréates !

FNR