Alors que
près de la moitié de la population mondiale échange des opinions sur des
plateformes numériques, l'usage de celles-ci va de pair avec de nombreux débats
autour de la liberté d'expression. Cette
dernière « vaut aussi pour les idées qui heurtent, choquent ou
inquiètent », est-il rappelé lors d’un colloque à la Cour de
cassation. Toutefois, la législation existante s’adapte progressivement aux « codes
de langage propres aux réseaux sociaux ».
Les défenses se
prévalant de la liberté d’expression - et notamment en ligne - ne manquent pas.
Récemment, c’est le patron de X (ex-Twitter), Elon Musk, qui s’est empressé de
l’invoquer, estimant que l’arrestation du fondateur franco-russe de
l’application de messagerie instantanée Telegram, Pavel Durov, en août dernier,
constituait une censure, la plateforme étant devenue le « refuge des
voix antisystèmes », comme l’a qualifiée Le Monde.
Mais de quoi parle-t-on
vraiment quand on évoque cette notion à l’ère du numérique ? Lors d'un colloque
à la Cour de cassation, le 20 septembre dernier, Delphine Bastien, avocate au
barreau de Paris, pointait notamment l’influence du premier amendement de la
Constitution américaine, du fait du grand nombre de plateformes américaines.
Dans l’actualité juridique française récente, elle évoque la décision de
censure prononcée par le Conseil constitutionnel, à l’égard de la loi Avia,
dans laquelle l'instance a affirmé qu’ « eu égard au développement généralisé des services de communication au
public en ligne ainsi qu’à l'importance prise par ces services pour la
participation à la vie démocratique et l'expression des idées et des opinions,
ce droit d'expression implique la liberté d'accéder à ces services en ligne et
de s'y exprimer ».
De son côté, Thibault
Guiroy, directeur des affaires publiques de YouTube France, souligne que la
liberté d’expression vaut « non
seulement pour les informations ou idées accueillies avec faveur ou considérées
comme inoffensives ou indifférentes », mais aussi pour les idées « qui heurtent, choquent ou inquiètent l'État
ou une fraction quelconque de la population ». C’est le contenu de l’arrêt
Handyside, d’une étonnante actualité, bien qu’il ait été rendu par la Cour
européenne des droits de l’homme en 1976.
La législation
doit s’adapter aux « codes de
langage particuliers »
Mais s’il est
bien connu que la liberté des uns s’arrête là où commence celle des autres,
qu’en est-il avec la liberté d’expression ? Le modérateur de la conférence,
Guilhem Julia, maître de conférences en droit privé à l’Université Sorbonne
Paris-Nord, ouvre le débat en se souvenant qu’étudiant, il avait appris « que les abus ne pouvaient concerner que le
droit, et qu’il ne pouvait pas y avoir d’abus de liberté ».
Admettant néanmoins
que « toute la difficulté est
de définir les limites de cette liberté », Delphine Bastien explique
qu’elles sont prévues par la loi, et « éclairées
par la jurisprudence ». L’avocate insiste sur la difficulté de définir
juridiquement la liberté d’expression, et devant chaque cas, « la nécessité d’un examen au fond détaillé ».
Cela d’autant
plus que la loi du 29 juillet 1881 sur la liberté de la presse vise
principalement les journalistes professionnels et les éditeurs de presse, mais
elle a « pourtant vocation à
s'appliquer pour sanctionner les abus de la liberté d'expression sur Internet ».
Et pour ce faire, la législation doit s’adapter à ses « codes de langage particuliers » :
ceux « propres aux réseaux sociaux »,
des « messages très courts »,
souvent « insérés dans des files de
discussion parfois assez désordonnées ».
La liberté d’expression
est ainsi régulièrement mise en balance dans les procès pour diffamation. Fait marquant, face au phénomène #balancetonporc
et à une série de plaintes dans ce cadre, dit-elle, les juges ont souvent
considéré les messages associés à ce hashtag comme des objets de discussion
politique. Le 11 mai 2022, la première chambre civile de la Cour de cassation a
en effet retenu que le tweet de Sandra Muller, journaliste à l’origine du
mouvement qui, la première, a dénoncé l’agression verbale d’un patron de chaîne
de télévision, contribuait à « un débat d'intérêt général sur la
dénonciation de comportements à connotation sexuelle non consentis de certains
hommes vis-à-vis des femmes et de nature à porter atteinte à leur dignité ».
YouTube face aux fake news
Et quid alors des
fake news ? Le directeur des affaires publiques de YouTube France
distingue parmi elles deux catégories. S’agissant de ceux qui proclament par
exemple que la terre est plate, explique Thibault Guiroy, la plateforme se
contente de « freiner » la
viralité, car « ces contenus sont
nocifs à partir du moment où ils acquièrent une audience et une certaine
viralité ».
Deuxième
catégorie, explique-t-il : la « désinformation
préjudiciable qui va avoir un impact
concret dans le monde réel ». Entre autres exemples, il pointe les
nombreuses tentatives de manipulations des électeurs, à l’aide de diverses
fausses informations. Des contenus que YouTube affirme s’employer à supprimer. En
août 2023, la plateforme américaine avait annoncé qu’elle avait mis à jour ses
règles et sa stratégie pour lutter contre la désinformation médicale, et
qu’elle allait évincer de nombreux contenus propageant de fausses informations
en la matière.
Toutefois, deux
mois auparavant, elle avait indiqué mettre fin à sa politique de suppression
des contenus véhiculant des fausses informations sur l’élection présidentielle
américaine de 2020, estimant que « la capacité à débattre de façon
libre d’idées politiques, même celles qui sont controversées ou basées sur des
hypothèses fausses, est essentielle au fonctionnement d’une société
démocratique ».
Avec 500 heures
de vidéos mises en ligne chaque minute sur YouTube, le volume, considérable,
représente un défi, d’abord d’ordre quantitatif, argue Thibault Guiroy. La
modération est donc opérée à 96 % par des outils s’appuyant sur l’intelligence
artificielle, mais aussi par des modérateurs dans chaque zone géographique,
pour éviter de passer à côté de certaines subtilités linguistiques. Un travail
qui aboutit au retrait de 7 à 9 millions de contenus vidéos par trimestre (dont
50 000 en France).
Cependant, à
l’heure des buzz éclair, signalement ne vaut pas toujours abus. Selon le
directeur des affaires publiques, le contenu le plus signalé par des
utilisateurs de la plateforme est une vidéo de… Justin Bieber. Des
dénonciations en masse aucunement liée à des propos outranciers de la vedette,
mais à une opération concertée de « la
communauté ennemie des fans de One Direction », visant la suppression
du clip de l’artiste.
Avocat au barreau
de Paris, Alexandre Mandil, rappelle quant à lui qu’en vertu du DSA (Digital
services act, ou Règlement sur les services numériques en français), adopté par
l’Union européenne le 19 octobre 2022, les plateformes sont tenues de publier
les règles de modération qu’elles appliquent, et « doivent exprimer ou rendre transparents les motifs pour lesquels un
contenu a été retiré ou un compte a été suspendu ». Ainsi, en cas de
suppression d'un contenu qui n'est pas illicite, les
utilisateurs doivent être informés et doivent pouvoir contester cette décision.
Espace privé ou public ?
Mais s’il est
convenu qu’une plateforme en ligne n’est qu’un type de fournisseur
d’hébergement permettant à ses usagers de diffuser des contenus, s’agit-il d’un
espace public ou privé ? Pour Benoît Loutrel, président du groupe de travail
sur les plateformes en ligne au sein de l'Arcom, « il est clair que c’est un espace privé », mais « ouvert au public ». Aussi, il
rappelle qu’au moment d’ouvrir un compte YouTube, il est demandé à
l’utilisateur d’accepter des conditions générales d’utilisation. Et que la
réglementation du DSA ne définit pas les limites de la liberté d’expression des
plateformes, mais leur demande d’établir formellement des restrictions. Celles-ci
« ne peuvent pas être arbitraires » mais objectives, et « mises
en œuvre de manière non discriminatoire ».
Le tout, dans un
cadre législatif issu de la directive européenne sur le commerce électronique, adoptée
en 2000, qui a construit un socle juridique définissant une responsabilité
limitée pour les hébergeurs. Avec une exemption de contrôle a priori des
contenus, eu égard à leur nombre très important. De quoi laisser songeur quant
au vaste travail qui subsiste pour trouver les compromis permettant de
conjuguer respect de la liberté d’expression, et protection des
utilisateurs.
Etienne Anselme