Alors
que le développement de l’IA générative menace la presse, la condamnation de
Newsday.fr à 18 mois de blocage est une bonne leçon pour les sites de
contrefaçon journalistique ainsi que pour les annonceurs, estime l’avocat
Christophe Bigot. Si les éditeurs de presse réclament par ailleurs un renforcement de la
législation, ils prônent le développement d’outils d’IA non pas contre les
journalistes mais à leur service.
« Qu’il
y ait une reconnaissance rapide d’une violation des droits des éditeurs et des
journalistes, c’est évident et c’est toujours mieux quand c’est reconnu par la
justice ». Tel est le soulagement de Pierre Petillault, directeur général de
l’Alliance de la presse d’information générale (Apig), à la suite de la condamnation,
début mai, de Newsday.fr à 18 mois de blocage.
Le
tribunal judiciaire de Paris a considéré que ce site web volait le travail des
journalistes via son outil d’intelligence artificielle. En février dernier, 40
médias (Libération, Sud Ouest, La Montagne…) avaient saisi la justice,
invoquant un préjudice massif : plus de 6 000 articles plagiés par jour.
« Il
s'agissait d'une première pour les organisations professionnelles représentant
la presse, qui ne s'étaient encore jamais lancées dans ce type de procédure.
C'est la démonstration que cela fonctionne et que nous ne sommes pas totalement
démunis lorsque des sites pillant les contenus de presse sont dépourvus de
mentions légales », précise Christophe Bigot, avocat de l’Apig durant ce procès. L’avocat, qui salue cette
jurisprudence, estime qu’elle envoie un double signal.
D’abord
aux sites de contrefaçon journalistique, dont l’investissement dans des outils
d’IA chargés de reprendre du contenu informationnel sera désormais plus risqué, argue le spécialiste en droit de la
presse.
Ensuite,
cette décision du tribunal est un signal pour les annonceurs, jusqu’à présent
tournés vers les sites pirates. « C'est de l'argent jeté par la fenêtre,
alors qu'investir sur un site de presse qui respecte le droit permet de toucher
un lectorat de qualité dans un environnement sécurisé sur le plan légal »,
estime Christophe Bigot.
Une
menace pour la presse
Cette
jurisprudence du tribunal judiciaire de Paris tombe dans un contexte où le
développement de l’intelligence artificielle générative, avec l’exemple de
ChatGPT de la société OpenAI, est perçu comme une menace à l’égard de la
presse, tant dans la production de l’information que dans la diffusion de cette
dernière.
Le 3 mai
dernier, à l’occasion de la journée mondiale de la liberté de la presse, l’Organisation des nations
unies (ONU) a ainsi émis un signal d’alarme sur le risque que représente
l’IA dans le secteur des médias, notamment celui d’étouffer la liberté
d’expression via un détournement de l’outil au service de la désinformation.
« Les
biais algorithmiques, les mensonges purs et simples et les discours de haine
sont autant de mines disséminées sur l’autoroute de l’information. Pour les
désamorcer, rien de tel que des informations factuellement exactes et
vérifiables » a prévenu António Guterres, secrétaire général de l’ONU.
Une
position partagée par les acteurs du secteur. Pour Vincent Berthier de
Reporters sans frontières (RSF), le développement de l’IA génère de multiples
enjeux en matière d’accès à l’information, notamment en matière de manipulation
de l’information. En avril dernier, l’organisation NewsGuard avait révélé une
vaste opération de désinformation, massivement visionnée, visant la France, via
« l’infiltration de récits de la propagande russe dans des chatbots ».
Mais
selon Pierre Petillault, le principal danger est la menace économique qui
met en péril le « vrai » journalisme. « Il y a le risque
d’explications artificielles produites par l’IA pour concurrencer les
publications de presse et les journalistes. Sauf que celles-ci n’emploient pas
de journalistes » assène-t-il.
Reste
que les dérives telles que le pillage massif des contenus journalistiques
prouve, selon lui, que le travail des journalistes et des éditeurs de presse a
de la valeur. « Sinon, [ces contenus] ne seraient pas piratés. Je pense
aussi que le secteur de l’information, de la presse, du journalisme, doit
croire en lui-même et en la valeur de sa production. Il faut qu’on y croie
nous-mêmes, collectivement, pour pouvoir aller ensuite demander un partage de
la valeur » assure-t-il.
Rendre
l’IA « au service des journalistes »
Comment
faire face à cette révolution technologique de grande ampleur, portée qui plus
est par les géants de la tech étasunienne, et ses abus ? Une des solutions
serait de renforcer le cadre législatif, en faveur de la presse. « Le droit
court toujours après la pratique » concède Christophe Bigot. « Le cadre
juridique ne nous est pas favorable » renchérit Pierre Petillault.
L’Agip
s’est associée avec la Fédération européenne des journalistes, l’Association
européenne des médias magazine, l’Association européenne des éditeurs de
journaux et News Media Europe pour envoyer une
lettre ouverte à la Commission européenne le 5 avril dernier. Objectif :
faire en sorte que cette dernière prenne des « mesures concrètes »
d’encadrement de l’utilisation des contenus de presse par l’IA.
Si l’AI
Act a été adopté en 2024, soit moins de deux ans après l’essor de l’IA
générative avec ChatGPT - ce qui souligne une réaction rapide de la part de
l’Union européenne, selon Christophe Bigot -, le contenu de ce règlement laisse
à désirer pour le secteur de la presse. « On a fortement regretté que l’AI
Act ne prenne pas en compte les risques informationnels comme étant des risques
élevés » souligne, amèrement, Vincent Berthier, de RSF, qui se positionne
pour qu’il y ait un accord global entre les constructeurs d’IA et les médias
pour « garantir le pluralisme ».
« C’est
vrai, qu’au niveau européen ou national, on a parfois l’impression que les
pouvoirs publics se laissent griser par l’aspect innovant de l’IA » soupire
Pierre Petillault, qui remarque néanmoins une inflexion récente des politiques, lesquelles
se laissent moins attendrir par les lobbyistes de la tech. Le directeur de l’Agip
prend pour exemple l’initiative de l’eurodéputé allemand Axel Voss, qui prépare
un rapport sur le sujet.
Une
autre solution pourrait être le développement d’outils d’IA au service des
éditeurs de presse et des journalistes. L’Agip
et RSF ont mis en place un prototype d’IA dénommé Spinoza, dans l’idée de
promouvoir un journalisme éthique avec l’IA. « Sa valeur ajoutée est qu’il a
été pensé pour correspondre à des standards d’éthique journalistique, qui
permettent un contrôle et une transparence sur le fonctionnement de l’outil
» met en avant Vincent Berthier, qui estime que Spinoza est l’un « des seuls
outils qui étaient pensés pour faire du journalisme, avec des journalistes
».
« On
avait une ambition modeste : montrer ce qu’on peut faire avec un service
d’IA au service des journalistes, transparent sur les sources qu’il utilise. Ce
qui, le cas échéant, permettra un partage de valeur avec les éditeurs et les
journalistes » ajoute, pour sa part, Pierre Petillault. Le projet a été
limité au sujet de la transition écologique et les titres de presse utilisant
cet outil l’ont fait sur la base du volontariat, précise-t-il.
Pour l’heure,
selon les intéressés, les retours utilisateurs seraient positifs. De quoi
inciter les parties prenantes de la presse à développer des outils d’IA plus
larges pour rendre cette technologie davantage en phase avec la pratique du métier.
« Il y a un vrai intérêt à ce que les médias collaborent à fabriquer leurs
outils pour intégrer des valeurs journalistiques dans la technologie »
conclut Vincent Berthier, optimiste.
Jonathan Baudoin