Lors d’une conférence à la fin du mois de
juin, la Cour de cassation se penchait sur les dangers que représentent les
algorithmes pour le marché économique. Si elle facilite les comportements
anti-concurrentiels, l’IA est toutefois l’occasion idéale de réinterroger des
notions juridiques historiques… et pourrait aussi être envisagée, pourquoi pas,
comme un outil au service de la régulation.
Alors que la
Cour de cassation consacre son nouveau cycle de réflexion à l’intelligence
artificielle – face à laquelle elle place
« l’intelligence juridique » comme pondérateur –, sa
conférence du 24 juin s’intéresse aux relations qu’entretiennent ces
technologies, et plus particulièrement le machine learning, avec un
droit en particulier : celui de la concurrence.
« La
question est notamment de savoir si les entreprises peuvent s’entendre via des
algorithmes, voire si des algorithmes peuvent s’entendre sans que l’humain ou
l’entreprise en ait conscience », problématise d’entrée de jeu
Jean-Christophe Roda, professeur à l’Université Lyon 3. Autre problème :
leur utilisation en vue d’exploiter ou de renforcer une position dominante. En
la matière, la décision rendue le 7 juin par l’Autorité de la concurrence à
l’encontre de Google (condamné pour avoir favorisé ses propres services dans le
secteur de la publicité en ligne, ndlr) « illustre l’impact que les
algorithmes peuvent avoir sur le marché et leur effet anti-concurrentiel »,
souligne le professeur.
La doctrine
anglo-américaine parle même désormais d’un enforcement gap, estimant que
les autorités sont dépassées par les technologies et qu’il faut modifier leurs
instruments, voire le droit de la concurrence. Si les autorités de concurrence
s’emparent du problème, publient des rapports et proposent de renforcer leurs
services en embauchant des data scientists, l’idée que le droit de la concurrence est dépassé s’est ancrée dans les esprits,
observe Jean-Christophe Roda. « Comme avec l’arrivée d’Internet il y a
plus de 25 ans, nombreux sont ceux qui pensent qu’il faudrait désormais
dessiner l’avenir du droit de la concurrence à l’aune du smart
antitrust. » Le professeur pense, lui, nécessaire de
replacer le droit au centre des débats, son rôle étant d’encadrer et de
prescrire les phénomènes liés à l’IA. « Il ne faut pas tomber dans le
piège d’un droit fabriqué par la technologie et par les ingénieurs, car ce
serait un droit désincarné, dénué de principes. Or, sur ces sujets
fondamentaux, nous avons besoin de principes, car nous ne sommes pas en
présence d’un marché qui, un peu surveillé, permettrait de faire le tri entre
les bonnes et les mauvaises pratiques. »
Des
menaces pour le jeu normal de la
concurrence
Maître de
conférences également à l’Université Lyon 3, Samir Mérabet fait le tour des
caractéristiques de l’IA susceptibles de venir secouer le droit de la
concurrence.
D’abord,
pointe-t-il, elle peut s’avérer problématique en ce qu’elle est une forme
d’intelligence augmentée. À ce titre, elle présente des capacités d’analyse
prédictive susceptibles d’emporter des conséquences juridiques importantes.
« Couplés aux big datas, des algorithmes sophistiqués sont en mesure,
si ce n’est de prévoir l’avenir, de considérablement réduire l’aléa. Or,
l’aléa est inhérent à la vie des affaires », fait remarquer le maître
de conférences. La prédiction du comportement d’un concurrent pourrait donc
occasionner des difficultés. La prédiction permet notamment de faciliter les
comportements de collusion, « pas seulement en s’alignant sur les
pratiques actuelles d’un concurrent, mais en prédisant ses pratiques à
venir ». Par ailleurs, l’opérateur économique qui détient de tels
outils bénéficie « d’un avantage concurrentiel majeur, ce qui peut
altérer le jeu normal du marché » – une difficulté loin d’être
inédite.
Cependant,
ce n’est pas tant l’aspect « intelligence augmentée » qui inquiète
Samir Mérabet. À l’opposé, l’IA est également une forme d’intelligence
diminuée, source de « troubles beaucoup plus importants »,
assure-t-il. Mais alors, pourquoi craindre une intelligence moindre ? Bien
qu’un système d’information intelligent puisse simuler certains comportements
humains et tromper sur sa véritable nature, il n’a ni conscience, ni émotion,
ni intention. « C’est une forme d’intelligence objective, froide,
désincarnée, auquel toutes les dimensions subjectives propres à l’intelligence
humaine font défaut ». Et c’est justement ce caractère-là qui serait
bien plus ennuyeux. En effet, à l’inverse, le droit dans son ensemble se fonde
« de manière discrète mais certaine » sur la subjectivité
propre aux personnes humaines. Il en va ainsi de la volonté contractuelle chère
au Code civil à la maxime selon laquelle il n’y a « point de crime ni
de délit sans intention de le commettre », propre au Code pénal, en
passant par l’originalité du droit d’auteur, qu’il suppose l’empreinte de la
personnalité de l’auteur. Pour le maître de conférences, cette notion de subjectivité
est donc incompatible avec l’objectivité de l’intelligence artificielle. Du
côté du droit de la concurrence à proprement parler, ce constat est plus nuancé
selon les domaines. « Le droit des concentrations, par exemple, semble
se fonder sur des critères relativement objectifs, et n’est pas le plus
affecté. Idem pour les règles qui gouvernent les abus de positions dominantes »,
détaille Samir Mérabet. Cependant, il en va autrement du droit des ententes :
cette pratique suppose d’identifier une collusion entre entreprises. Or, la
concertation peut se révéler difficile à caractériser quand elle résulte de
pratiques algorithmiques.
Une autre
caractéristique majeure de l’IA devant faire l’objet d’une attention soutenue
réside dans son autonomie. Certes, même intelligent, un système informatique
est « inévitablement et nécessairement contraint par sa programmation » :
l’IA n’est donc pas indépendante, elle n’établit pas elle-même ses propres
règles de fonctionnement. « Elle n’en demeure toutefois pas moins
autonome » prévient le maître de conférences. Plus précisément, elle
est conçue pour garder certaines marges de manœuvre dans la réalisation de
tâches qui lui sont confiées. « C’est justement son intérêt : sa
capacité à s’adapter à son environnement », commente Samir Mérabet.
Conséquence : ceux qui ont conçu un outil d’intelligence artificielle ou en ont
l’usage ne sont pas en mesure d’anticiper avec certitude l’ensemble des
comportements à venir de la machine. De plus, la mise à jour en temps réel des
données sur lesquelles elle s’appuie « rend son fonctionnement d’autant
moins certain ». Le problème, c’est donc que l’autonomie va forcément
créer une distance entre l’action humaine
en amont et le comportement de l’intelligence artificielle en aval. « Il
n’est ainsi pas toujours évident d’imputer aux premiers les agissements de la seconde ».
Le maître de
conférences prend l’exemple de Google Suggest, qui a fait l’objet d’un arrêt de la première chambre civile, le 19 juin 2013. Ce service, qui tente de prédire l’intention des utilisateurs du moteur de recherche en proposant des suggestions de
recherches, se fonde sur un certain nombre de critères
arrêtés par Google : popularité des requêtes formulées par les autres
utilisateurs, localisation et historique, etc. Il n’est ainsi pas possible
d’anticiper chacune des recherches ni de soumettre chaque résultat à un
contrôle humain préalable. Or, parmi les millions de requêtes auxquelles cet
outil donne lieu, il est reproché à certaines suggestions d’être injurieuses,
diffamantes. Dans cette affaire contre Google, une société
d’assurance avait assigné la société du chef d’injure publique, laquelle est un
délit de presse, les termes « escroc » et « prison » ayant
été adjoints à sa personne morale. Cependant, la Cour de cassation a décidé
d’écarter cette caractérisation (et donc, la responsabilité de Google et de son
directeur de publication), jugeant que la fonctionnalité aboutissant au
rapprochement critiqué était « le fruit d’un processus automatique dans
son fonctionnement et aléatoire dans les résultats, de sorte que l’affichage
des mots clés qui en résulte était exclusif de toute volonté de l’exploitant du
moteur de recherche d’émettre les propos en cause ou de leur conférer une
signification autonome ». Dans cette affaire, la difficulté tient à la
réunion de deux critères, indique Samir Mérabet : la subjectivité des délits de
presse, qui suppose l’intention des auteurs, et l’autonomie de l’intelligence
artificielle. « Si la règle juridique consistait en un délit non
intentionnel, la solution aurait pu être différente », précise-t-il.
Selon lui, cet arrêt de 2013 pourrait éclairer l’application des règles de
concurrence en matière d’IA. Par exemple, en reprenant le fonctionnement de
Google Suggest, on peut envisager l’hypothèse des algorithmes utilisés pour
déterminer les prix de produits, de manière autonome, au regard d’un certain
nombre de critères. Il faudra ainsi chercher des traces, auprès des personnes
qui les ont conçus ou en ont l’usage, d’une éventuelle entente. Et « là
encore, la distance du fait de l’autonomie entre
l’IA et les personnes qui l’utilisent sera de nature à susciter des difficultés ». L’IA est donc source de perturbations juridiques qui génèrent
des menaces pouvant perturber le jeu normal de la concurrence. « Néanmoins,
c’est aussi une opportunité pour les juristes, car elle donne l’occasion de
réinterroger des notions juridiques ancestrales », ajoute Samir
Mérabet, optimiste.
Ententes
anticoncurrentielles : une preuve parfois facile
Marie
Malaurie-Vignal, professeure à l’université Paris-Saclay, acquiesce :
après une phase de « sidération » devant l’intelligence
artificielle, « il est bon de dominer par le retour aux principes ».
À son sens, le juriste est appelé à allier la tradition – en la
repensant en partie – à l’innovation, puisque le droit de la concurrence, qui soulève beaucoup
d’interrogations, dispose d’une base jurisprudentielle très peu fournie à cet
égard.
Elle évacue
toutefois rapidement l’abus de position dominante, domaine qui présente « assez
peu d’incertitudes » sur le fonctionnement des algorithmes. Sont
visées les hypothèses où une entreprise va profiter de sa position dominante
grâce à l’utilisation des algorithmes. En la matière, l’article 102 du Traité
sur le fonctionnement de l’Union européenne (TFUE) peut trouver à s’appliquer,
« mais également le droit des pratiques commerciales déloyales,
trompeuses ou agressives, voire la théorie du parasitisme économique ».
Par ailleurs, en amont, l’obligation de transparence et l’obligation de loyauté
« permettent de réguler ces comportements », fait remarquer
Marie Malaurie-Vignal.
En matière
d’algorithmes et de droit des ententes, en revanche, le sujet est plus vaste,
et la professeure se réfère aux travaux de deux universitaires anglo-saxons,
Ariel Ezrachi et Maurice Stuck, lesquels envisagent quatre scénarios.
Le premier,
appelé « scénario du messager », vise l’hypothèse
d’algorithmes supports d’une entente. Ces derniers ne sont qu’un moyen au
service d’une entente anticoncurrentielle pour en faciliter la mise en place et
la surveillance. Ici, la sanction ne pose pas de problème particulier, met en
exergue Marie Malaurie-Vignal, qui mentionne deux décisions en guise
d’illustration. Premièrement, une décision américaine, dans une affaire
d’entente horizontale : ici, une société de vente d’affiches sur Amazon,
Topkins, s’était entendue avec ses concurrents sur des prix à un niveau élevé.
L’entente avait été facilitée via l’utilisation d’un algorithme commun par les
différents compétiteurs ; ces derniers ont été condamnés. Deuxièmement,
une décision de la Commission européenne de juillet 2018 : en l’espèce, il
s’agissait d’une affaire portant sur une entente verticale, et dans laquelle
Asus, fabricant de matériel informatique et de produits électroniques, et ses
filiales imposaient des prix de revente et surveillaient que ces prix soient
appliqués par les distributeurs au moyen d’algorithmes. Pas de difficulté ici
non plus : Asus s’est vu infliger une amende, l’algorithme au service
d’une entente anticoncurrentielle relevant de l’article 101 du TFUE, selon
lequel les prix de vente imposés, de par leur nature même, restreignent la
concurrence.
Quid, par ailleurs, si l’entente est biaisée ? L’économiste et membre
de l’Autorité de la concurrence Frédéric Marty imagine de son côté l’hypothèse
« encore plus séduisante » où une société pousserait ses
complices à accroître leurs prix, et clandestinement, accorderait des
ristournes. « Un algorithme pourrait efficacement et rapidement
détecter toute déviation des concurrents et ajuster automatiquement les prix.
La déviation ne devrait plus avoir lieu car elle n’est plus rentable du point
de vue économique. » Là encore, en matière de détection et de sanction
du cartel, la preuve est simple : l’existence même de l’algorithme montre
ce à quoi il était destiné.
Le deuxième
scénario envisagé par les universitaires Ezrachi et Stuck est celui de
« l’étoile », ou, en anglais, « hub and spoke ».
Cette configuration permet « d’éviter les communications bilatérales
entre les firmes », explique Frédéric Marty : un tiers centralise
les remontées d’informations en provenance de plusieurs concurrents horizontaux
et leur retransmet une information centralisée rendant possible une
entente.
Bien que ce
scénario « n’ait pas attendu le numérique pour apparaître »,
les plateformes jouent aujourd’hui le rôle de facilitateur. L’économiste
évoque le cas d’une action intentée contre Uber, aux États-Unis, en décembre
2015, par un utilisateur qui, entre autres, l’accusait de fixer horizontalement
les prix. L’homme dénonçait notamment une entente entre Uber et les chauffeurs,
qui partagent leurs revenus avec le géant du VTC, pour facturer des tarifs de
« surtension », calculés par l’algorithme, pendant les périodes de
pointe. L’affaire a finalement été renvoyée en arbitrage, et le demandeur n’a
pas obtenu gain de cause, ndlr.
La structure
en étoile a également fait l’objet d’un arrêt Eturas, rendu par la CJUE en janvier 2016 et venu condamner une collusion entre
agences de voyage lituaniennes. Ici, le logiciel de réservation, destiné à permettre
à des agences de vendre des voyages sur leur site Internet, prévenait ces
dernières lorsqu’une remise susceptible de déstabiliser l’accord entre elles
était accordée, et leur offrait la possibilité de coordonner leurs actions en
parvenant à une limitation des remises. « L’algorithme
visait à renforcer la robustesse de l’équilibre de collusion
tacite soutenable en jouant sur l’attention des firmes », souligne
d’ailleurs Frédéric dans un document de travail GREDEG. La Cour a jugé que les
opérateurs étaient présumés avoir pris connaissance des messages envoyés et
avoir participé à une pratique concertée, là encore selon l’article 101 du
TFUE.
D’autres
scénarios de collusion plus complexes
Pour Marie
Malaurie-Vignal, les difficultés commencent avec le troisième scénario en matière d’algorithmes et de droit des ententes : celui de l’« agent prévisible
». La difficulté résulte du fait que
chaque entreprise utilise son propre algorithme qui va déterminer le prix
qu’elle entend appliquer pour ses produits et services. « Mais même si
les prix sont unilatéralement déterminés, on pense que chaque algorithme tient
compte de ceux utilisés par les concurrents pour fixer le meilleur prix et que,
de cette interaction entre algorithmes, il en découlera un alignement tarifaire
stable et durable, et un prix fixé à un niveau supra concurrentiel. »
Beaucoup d’incertitudes planent toutefois sur ce scénario. Des incertitudes
technologiques, déjà : les informaticiens ne comprennent pas encore très
bien ces mécanismes. À cela s’ajoutent des difficultés juridiques. Chaque
entreprise adoptant son propre algorithme unilatéralement, le droit des
ententes ne devrait pas s’appliquer, en l’absence d’une communication préalable
entre compétiteurs. Or, l’article 101 du TFUE ne peut s’appliquer que s’il est
constaté un accord, ou au moins un contact préalable.
Quelle alternative
alors ? Il existe bien la notion de « pratique concertée », pour
laquelle l’exigence probatoire est moindre, signale la professeure :
« Il s’agit d’un concept défini par la jurisprudence comme une forme de
coordination entre entreprises qui, sans avoir été poussées à la réalisation d’une
convention proprement dite, instituent sciemment une coopération pratique entre
elles. » Néanmoins, il faut là aussi prouver une prise de contact
directe ou indirecte… ce qui, en l’occurrence, n’est pas le cas. « Alors
à défaut de contact, peut-on considérer les communications entre algorithmes
comme des contacts virtuels mais directs au sens de la pratique
concertée ? » s’interroge Marie Malaurie-Vignal. Si la
jurisprudence fait défaut, la professeure recense « une profusion de
réflexions doctrinales » sur le sujet. Pour résumer, d’un côté, les
ultra-libéraux disent qu’il n’y a pas lieu d’intervenir, et qu’il faut être
confiant dans le marché, lequel va naturellement s’auto-réguler. De l’autre
côté du spectre, c’est la thèse inverse qui domine : il faut interdire les algorithmes. La professeure juge ces deux
solutions « extrêmes » et penche pour un juste milieu :
reconnaître qu’il existe un risque concurrentiel, et faire en sorte que le
juriste, à qui l’on reproche souvent de
ne pas savoir anticiper, devance ces risques.
D’autres positions sont également défendues : « Des prudents proposent d’attendre pour mieux
comprendre. Des sceptiques considèrent que les algorithmes ne peuvent pas
spontanément interagir entre eux, mais qu’ils peuvent colluder s’ils ont été
programmés pour cela »,
expose Marie Malaurie-Vignal. L’article 101 du TFUE pourrait donc s’appliquer
s’il est prouvé une intention collusoire qui résulterait des lignes de codage – « ce qui supposerait d’analyser les instructions données au
codeur ». Pour leur part,
Ezrachi et Stuck préconisent une réglementation ex-ante (c’est-à-dire avant que
le phénomène ne se produise) des algorithmes de tarification, de la même façon
qu’est réglementée la commercialisation de nouveaux médicaments avant leur entrée
sur le marché. Selon cette conception, tout algorithme devrait ainsi être testé
par un organisme pour déterminer s’il
présente ou non une tendance à la collusion, auquel cas il serait interdit. Et
le cas échéant, une liste noire d’algorithmes malfaisants pourrait être
dressée.
Certains proposent quant à eux de
renouveler le droit des ententes pour l’adapter à certaines situations
algorithmiques. Frédéric Marty suggère, lui, d’introduire la notion de
convergence algorithmique traduisant une convergence des volontés pour
appréhender des situations où les algorithmes sont consciemment conçus pour
interagir avec les autres. Un autre commentateur a développé, de son côté, une
théorie de « coordination par conception », qui vise
l’hypothèse où des entreprises utilisent consciemment des algorithmes
similaires à ceux de leurs concurrents en vue de conduire à un alignement des
prix, « ce qui pourrait constituer un indice de concertation, qui,
associé au parallélisme de prix, permettrait de caractériser la collusion
tacite et justifier l’application de l’article 101 », décortique Marie
Malaurie-Vignal.
Enfin,
Frédéric Marty présente le quatrième scénario imaginé par les deux
universitaires, le plus délicat, intitulé « digital eye ».
Voilà le postulat : l’IA pourrait, dans certaines situations, permettre d’avoir
une vue de surplomb en mesure, via la big data, d’identifier rapidement un
point mutuellement profitable. Les capacités de surveillance et de réaction
donneraient un équilibre plus stable, que l’algorithme apprend lui-même à
identifier. « En outre, le crime pourrait être parfait, puisqu’il n’y
pas d’intention » développe l’économiste. À la clef, une crainte bien
légitime : la collusion tacite serait-elle l’avenir de tout marché sur
lequel des entreprises seront capables de mettre en œuvre de tels
algorithmes ?
Frédéric Marty évoque un document
de travail récent mettant en évidence que l’utilisation de logiciels d’IA de
prédiction des prix des concurrents se traduit par une corrélation faisant que
les prix augmentent et deviennent de plus en plus comparables, sans qu’on
puisse montrer la moindre concertation. D’autres travaux montrent qu’on peut
combiner la collusion sur certains segments de marché et différenciation des
prix.
Si l’on constate un alignement
des prix mais que l’on n’a pas encore de preuve de la collusion, il y a malgré
tout un préjudice sur le marché, souligne Marie Malaurie-Vignal. Cette dernière
le martèle : il faut donc mobiliser le droit de la responsabilité au
service de l’hyper modernité : responsabilité pour faute, responsabilité
pour manquement à une obligation de prudence (par exemple : le codeur n’a
pas été assez bien dirigé), présomption de faute, ou encore, concept très en
vogue au sein de l’Union européenne : la responsabilité pour défaut de
conformité par conception (compliance by design), en partant du principe
que les entreprises ont pour obligation d’assurer la conformité des algorithmes
dès leur conception. « Cela signifie que les algorithmes tarifaires
devraient être programmés de manière à ne pas permettre la collusion, ou de
façon à signaler l’existence de risques concurrentiels », résume la
professeure. La notion a été construite en parallèle avec la notion de
privacy by design, inscrite dans le Règlement général sur la protection des
données (RGPD), et la commissaire européenne a déclaré en 2017 que les
entreprises avaient l’obligation de programmer les algorithmes en conformité
avec la législation sur les données et la concurrence. « En matière de
protection des données, une entreprise qui souhaite mettre en place un
traitement doit d’abord évaluer les risques et essayer de les éviter. Même
chose pour les algorithmes : il appartiendrait aux entreprises d’envisager une
cartographie des risques et de mettre en place les moyens de les éviter »,
explique Marie Malaurie-Vignal. Il s’agirait donc d’anticiper les comportements
anticoncurrentiels de l’algorithme, ce qui laisse la professeure dubitative.
Selon elle, l’anticipation semble difficile voire impossible. « J’ai
interrogé quelques informaticiens sur l’efficacité de l’obligation faite aux
codeurs de respecter le droit de la concurrence, une matière très complexe qui
demande d’être spécialisé, et ils m’ont répondu qu’il était facile de
dissimuler les intentions du codage. » Sur l’efficacité de la compliance
by design, donc, la professeure est sceptique.
Elle cite par
ailleurs deux autres moyens du droit de la responsabilité :
d’abord, la responsabilité de plein droit de l’entreprise utilisant
l’algorithme en sa qualité de gardienne (soit la théorie de la responsabilité
du fait des choses, consacrée à l’article 1242 du Code civil).
« Cette théorie pourrait même s’appliquer aux algorithmes, car on les a
quand même, à l’origine, paramétrés », suggère-t-elle. La
responsabilité de l’entreprise donneuse d’ordre pourrait donc être engagée.
Pour autant, certains commentateurs, comme le professeur Pierre Berlioz,
pointent l’antinomie entre autonomie de l’intelligence artificielle et théorie de la garde. L’application de l’article 1242 étant contestable,
Pierre Berlioz propose de créer un régime de responsabilité spécial inspiré du
RGPD, responsabilité qui pourrait être attribuée à la personne morale ou physique déterminant les objectifs assignés à l’algorithme. Enfin, Marie
Malaurie-Vignal mentionne une dernière piste : la responsabilité du fait
des produits défectueux. La responsabilité du fournisseur de l’algorithme
contractuellement lié à l’entreprise utilisatrice pourrait être engagée dans
l’hypothèse où le fait générateur du dommage est lié à un dysfonctionnement
(concurrentiel) de l’algorithme initial. Cela suppose cependant de prouver un
fonctionnement anormal… ce qui n’est pas une mince affaire, admet la
professeure.
L’IA,
futur régulateur ? Peut-être… à
condition d’être traçable
En dépit des nombreuses
problématiques qui fleurissent en droit de la concurrence, nées de
l’utilisation de l’intelligence artificielle, la technologie ne serait-elle pas
à la fois le poison et son remède ? C’est ce que défend Luc-Marie
Augagneur, avocat chez Cornet Vincent Ségurel à Lyon.
Là où l’IA serait porteuse pour
le droit de la concurrence, ce serait en tant qu’instrument pour mieux réguler
le marché. L’exploitation des données par l’intelligence artificielle
permettrait notamment de dégager des phénomènes nouveaux. Luc-Marie Augagneur
imagine ainsi des outils de détection des pratiques anti-concurrentielles.
« Si la loi d’Amara dit qu’on a tendance à surestimer les conséquences
de la technologie à court terme et à les sous-estimer à long terme, je ne doute
pas que cela arrivera à un moment donné », assure l’avocat.
Pour l’heure en tout cas, la
Commission européenne n’a pas manqué de préconiser, en mars dernier,
l’utilisation d’algorithmes à des fins d’analyse des offres dans le cadre
d’appels d’offre sur les marchés publics, pour tenter de mettre en évidence des
schémas collusifs, « en trouvant les mêmes erreurs de calcul, des
fautes d’orthographe, ou la même approche de calcul des coûts… typiquement ce
que l’IA est capable d’apporter », commente Luc-Marie Augagneur.
L’avocat
souligne également que le droit de la concurrence présente de nombreuses
affinités avec l’intelligence artificielle. « D’abord, c’est un droit
téléologique, finaliste, relativement empirique, très circonstanciel ; un droit
qui utilise beaucoup l’économétrie, et qui repose largement sur l’analyse de
données économiques en se concentrant sur les effets. Ce qui est typiquement la
démarche de l’IA », observe-t-il. De la même façon, tout comme elle,
expose-t-il, le droit de la concurrence est « très à l’aise »
avec l’approche probabiliste et corrélative ; à l’aise avec les grands nombres,
« car il s’intéresse au marché, à sa dimension systémique, et
s’accommode assez bien des biais inhérents à la singularité. »
Mais ces affinités sont-elles une
bonne chose ? Pour Luc-Marie Augagneur, il s’agit de dépasser la traditionnelle
opposition « bien/mal », pour s’interroger sur la place du droit de
la concurrence dans un environnement de données massives.
De son point de vue, cela demande
prioritairement de s’intéresser à la façon dont les données sont exploitées.
Pour mieux appréhender l’IA, la réponse traditionnelle consiste à exiger de la
transparence. Dans l’affaire très médiatisée Google Shopping, le géant a écopé,
en 2017, et après plusieurs années d’enquête, d’une amende record de
2,42 milliards d’euros pour abus de position dominante : la
commissaire européenne Margrethe Vestager a conclu que Google, par un jeu
d’algorithmes complexes, avait « empêché les consommateurs européens de
bénéficier d’un réel choix de services et de tirer pleinement profit de
l’innovation » en promouvant son propre service de comparateurs de
prix, ndlr. D’ailleurs, les preuves dans cette affaire ne sont même pas venues
de ces algorithmes en question, mais de la part d’opérateurs du marché qui
analysaient eux-mêmes le fonctionnement du moteur et ses résultats. « Désormais,
les choses sont encore plus complexes chez Google », pointe Luc-Marie
Augagneur, qui ajoute que l’algorithme « n’en est même plus un, mais
une vraie intelligence artificielle. »
Alors que
les modèles d’intelligence artificielle sont de plus en plus difficilement
déchiffrables et interprétables, le projet européen TRUST-AI, né tout
récemment, est destiné à rendre l’IA plus compréhensible. Ce dernier implique
notamment le centre Inria Saclay-Île-de-France et le pôle d’expertise de la
régulation numérique (PERN), service institué en août 2020 destiné à assister
les différents régulateurs français. « Les travaux sont destinés à
comprendre les fonctions algorithmiques, et à déterminer la part des choix
humains sous-jacents », indique l’avocat. En effet, « dans
toute la chaîne de production de la réponse algorithmique, depuis la collecte,
la fabrication de la donnée (trier, enrichir, nettoyer, fiabiliser) etc., il y
a déjà des choix humains ». Sans compter que le choix réside d’abord
dans la façon de concevoir l’algorithme lui-même. L’idée est donc de pouvoir
essayer de trouver d’où part l’IA. Le projet TRUST essaie ainsi de développer une
plateforme d’intelligence artificielle interprétable by design pour
retracer les choix faits par un algorithme. « En quelque sorte, le but
est d’établir une traçabilité décisionnelle à l’intérieur
du code. Non pas d’instaurer à l’intérieur le droit de la concurrence ni de
coder le droit de la concurrence », explique Luc-Marie Augagneur. Si les travaux en la matière débutent tout juste,
ils seront néanmoins « essentiels à suivre », garantit-il.
Selon lui, demander aux entreprises de documenter leur pratique semble être une
voie plus intéressante à suivre que d’imaginer « un solutionnisme
technologique ».
Enfin,
l’avocat s’attarde également sur un autre enjeu : la maîtrise de l’intelligence
artificielle. Il estime nécessaire de débusquer les biais à l’intérieur de
cette IA. En effet, si les données peuvent faire émerger des corrélations
inattendues, cela peut s’avérer dangereux de « les laisser
parler sans maîtriser les lois et les théories sous-jacentes »,
prévient-il. Par
exemple, si l’on observe, grâce à un algorithme, que tel profil d’utilisateur
d’une plateforme obtient des conditions moins favorables et que l’on en déduit
une discrimination, mais que l’on ne cherche pas à savoir pourquoi, ni à
identifier d’autres facteurs de dépendance, « on n’établit pas de
dépendance causale », insiste Luc-Marie Augagneur.
C’est en raison de ces divers
enjeux qu’ « après une ère de la dissuasion, devrait venir une ère
de la coopération avec les régulateurs », soutient-il. L’avocat en est
certain : opposer droit et data science mènerait inéluctablement
dans une impasse.
Bérengère
Margaritelli