ACTUALITÉ

L’intelligence artificielle, risque et opportunité pour le droit de la concurrence

L’intelligence artificielle, risque et opportunité pour le droit de la concurrence
Publié le 23/08/2021 à 14:43

Lors d’une conférence à la fin du mois de juin, la Cour de cassation se penchait sur les dangers que représentent les algorithmes pour le marché économique. Si elle facilite les comportements anti-concurrentiels, l’IA est toutefois l’occasion idéale de réinterroger des notions juridiques historiques… et pourrait aussi être envisagée, pourquoi pas, comme un outil au service de la régulation.

 


Alors que la Cour de cassation consacre son nouveau cycle de réflexion à l’intelligence artificielle – face à laquelle elle place « l’intelligence juridique » comme pondérateur –, sa conférence du 24 juin s’intéresse aux relations qu’entretiennent ces technologies, et plus particulièrement le machine learning, avec un droit en particulier : celui de la concurrence. 


« La question est notamment de savoir si les entreprises peuvent s’entendre via des algorithmes, voire si des algorithmes peuvent s’entendre sans que l’humain ou l’entreprise en ait conscience », problématise d’entrée de jeu Jean-Christophe Roda, professeur à l’Université Lyon 3. Autre problème : leur utilisation en vue d’exploiter ou de renforcer une position dominante. En la matière, la décision rendue le 7 juin par l’Autorité de la concurrence à l’encontre de Google (condamné pour avoir favorisé ses propres services dans le secteur de la publicité en ligne, ndlr) « illustre l’impact que les algorithmes peuvent avoir sur le marché et leur effet anti-concurrentiel », souligne le professeur. 


La doctrine anglo-américaine parle même désormais d’un enforcement gap, estimant que les autorités sont dépassées par les technologies et qu’il faut modifier leurs instruments, voire le droit de la concurrence. Si les autorités de concurrence s’emparent du problème, publient des rapports et proposent de renforcer leurs services en embauchant des data scientists, l’idée que le droit de la concurrence est dépassé s’est ancrée dans les esprits, observe Jean-Christophe Roda. « Comme avec l’arrivée d’Internet il y a plus de 25 ans, nombreux sont ceux qui pensent qu’il faudrait désormais dessiner l’avenir du droit de la concurrence à l’aune du smart antitrust. » Le professeur pense, lui, nécessaire de replacer le droit au centre des débats, son rôle étant d’encadrer et de prescrire les phénomènes liés à l’IA. « Il ne faut pas tomber dans le piège d’un droit fabriqué par la technologie et par les ingénieurs, car ce serait un droit désincarné, dénué de principes. Or, sur ces sujets fondamentaux, nous avons besoin de principes, car nous ne sommes pas en présence d’un marché qui, un peu surveillé, permettrait de faire le tri entre les bonnes et les mauvaises pratiques. »

 

 

Des menaces pour le jeu normal  de la concurrence


Maître de conférences également à l’Université Lyon 3, Samir Mérabet fait le tour des caractéristiques de l’IA susceptibles de venir secouer le droit de la concurrence. 


D’abord, pointe-t-il, elle peut s’avérer problématique en ce qu’elle est une forme d’intelligence augmentée. À ce titre, elle présente des capacités d’analyse prédictive susceptibles d’emporter des conséquences juridiques importantes. « Couplés aux big datas, des algorithmes sophistiqués sont en mesure, si ce n’est de prévoir l’avenir, de considérablement réduire l’aléa. Or, l’aléa est inhérent à la vie des affaires », fait remarquer le maître de conférences. La prédiction du comportement d’un concurrent pourrait donc occasionner des difficultés. La prédiction permet notamment de faciliter les comportements de collusion, « pas seulement en s’alignant sur les pratiques actuelles d’un concurrent, mais en prédisant ses pratiques à venir ». Par ailleurs, l’opérateur économique qui détient de tels outils bénéficie « d’un avantage concurrentiel majeur, ce qui peut altérer le jeu normal du marché » – une difficulté loin d’être inédite. 


Cependant, ce n’est pas tant l’aspect « intelligence augmentée » qui inquiète Samir Mérabet. À l’opposé, l’IA est également une forme d’intelligence diminuée, source de « troubles beaucoup plus importants », assure-t-il. Mais alors, pourquoi craindre une intelligence moindre ? Bien qu’un système d’information intelligent puisse simuler certains comportements humains et tromper sur sa véritable nature, il n’a ni conscience, ni émotion, ni intention. « C’est une forme d’intelligence objective, froide, désincarnée, auquel toutes les dimensions subjectives propres à l’intelligence humaine font défaut ». Et c’est justement ce caractère-là qui serait bien plus ennuyeux. En effet, à l’inverse, le droit dans son ensemble se fonde « de manière discrète mais certaine » sur la subjectivité propre aux personnes humaines. Il en va ainsi de la volonté contractuelle chère au Code civil à la maxime selon laquelle il n’y a « point de crime ni de délit sans intention de le commettre », propre au Code pénal, en passant par l’originalité du droit d’auteur, qu’il suppose l’empreinte de la personnalité de l’auteur. Pour le maître de conférences, cette notion de subjectivité est donc incompatible avec l’objectivité de l’intelligence artificielle. Du côté du droit de la concurrence à proprement parler, ce constat est plus nuancé selon les domaines. « Le droit des concentrations, par exemple, semble se fonder sur des critères relativement objectifs, et n’est pas le plus affecté. Idem pour les règles qui gouvernent les abus de positions dominantes », détaille Samir Mérabet. Cependant, il en va autrement du droit des ententes : cette pratique suppose d’identifier une collusion entre entreprises. Or, la concertation peut se révéler difficile à caractériser quand elle résulte de pratiques algorithmiques. 


Une autre caractéristique majeure de l’IA devant faire l’objet d’une attention soutenue réside dans son autonomie. Certes, même intelligent, un système informatique est « inévitablement et nécessairement contraint par sa programmation » : l’IA n’est donc pas indépendante, elle n’établit pas elle-même ses propres règles de fonctionnement. « Elle n’en demeure toutefois pas moins autonome » prévient le maître de conférences. Plus précisément, elle est conçue pour garder certaines marges de manœuvre dans la réalisation de tâches qui lui sont confiées. « C’est justement son intérêt : sa capacité à s’adapter à son environnement », commente Samir Mérabet. Conséquence : ceux qui ont conçu un outil d’intelligence artificielle ou en ont l’usage ne sont pas en mesure d’anticiper avec certitude l’ensemble des comportements à venir de la machine. De plus, la mise à jour en temps réel des données sur lesquelles elle s’appuie « rend son fonctionnement d’autant moins certain ». Le problème, c’est donc que l’autonomie va forcément créer une distance entre l’action humaine  en amont et le comportement de l’intelligence artificielle en aval. « Il n’est ainsi pas toujours évident d’imputer aux premiers les agissements de la seconde ». 


Le maître de conférences prend l’exemple de Google Suggest, qui a fait l’objet d’un arrêt de la première chambre civile, le 19 juin 2013. Ce service, qui tente de prédire l’intention des utilisateurs du moteur de recherche en proposant des suggestions de recherches, se fonde sur un certain nombre de critères arrêtés par Google : popularité des requêtes formulées par les autres utilisateurs, localisation et historique, etc. Il n’est ainsi pas possible d’anticiper chacune des recherches ni de soumettre chaque résultat à un contrôle humain préalable. Or, parmi les millions de requêtes auxquelles cet outil donne lieu, il est reproché à certaines suggestions d’être injurieuses, diffamantes. Dans cette affaire contre Google, une société d’assurance avait assigné la société du chef d’injure publique, laquelle est un délit de presse, les termes « escroc » et « prison » ayant été adjoints à sa personne morale. Cependant, la Cour de cassation a décidé d’écarter cette caractérisation (et donc, la responsabilité de Google et de son directeur de publication), jugeant que la fonctionnalité aboutissant au rapprochement critiqué était « le fruit d’un processus automatique dans son fonctionnement et aléatoire dans les résultats, de sorte que l’affichage des mots clés qui en résulte était exclusif de toute volonté de l’exploitant du moteur de recherche d’émettre les propos en cause ou de leur conférer une signification autonome ». Dans cette affaire, la difficulté tient à la réunion de deux critères, indique Samir Mérabet : la subjectivité des délits de presse, qui suppose l’intention des auteurs, et l’autonomie de l’intelligence artificielle. « Si la règle juridique consistait en un délit non intentionnel, la solution aurait pu être différente », précise-t-il. Selon lui, cet arrêt de 2013 pourrait éclairer l’application des règles de concurrence en matière d’IA. Par exemple, en reprenant le fonctionnement de Google Suggest, on peut envisager l’hypothèse des algorithmes utilisés pour déterminer les prix de produits, de manière autonome, au regard d’un certain nombre de critères. Il faudra ainsi chercher des traces, auprès des personnes qui les ont conçus ou en ont l’usage, d’une éventuelle entente. Et « là encore, la distance du fait de l’autonomie entre l’IA et les personnes qui l’utilisent sera de nature à susciter des difficultés ». L’IA est donc source de perturbations juridiques qui génèrent des menaces pouvant perturber le jeu normal de la concurrence. « Néanmoins, c’est aussi une opportunité pour les juristes, car elle donne l’occasion de réinterroger des notions juridiques ancestrales », ajoute Samir Mérabet, optimiste.  

 

 

Ententes anticoncurrentielles : une preuve parfois facile


Marie Malaurie-Vignal, professeure à l’université Paris-Saclay, acquiesce : après une phase de « sidération » devant l’intelligence artificielle, « il est bon de dominer par le retour aux principes ». À son sens, le juriste est appelé à allier la tradition – en la repensant en partie – à l’innovation, puisque le droit de la concurrence, qui soulève beaucoup d’interrogations, dispose d’une base jurisprudentielle très peu fournie à cet égard. 


Elle évacue toutefois rapidement l’abus de position dominante, domaine qui présente « assez peu d’incertitudes » sur le fonctionnement des algorithmes. Sont visées les hypothèses où une entreprise va profiter de sa position dominante grâce à l’utilisation des algorithmes. En la matière, l’article 102 du Traité sur le fonctionnement de l’Union européenne (TFUE) peut trouver à s’appliquer, « mais également le droit des pratiques commerciales déloyales, trompeuses ou agressives, voire la théorie du parasitisme économique ». Par ailleurs, en amont, l’obligation de transparence et l’obligation de loyauté « permettent de réguler ces comportements », fait remarquer Marie Malaurie-Vignal. 


En matière d’algorithmes et de droit des ententes, en revanche, le sujet est plus vaste, et la professeure se réfère aux travaux de deux universitaires anglo-saxons, Ariel Ezrachi et Maurice Stuck, lesquels envisagent quatre scénarios. 


Le premier, appelé « scénario du messager », vise l’hypothèse d’algorithmes supports d’une entente. Ces derniers ne sont qu’un moyen au service d’une entente anticoncurrentielle pour en faciliter la mise en place et la surveillance. Ici, la sanction ne pose pas de problème particulier, met en exergue Marie Malaurie-Vignal, qui mentionne deux décisions en guise d’illustration. Premièrement, une décision américaine, dans une affaire d’entente horizontale : ici, une société de vente d’affiches sur Amazon, Topkins, s’était entendue avec ses concurrents sur des prix à un niveau élevé. L’entente avait été facilitée via l’utilisation d’un algorithme commun par les différents compétiteurs ; ces derniers ont été condamnés. Deuxièmement, une décision de la Commission européenne de juillet 2018 : en l’espèce, il s’agissait d’une affaire portant sur une entente verticale, et dans laquelle Asus, fabricant de matériel informatique et de produits électroniques, et ses filiales imposaient des prix de revente et surveillaient que ces prix soient appliqués par les distributeurs au moyen d’algorithmes. Pas de difficulté ici non plus : Asus s’est vu infliger une amende, l’algorithme au service d’une entente anticoncurrentielle relevant de l’article 101 du TFUE, selon lequel les prix de vente imposés, de par leur nature même, restreignent la concurrence.


Quid, par ailleurs, si l’entente est biaisée ? L’économiste et membre de l’Autorité de la concurrence Frédéric Marty imagine de son côté l’hypothèse « encore plus séduisante » où une société pousserait ses complices à accroître leurs prix, et clandestinement, accorderait des ristournes. « Un algorithme pourrait efficacement et rapidement détecter toute déviation des concurrents et ajuster automatiquement les prix. La déviation ne devrait plus avoir lieu car elle n’est plus rentable du point de vue économique. » Là encore, en matière de détection et de sanction du cartel, la preuve est simple : l’existence même de l’algorithme montre ce à quoi il était destiné. 


Le deuxième scénario envisagé par les universitaires Ezrachi et Stuck est celui de « l’étoile », ou, en anglais, « hub and spoke ». Cette configuration permet « d’éviter les communications bilatérales entre les firmes », explique Frédéric Marty : un tiers centralise les remontées d’informations en provenance de plusieurs concurrents horizontaux et leur retransmet une information centralisée rendant possible une entente. 


Bien que ce scénario « n’ait pas attendu le numérique pour apparaître », les plateformes jouent aujourd’hui le rôle de facilitateur. L’économiste évoque le cas d’une action intentée contre Uber, aux États-Unis, en décembre 2015, par un utilisateur qui, entre autres, l’accusait de fixer horizontalement les prix. L’homme dénonçait notamment une entente entre Uber et les chauffeurs, qui partagent leurs revenus avec le géant du VTC, pour facturer des tarifs de « surtension », calculés par l’algorithme, pendant les périodes de pointe. L’affaire a finalement été renvoyée en arbitrage, et le demandeur n’a pas obtenu gain de cause, ndlr.


La structure en étoile a également fait l’objet d’un arrêt Eturas, rendu par la CJUE en janvier 2016 et venu condamner une collusion entre agences de voyage lituaniennes. Ici, le logiciel de réservation, destiné à permettre à des agences de vendre des voyages sur leur site Internet, prévenait ces dernières lorsqu’une remise susceptible de déstabiliser l’accord entre elles était accordée, et leur offrait la possibilité de coordonner leurs actions en parvenant à une limitation des remises. « L’algorithme visait à renforcer la robustesse de l’équilibre de collusion tacite soutenable en jouant sur l’attention des firmes », souligne d’ailleurs Frédéric dans un document de travail GREDEG. La Cour a jugé que les opérateurs étaient présumés avoir pris connaissance des messages envoyés et avoir participé à une pratique concertée, là encore selon l’article 101 du TFUE.

 


D’autres scénarios de collusion  plus complexes


Pour Marie Malaurie-Vignal, les difficultés commencent avec le troisième scénario en matière d’algorithmes et de droit des ententes celui de l’« agent prévisible ». La difficulté résulte du fait que chaque entreprise utilise son propre algorithme qui va déterminer le prix qu’elle entend appliquer pour ses produits et services. « Mais même si les prix sont unilatéralement déterminés, on pense que chaque algorithme tient compte de ceux utilisés par les concurrents pour fixer le meilleur prix et que, de cette interaction entre algorithmes, il en découlera un alignement tarifaire stable et durable, et un prix fixé à un niveau supra concurrentiel. » Beaucoup d’incertitudes planent toutefois sur ce scénario. Des incertitudes technologiques, déjà : les informaticiens ne comprennent pas encore très bien ces mécanismes. À cela s’ajoutent des difficultés juridiques. Chaque entreprise adoptant son propre algorithme unilatéralement, le droit des ententes ne devrait pas s’appliquer, en l’absence d’une communication préalable entre compétiteurs. Or, l’article 101 du TFUE ne peut s’appliquer que s’il est constaté un accord, ou au moins un contact préalable. 


Quelle alternative alors ? Il existe bien la notion de « pratique concertée », pour laquelle lexigence probatoire est moindre, signale la professeure : « Il s’agit d’un concept défini par la jurisprudence comme une forme de coordination entre entreprises qui, sans avoir été poussées à la réalisation d’une convention proprement dite, instituent sciemment une coopération pratique entre elles. » Néanmoins, il faut là aussi prouver une prise de contact directe ou indirecte… ce qui, en l’occurrence, n’est pas le cas. « Alors à défaut de contact, peut-on considérer les communications entre algorithmes comme des contacts virtuels mais directs au sens de la pratique concertée ? » s’interroge Marie Malaurie-Vignal. Si la jurisprudence fait défaut, la professeure recense « une profusion de réflexions doctrinales » sur le sujet. Pour résumer, d’un côté, les ultra-libéraux disent qu’il n’y a pas lieu d’intervenir, et qu’il faut être confiant dans le marché, lequel va naturellement s’auto-réguler. De l’autre côté du spectre, c’est la thèse inverse qui domine : il faut interdire les algorithmes. La professeure juge ces deux solutions « extrêmes » et penche pour un juste milieu : reconnaître qu’il existe un risque concurrentiel, et faire en sorte que le juriste, à qui l’on reproche souvent de ne pas savoir anticiper, devance ces risques. 


D’autres positions sont également défendues : « Des prudents proposent d’attendre pour mieux comprendre. Des sceptiques considèrent que les algorithmes ne peuvent pas spontanément interagir entre eux, mais qu’ils peuvent colluder s’ils ont été programmés pour cela », expose Marie Malaurie-Vignal. L’article 101 du TFUE pourrait donc s’appliquer s’il est prouvé une intention collusoire qui résulterait des lignes de codage – « ce qui supposerait d’analyser les instructions données au codeur ». Pour leur part, Ezrachi et Stuck préconisent une réglementation ex-ante (c’est-à-dire avant que le phénomène ne se produise) des algorithmes de tarification, de la même façon qu’est réglementée la commercialisation de nouveaux médicaments avant leur entrée sur le marché. Selon cette conception, tout algorithme devrait ainsi être testé par un organisme pour déterminer s’il présente ou non une tendance à la collusion, auquel cas il serait interdit. Et le cas échéant, une liste noire d’algorithmes malfaisants pourrait être dressée. 


Certains proposent quant à eux de renouveler le droit des ententes pour l’adapter à certaines situations algorithmiques. Frédéric Marty suggère, lui, d’introduire la notion de convergence algorithmique traduisant une convergence des volontés pour appréhender des situations où les algorithmes sont consciemment conçus pour interagir avec les autres. Un autre commentateur a développé, de son côté, une théorie de « coordination par conception », qui vise l’hypothèse où des entreprises utilisent consciemment des algorithmes similaires à ceux de leurs concurrents en vue de conduire à un alignement des prix, « ce qui pourrait constituer un indice de concertation, qui, associé au parallélisme de prix, permettrait de caractériser la collusion tacite et justifier l’application de l’article 101 », décortique Marie Malaurie-Vignal. 


Enfin, Frédéric Marty présente le quatrième scénario imaginé par les deux universitaires, le plus délicat, intitulé « digital eye ». Voilà le postulat : l’IA pourrait, dans certaines situations, permettre d’avoir une vue de surplomb en mesure, via la big data, d’identifier rapidement un point mutuellement profitable. Les capacités de surveillance et de réaction donneraient un équilibre plus stable, que l’algorithme apprend lui-même à identifier. « En outre, le crime pourrait être parfait, puisqu’il n’y pas d’intention » développe l’économiste. À la clef, une crainte bien légitime : la collusion tacite serait-elle l’avenir de tout marché sur lequel des entreprises seront capables de mettre en œuvre de tels algorithmes ?


Frédéric Marty évoque un document de travail récent mettant en évidence que l’utilisation de logiciels d’IA de prédiction des prix des concurrents se traduit par une corrélation faisant que les prix augmentent et deviennent de plus en plus comparables, sans qu’on puisse montrer la moindre concertation. D’autres travaux montrent qu’on peut combiner la collusion sur certains segments de marché et différenciation des prix. 


Si l’on constate un alignement des prix mais que l’on n’a pas encore de preuve de la collusion, il y a malgré tout un préjudice sur le marché, souligne Marie Malaurie-Vignal. Cette dernière le martèle : il faut donc mobiliser le droit de la responsabilité au service de l’hyper modernité : responsabilité pour faute, responsabilité pour manquement à une obligation de prudence (par exemple : le codeur n’a pas été assez bien dirigé), présomption de faute, ou encore, concept très en vogue au sein de l’Union européenne : la responsabilité pour défaut de conformité par conception (compliance by design), en partant du principe que les entreprises ont pour obligation d’assurer la conformité des algorithmes dès leur conception. « Cela signifie que les algorithmes tarifaires devraient être programmés de manière à ne pas permettre la collusion, ou de façon à signaler l’existence de risques concurrentiels », résume la professeure. La notion a été construite en parallèle avec la notion de privacy by design, inscrite dans le Règlement général sur la protection des données (RGPD), et la commissaire européenne a déclaré en 2017 que les entreprises avaient l’obligation de programmer les algorithmes en conformité avec la législation sur les données et la concurrence. « En matière de protection des données, une entreprise qui souhaite mettre en place un traitement doit d’abord évaluer les risques et essayer de les éviter. Même chose pour les algorithmes : il appartiendrait aux entreprises d’envisager une cartographie des risques et de mettre en place les moyens de les éviter », explique Marie Malaurie-Vignal. Il s’agirait donc d’anticiper les comportements anticoncurrentiels de l’algorithme, ce qui laisse la professeure dubitative. Selon elle, l’anticipation semble difficile voire impossible. « J’ai interrogé quelques informaticiens sur l’efficacité de l’obligation faite aux codeurs de respecter le droit de la concurrence, une matière très complexe qui demande d’être spécialisé, et ils m’ont répondu qu’il était facile de dissimuler les intentions du codage. » Sur l’efficacité de la compliance by design, donc, la professeure est sceptique.


Elle cite par ailleurs deux autres moyens du droit de la responsabilité : d’abord, la responsabilité de plein droit de l’entreprise utilisant l’algorithme en sa qualité de gardienne (soit la théorie de la responsabilité du fait des choses, consacrée à l’article 1242 du Code civil). « Cette théorie pourrait même s’appliquer aux algorithmes, car on les a quand même, à l’origine, paramétrés », suggère-t-elle. La responsabilité de l’entreprise donneuse d’ordre pourrait donc être engagée. Pour autant, certains commentateurs, comme le professeur Pierre Berlioz, pointent l’antinomie entre autonomie de l’intelligence artificielle et théorie de la garde. L’application de l’article 1242 étant contestable, Pierre Berlioz propose de créer un régime de responsabilité spécial inspiré du RGPD, responsabilité qui pourrait être attribuée à la personne morale ou physique déterminant les objectifs assignés à l’algorithme. Enfin, Marie Malaurie-Vignal mentionne une dernière piste : la responsabilité du fait des produits défectueux. La responsabilité du fournisseur de l’algorithme contractuellement lié à l’entreprise utilisatrice pourrait être engagée dans l’hypothèse où le fait générateur du dommage est lié à un dysfonctionnement (concurrentiel) de l’algorithme initial. Cela suppose cependant de prouver un fonctionnement anormal… ce qui n’est pas une mince affaire, admet la professeure. 

 

 

L’IA, futur régulateur ? Peut-être…  à condition d’être traçable


En dépit des nombreuses problématiques qui fleurissent en droit de la concurrence, nées de l’utilisation de l’intelligence artificielle, la technologie ne serait-elle pas à la fois le poison et son remède ? C’est ce que défend Luc-Marie Augagneur, avocat chez Cornet Vincent Ségurel à Lyon. 


Là où l’IA serait porteuse pour le droit de la concurrence, ce serait en tant qu’instrument pour mieux réguler le marché. L’exploitation des données par l’intelligence artificielle permettrait notamment de dégager des phénomènes nouveaux. Luc-Marie Augagneur imagine ainsi des outils de détection des pratiques anti-concurrentielles. « Si la loi d’Amara dit qu’on a tendance à surestimer les conséquences de la technologie à court terme et à les sous-estimer à long terme, je ne doute pas que cela arrivera à un moment donné », assure l’avocat. 


Pour l’heure en tout cas, la Commission européenne n’a pas manqué de préconiser, en mars dernier, l’utilisation d’algorithmes à des fins d’analyse des offres dans le cadre d’appels d’offre sur les marchés publics, pour tenter de mettre en évidence des schémas collusifs, « en trouvant les mêmes erreurs de calcul, des fautes d’orthographe, ou la même approche de calcul des coûts… typiquement ce que l’IA est capable d’apporter », commente Luc-Marie Augagneur. 


L’avocat souligne également que le droit de la concurrence présente de nombreuses affinités avec l’intelligence artificielle. « D’abord, c’est un droit téléologique, finaliste, relativement empirique, très circonstanciel ; un droit qui utilise beaucoup l’économétrie, et qui repose largement sur l’analyse de données économiques en se concentrant sur les effets. Ce qui est typiquement la démarche de l’IA », observe-t-il. De la même façon, tout comme elle, expose-t-il, le droit de la concurrence est « très à l’aise » avec l’approche probabiliste et corrélative ; à l’aise avec les grands nombres, « car il s’intéresse au marché, à sa dimension systémique, et s’accommode assez bien des biais inhérents à la singularité. » 


Mais ces affinités sont-elles une bonne chose ? Pour Luc-Marie Augagneur, il s’agit de dépasser la traditionnelle opposition « bien/mal », pour s’interroger sur la place du droit de la concurrence dans un environnement de données massives. 


De son point de vue, cela demande prioritairement de s’intéresser à la façon dont les données sont exploitées. Pour mieux appréhender l’IA, la réponse traditionnelle consiste à exiger de la transparence. Dans l’affaire très médiatisée Google Shopping, le géant a écopé, en 2017, et après plusieurs années d’enquête, d’une amende record de 2,42 milliards d’euros pour abus de position dominante : la commissaire européenne Margrethe Vestager a conclu que Google, par un jeu d’algorithmes complexes, avait « empêché les consommateurs européens de bénéficier d’un réel choix de services et de tirer pleinement profit de l’innovation » en promouvant son propre service de comparateurs de prix, ndlr. D’ailleurs, les preuves dans cette affaire ne sont même pas venues de ces algorithmes en question, mais de la part d’opérateurs du marché qui analysaient eux-mêmes le fonctionnement du moteur et ses résultats. « Désormais, les choses sont encore plus complexes chez Google », pointe Luc-Marie Augagneur, qui ajoute que l’algorithme « n’en est même plus un, mais une vraie intelligence artificielle. » 


Alors que les modèles d’intelligence artificielle sont de plus en plus difficilement déchiffrables et interprétables, le projet européen TRUST-AI, né tout récemment, est destiné à rendre l’IA plus compréhensible. Ce dernier implique notamment le centre Inria Saclay-Île-de-France et le pôle d’expertise de la régulation numérique (PERN), service institué en août 2020 destiné à assister les différents régulateurs français. « Les travaux sont destinés à comprendre les fonctions algorithmiques, et à déterminer la part des choix humains sous-jacents », indique l’avocat. En effet, « dans toute la chaîne de production de la réponse algorithmique, depuis la collecte, la fabrication de la donnée (trier, enrichir, nettoyer, fiabiliser) etc., il y a déjà des choix humains ». Sans compter que le choix réside d’abord dans la façon de concevoir l’algorithme lui-même. L’idée est donc de pouvoir essayer de trouver d’où part l’IA. Le projet TRUST essaie ainsi de développer une plateforme d’intelligence artificielle interprétable by design pour retracer les choix faits par un algorithme. « En quelque sorte, le but est d’établir une traçabilité décisionnelle à l’intérieur du code. Non pas d’instaurer à l’intérieur le droit de la concurrence ni de coder le droit de la concurrence », explique Luc-Marie Augagneur. Si les travaux en la matière débutent tout juste, ils seront néanmoins « essentiels à suivre », garantit-il. Selon lui, demander aux entreprises de documenter leur pratique semble être une voie plus intéressante à suivre que d’imaginer « un solutionnisme technologique ». 


Enfin, l’avocat s’attarde également sur un autre enjeu : la maîtrise de l’intelligence artificielle. Il estime nécessaire de débusquer les biais à l’intérieur de cette IA. En effet, si les données peuvent faire émerger des corrélations inattendues, cela peut s’avérer dangereux de « les laisser parler sans maîtriser les lois et les théories sous-jacentes », prévient-il. Par exemple, si l’on observe, grâce à un algorithme, que tel profil d’utilisateur d’une plateforme obtient des conditions moins favorables et que l’on en déduit une discrimination, mais que l’on ne cherche pas à savoir pourquoi, ni à identifier d’autres facteurs de dépendance, « on n’établit pas de dépendance causale », insiste Luc-Marie Augagneur. 


C’est en raison de ces divers enjeux qu’ « après une ère de la dissuasion, devrait venir une ère de la coopération avec les régulateurs », soutient-il. L’avocat en est certain : opposer droit et data science mènerait inéluctablement dans une impasse.

 

 

Bérengère Margaritelli

 

0 commentaire
Poster

Nos derniers articles