En juillet dernier, la mission de recherche
Droit & Justice a rendu un rapport réalisé par les universitaires Lêmy
Godefroy, Frédéric Lebaron, et Jacques Levy-Vehel, en réponse à l’appel à
projet portant sur la thématique suivante : « Comment le numérique
transforme le droit et la justice : vers de nouveaux usages et un
bouleversement de la prise de décision ? »
Legaltech,
blockchain,
dématérialisation, IA, algorithmes, justice prédictive…
À l’heure où le gouvernement prône une justice du 21e siècle axée
sur l’utilisation du digital, quel lien le droit entretient-il avec le
numérique ? C’est la question que se sont posé Lêmy Godefroy, maître de
conférences en droit, HDR à l’Université de Nice-Sophia Antipolis, Frédéric
Lebaron, professeur de sociologie à l’ENS Paris-Saclay, et Jacques Lévy-Vehel,
directeur de recherches à l’INRIA, et président de Case Law Analytics.
L’objectif de cette recherche : « anticiper les évolutions pour les
accompagner et les maîtriser », assurent les auteurs.
Ce rapport,
construit en quatre volets, s’est intéressé aux thématiques suivantes :
•
présentation du fonctionnement d’outils numériques existants d’analyse
mathématique du droit ;
• encadrement
juridique des modes algorithmiques d’analyse des décisions (maad) ;
•
Appropriation des modes algorithmiques d’analyse des décisions (maad) par les magistrats ;
• Réflexion
sociologique sur les outils numériques d’analyse mathématique du droit.
Possibilités, limites et enjeux
associés à l’usage d’outils mathématiques en droit
En préambule, le 1er volet dudit rapport
s’intéresse au fonctionnement des outils numériques dans le droit. Comme
l’explique Jacques Lévy-Vehel, le développement des modes alternatifs de règlement
des différends et du numérique s’explique principalement par la nécessité de
répondre à l’engorgement des tribunaux. Mais encore faut-il en connaître toutes
les facettes pour en favoriser l’utilisation : « Pour les
professionnels du droit, comme les avocats ou les directeurs juridiques, savoir
anticiper le risque et le provisionner correctement est crucial » affirme
le directeur de recherches. Son objectif : fournir un constat clair pour
quantifier l’aléa judiciaire afin « d’en finir avec les fantasmes
autour de ladite “justice prédictive” qui sont préjudiciables à une
analyse sereine par les juristes des apports actuels et futurs de
l’intelligence artificielle au droit ». Ce dernier n’hésite d’ailleurs
pas à qualifier la justice prédictive de concept « non seulement vide
de sens, mais, de plus, dangereux. » En effet, deux juges peuvent
rendre des décisions différentes sur un même dossier. Selon lui, la longueur de
l’audience ou encore la nature du dossier traité juste avant celle-ci peuvent
être des facteurs venant influer sur la décision finale. De plus, des affaires
d’apparences semblables disposent de « différences subtiles et non
quantifiables font que rendre des décisions différentes est parfaitement
compréhensible » assure l’auteur. C’est là tout « l’art de
rendre la justice » ! « Le projet même de prédire la
justice est donc fondamentalement erroné » déclare Jacques Lévy-Vehel.
Toutefois, peut-on imaginer un jour qu’un ordinateur puisse prédire la
justice ? Là encore, le rapporteur parle d’un concept « trompeur »,
car au lieu de prédire, l’IA ne fera en réalité que prescrire, simplement « en
disant le droit ». Mais l’expert nous rassure : « La
société n’est pas prête à déléguer ce genre de pouvoir à un ordinateur, et
c’est tant mieux » assure-t-il. En effet, pour lui, l’homme peut
accepter la sentence d’un juge, car celui-ci est à la fois un expert et un
humain (le plus souvent) impartial, faisant également référence à l’empathie
humaine, et à la recherche « au-delà de la règle de droit, [d’]une solution
équitable »... qualités qu’une machine ne possède pas.
« Modéliser le raisonnement juridique » n’apparaît donc pas,
selon lui, à l’ordre du jour.
Loin de l’utilisation simple de statistiques,
l’expert préconise plutôt la modélisation probabiliste : « L’idée
de base est de repenser la jurisprudence comme une donnée à traiter, dans
l’esprit du courant du réalisme juridique » explique-t-il. « Le
seul objectif scientifiquement fondé est de rendre compte de la diversité des
décisions qui seraient prises compte tenu de l’information incomplète dont on
dispose » poursuit l’auteur. Toutefois, « aucun ensemble de
critères, si riche soit-il, ne peut épuiser l’infinie diversité des cas
individuels », conclut-il.
Les modes
algorithmiques d’analyse des décisions et leur encadrement juridique
Dans un deuxième volet, le rapport s’intéresse à l’encadrement juridique
des Modes algorithmiques d’analyse des décisions (MAAD). Il y évoque deux types
d’algorithmes d’analyse des décisions : ceux qui calculent des statistiques
pour analyser des masses de données, et ceux « qui décèlent les
itérations au sein des données pour bâtir des modèles transposables à d’autres
situations ». Toutefois, Lêmy Godefroy, l’assure : ces modes
d’analyse ne sont pas là pour remplacer le juge, mais plutôt pour lui offrir « des
moyens de se prononcer de façon éclairée ». Via l’open data,
les MAAD rendent ainsi réutilisables les données judiciaires. Le maître de
conférences revient sur le « système de pseudonymisation à deux degrés
[qui] est instauré pour prévenir toute ré-identification », préservant
ainsi « la vie privée des parties, des tiers, des magistrats et des
membres du greffe ».
Tous les contentieux peuvent-ils être assistés par les MAAD ? Selon
l’expert, le but est de déterminer « la tendance habituelle d’une
juridiction ou d’une catégorie de juridictions à juger dans tel sens ».
Pour lui, les MAAD visent à accompagner le juge dans les contentieux longs et
énergivores : en somme, à « améliorer l’administration de la
justice ». Dans les cas de règlement amiable des litiges par exemple,
les MAAD faciliteraient la prise de décision, d’après lui.
Pour finir,
l’auteur s’interroge sur la responsabilité : la « machine »
décisionnaire dispose-t-elle d’une responsabilité ? « Bien que l’algorithme
soit doté d’une parcelle d’autonomie, la décision est prise par un
humain », rappelle-t-il. L’auteur précise alors que le droit de la
responsabilité du fait des produits défectueux issu de la directive du 25 juillet 1985 ne s’appliquerait pas ici. En ce
qui concerne la responsabilité du fait des choses, « l’algorithme
relève de l’article 1242 alinéa 1er
du Code civil », indique le
spécialiste, qui se questionne : « Toutefois, le propriétaire, le
concepteur et l’utilisateur détiennent-ils toujours un réel pouvoir sur
l’algorithme ? » : « En définitive, si le fait
générateur du dommage est constitué par une faute, la responsabilité du fait
personnel visé aux articles 1240 et 1241 du Code civil serait invoquée.
Une présomption simple de faute pèserait sur son auteur, par exemple le
concepteur qui aurait réédité des biais figurant dans les intrants ou détourné
le MAAD de son usage convenu. Quand le dommage provient de l’autonomie de
l’algorithme apprenant, l’absence de causalité humaine dans le dysfonctionnement
d’un outil algorithmique ayant généré des incohérences de nature à altérer
l’appréciation d’une situation par son utilisateur est compensée par un
principe de responsabilité de plein droit du propriétaire (concepteur ou
donneur d’ordre) impliqué dans la survenance du risque » développe-t-il.
Enfin, Lêmy Godefroy rappelle l’importance de la transparence dont les
concepteurs doivent faire part : ils « doivent communiquer sur le
processus algorithmique (l’apprentissage suivi par le programme, les modalités
de sélection des entrants, les tests de fiabilité) ». En effet, selon
lui, « la reconstitution du cheminement qui y mène [aux résultats] est
indispensable pour leur attacher un effet juridique ». Dans cette
lignée, celui-ci suggère la création d’une autorité pluridisciplinaire à qui il
serait confié la rédaction d’un « cahier des charges détaillant ces
exigences minimales éthiques d’intelligibilité, de loyauté et d’égalité de
traitement ».
Dans les 21 propositions cadres de régulation juridique des MAAD
formulées par l’auteur dans le rapport, ce dernier soumet également l’idée de
distinction des litiges selon leur singularité ou leur analogie juridique,
considérant que les affaires singulières juridiquement ne relèvent pas du champ
de compétence des MAAD : « Le droit est à dire ! »
pointe-t-il.
Dans ce
rapport, le coauteur Frédéric Lebaron porte un regard sociologique sur ces
outils d’analyse, et plus précisément « sur la façon dont le champ
juridique se transforme actuellement (ou pas) sous l’effet d’une “innovation” ».
En effet, celui-ci s’est particulièrement intéressé à l’enjeu des prises de
position relatives aux algorithmes. Dans une première hypothèse, le professeur
en sociologie indique en effet que l’ « appropriation des nouveaux
outils par les acteurs du droit », est « déterminante(s) dans
le processus de changement », mais pas seulement : « Si
d’importantes forces de changement sont déjà à l’œuvre, elles reposent sur la
mobilisation d’acteurs aux caractéristiques spécifiques plutôt “subalternes”
dans le champ juridique voire, s’agissant des dirigeants de start-up,
clairement périphériques. Ces derniers apparaissent atypiques par leur
trajectoire, qu’elle soit professionnelle ou profane, et leur attitude
réformatrice plus ou moins "radicale" relativement au monde du
droit et de la justice » assure le spécialiste. Aussi, quel regard les
magistrats, potentiellement futurs utilisateurs de ces outils, portent-ils sur
ces développements ?
MAAD : l’avis des magistrats
En juin 2018, une enquête a été lancée auprès des juges de chaque
degré de juridiction afin de connaître l’avis des magistrats sur les MAAD, mais
aussi recueillir leurs suggestions et attentes. 85 % des magistrats y posent
un regard favorable, les considérant comme « des aides à la
décision » (c’est-à-dire sans se substituer aux juges), mais
l’encadrement juridique et la garantie de transparence paraissent déterminants.
Le danger d’une « application automatique de réponses issus des MAAD » est soulevé, tout comme les risques de « surinterprétation »
ou de « survalorisation », qui font craindre alors une « déshumanisation de la justice, une
rupture du dialogue avec les justiciables et une privatisation du règlement des
litiges ». La Cour de cassation relève également l’importance
de « prendre en compte les limites et les biais », afin de ne peux en tirer des interprétations incorrectes. Vis-à-vis des
justiciables, les MAAD insuffleraient, selon les magistrats, un sentiment de
plus grande sécurité juridique, apportant un « éclairage sur les
issues à leur différend ». Les avis négatifs
relevés (10 %)
concernent l’éventuelle « l’inadaptation de ces outils à la complexité du
raisonnement judiciaire ».
Aussi, de façon globale, les magistrats soulignent
la nécessité de réguler leur conception et d’accompagner leurs usages.
Concernant le champ d’application, les magistrats considèrent que les MAAD
pourraient être utilisés lors d’affaires contenant des « critères
connus et identifiables pour des dossiers de même nature ». Ceux-ci pourraient trouver leur place dans les contentieux technique de
la réparation des préjudices corporels par exemple, évitant ainsi une trop
grande disparité d’indemnisation entre les affaires. Toutefois, dans certaines
affaires plus complexes – comme déterminer le caractère abusif de la rupture,
par exemple –,
qui relèvent davantage d’une appréciation dite « qualitative », les MAAD ne semblent pas adaptées.
Alors que le professeur Lebaron rappelle dans cette
publication que le rapport Villani « AlI for humanity » proposait de développer les cursus bi-disciplinaires en intelligence
artificielle et droit, ces travaux nous apportent informations et
interrogations sur ce que pourraient être le droit et la justice de demain, à
l’ère du développement numérique.
Constance Périn