ACTUALITÉ

Numérique, droit et justice : « vers de nouveaux usages et un bouleversement de la prise de décision »

Numérique, droit et justice : « vers de nouveaux usages et un bouleversement de la prise de décision »
Publié le 02/09/2019 à 12:03


En juillet dernier, la mission de recherche Droit & Justice a rendu un rapport réalisé par les universitaires Lêmy Godefroy, Frédéric Lebaron, et Jacques Levy-Vehel, en réponse à l’appel à projet portant sur la thématique suivante : « Comment le numérique transforme le droit et la justice : vers de nouveaux usages et un bouleversement de la prise de décision ? »


 


Legaltech, blockchain, dématérialisation, IA, algorithmes, justice prédictive… À l’heure où le gouvernement prône une justice du 21e siècle axée sur l’utilisation du digital, quel lien le droit entretient-il avec le numérique ? C’est la question que se sont posé Lêmy Godefroy, maître de conférences en droit, HDR à l’Université de Nice-Sophia Antipolis, Frédéric Lebaron, professeur de sociologie à l’ENS Paris-Saclay, et Jacques Lévy-Vehel, directeur de recherches à l’INRIA, et président de Case Law Analytics. L’objectif de cette recherche : « anticiper les évolutions pour les accompagner et les maîtriser », assurent les auteurs.


Ce rapport, construit en quatre volets, s’est intéressé aux thématiques suivantes :


présentation du fonctionnement d’outils numériques existants d’analyse mathématique du droit ;


encadrement juridique des modes algorithmiques d’analyse des décisions (maad) ;


Appropriation des modes algorithmiques d’analyse des décisions (maad) par les magistrats ;


Réflexion sociologique sur les outils numériques d’analyse mathématique du droit.


 


Possibilités, limites et enjeux associés à l’usage d’outils mathématiques en droit


En préambule, le 1er volet dudit rapport s’intéresse au fonctionnement des outils numériques dans le droit. Comme l’explique Jacques Lévy-Vehel, le développement des modes alternatifs de règlement des différends et du numérique s’explique principalement par la nécessité de répondre à l’engorgement des tribunaux. Mais encore faut-il en connaître toutes les facettes pour en favoriser l’utilisation : « Pour les professionnels du droit, comme les avocats ou les directeurs juridiques, savoir anticiper le risque et le provisionner correctement est crucial » affirme le directeur de recherches. Son objectif : fournir un constat clair pour quantifier l’aléa judiciaire afin « d’en finir avec les fantasmes autour de ladite “justice prédictive” qui sont préjudiciables à une analyse sereine par les juristes des apports actuels et futurs de l’intelligence artificielle au droit ». Ce dernier n’hésite d’ailleurs pas à qualifier la justice prédictive de concept « non seulement vide de sens, mais, de plus, dangereux. » En effet, deux juges peuvent rendre des décisions différentes sur un même dossier. Selon lui, la longueur de l’audience ou encore la nature du dossier traité juste avant celle-ci peuvent être des facteurs venant influer sur la décision finale. De plus, des affaires d’apparences semblables disposent de « différences subtiles et non quantifiables font que rendre des décisions différentes est parfaitement compréhensible » assure l’auteur. C’est là tout « l’art de rendre la justice » ! « Le projet même de prédire la justice est donc fondamentalement erroné » déclare Jacques Lévy-Vehel.


Toutefois, peut-on imaginer un jour qu’un ordinateur puisse prédire la justice ? Là encore, le rapporteur parle d’un concept « trompeur », car au lieu de prédire, l’IA ne fera en réalité que prescrire, simplement « en disant le droit ». Mais l’expert nous rassure : « La société n’est pas prête à déléguer ce genre de pouvoir à un ordinateur, et c’est tant mieux » assure-t-il. En effet, pour lui, l’homme peut accepter la sentence d’un juge, car celui-ci est à la fois un expert et un humain (le plus souvent) impartial, faisant également référence à l’empathie humaine, et à la recherche « au-delà de la règle de droit, [d’]une solution équitable »... qualités qu’une machine ne possède pas. « Modéliser le raisonnement juridique » n’apparaît donc pas, selon lui, à l’ordre du jour.


Loin de l’utilisation simple de statistiques, l’expert préconise plutôt la modélisation probabiliste : « L’idée de base est de repenser la jurisprudence comme une donnée à traiter, dans l’esprit du courant du réalisme juridique » explique-t-il. « Le seul objectif scientifiquement fondé est de rendre compte de la diversité des décisions qui seraient prises compte tenu de l’information incomplète dont on dispose » poursuit l’auteur. Toutefois, « aucun ensemble de critères, si riche soit-il, ne peut épuiser l’infinie diversité des cas individuels », conclut-il.


 


Les modes algorithmiques d’analyse des décisions et leur encadrement juridique


Dans un deuxième volet, le rapport s’intéresse à l’encadrement juridique des Modes algorithmiques d’analyse des décisions (MAAD). Il y évoque deux types d’algorithmes d’analyse des décisions : ceux qui calculent des statistiques pour analyser des masses de données, et ceux « qui décèlent les itérations au sein des données pour bâtir des modèles transposables à d’autres situations ». Toutefois, Lêmy Godefroy, l’assure : ces modes d’analyse ne sont pas là pour remplacer le juge, mais plutôt pour lui offrir « des moyens de se prononcer de façon éclairée ». Via l’open data, les MAAD rendent ainsi réutilisables les données judiciaires. Le maître de conférences revient sur le « système de pseudonymisation à deux degrés [qui] est instauré pour prévenir toute ré-identification », préservant ainsi « la vie privée des parties, des tiers, des magistrats et des membres du greffe ».


Tous les contentieux peuvent-ils être assistés par les MAAD ? Selon l’expert, le but est de déterminer « la tendance habituelle d’une juridiction ou d’une catégorie de juridictions à juger dans tel sens ». Pour lui, les MAAD visent à accompagner le juge dans les contentieux longs et énergivores : en somme, à « améliorer l’administration de la justice ». Dans les cas de règlement amiable des litiges par exemple, les MAAD faciliteraient la prise de décision, d’après lui.


Pour finir, l’auteur s’interroge sur la responsabilité : la « machine » décisionnaire dispose-t-elle d’une responsabilité ? « Bien que l’algorithme soit doté d’une parcelle d’autonomie, la décision est prise par un humain », rappelle-t-il. L’auteur précise alors que le droit de la responsabilité du fait des produits défectueux issu de la directive du 25 juillet 1985 ne s’appliquerait pas ici. En ce qui concerne la responsabilité du fait des choses, « l’algorithme relève de l’article 1242 alinéa 1er du Code civil », indique le spécialiste, qui se questionne : « Toutefois, le propriétaire, le concepteur et l’utilisateur détiennent-ils toujours un réel pouvoir sur l’algorithme ? » : « En définitive, si le fait générateur du dommage est constitué par une faute, la responsabilité du fait personnel visé aux articles 1240 et 1241 du Code civil serait invoquée. Une présomption simple de faute pèserait sur son auteur, par exemple le concepteur qui aurait réédité des biais figurant dans les intrants ou détourné le MAAD de son usage convenu. Quand le dommage provient de l’autonomie de l’algorithme apprenant, l’absence de causalité humaine dans le dysfonctionnement d’un outil algorithmique ayant généré des incohérences de nature à altérer l’appréciation d’une situation par son utilisateur est compensée par un principe de responsabilité de plein droit du propriétaire (concepteur ou donneur d’ordre) impliqué dans la survenance du risque » développe-t-il.


Enfin, Lêmy Godefroy rappelle l’importance de la transparence dont les concepteurs doivent faire part : ils « doivent communiquer sur le processus algorithmique (l’apprentissage suivi par le programme, les modalités de sélection des entrants, les tests de fiabilité) ». En effet, selon lui, « la reconstitution du cheminement qui y mène [aux résultats] est indispensable pour leur attacher un effet juridique ». Dans cette lignée, celui-ci suggère la création d’une autorité pluridisciplinaire à qui il serait confié la rédaction d’un « cahier des charges détaillant ces exigences minimales éthiques d’intelligibilité, de loyauté et d’égalité de traitement ».


Dans les 21 propositions cadres de régulation juridique des MAAD formulées par l’auteur dans le rapport, ce dernier soumet également l’idée de distinction des litiges selon leur singularité ou leur analogie juridique, considérant que les affaires singulières juridiquement ne relèvent pas du champ de compétence des MAAD : « Le droit est à dire ! » pointe-t-il.


Dans ce rapport, le coauteur Frédéric Lebaron porte un regard sociologique sur ces outils d’analyse, et plus précisément « sur la façon dont le champ juridique se transforme actuellement (ou pas) sous l’effet d’une “innovation” ». En effet, celui-ci s’est particulièrement intéressé à l’enjeu des prises de position relatives aux algorithmes. Dans une première hypothèse, le professeur en sociologie indique en effet que l’ « appropriation des nouveaux outils par les acteurs du droit », est « déterminante(s) dans le processus de changement », mais pas seulement : « Si d’importantes forces de changement sont déjà à l’œuvre, elles reposent sur la mobilisation d’acteurs aux caractéristiques spécifiques plutôt “subalternes” dans le champ juridique voire, s’agissant des dirigeants de start-up, clairement périphériques. Ces derniers apparaissent atypiques par leur trajectoire, qu’elle soit professionnelle ou profane, et leur attitude réformatrice plus ou moins "radicale" relativement au monde du droit et de la justice » assure le spécialiste. Aussi, quel regard les magistrats, potentiellement futurs utilisateurs de ces outils, portent-ils sur ces développements ?


 


MAAD : l’avis des magistrats


En juin 2018, une enquête a été lancée auprès des juges de chaque degré de juridiction afin de connaître l’avis des magistrats sur les MAAD, mais aussi recueillir leurs suggestions et attentes. 85 % des magistrats y posent un regard favorable, les considérant comme « des aides à la décision » (c’est-à-dire sans se substituer aux juges), mais l’encadrement juridique et la garantie de transparence paraissent déterminants. Le danger d’une « application automatique de réponses issus des MAAD » est soulevé, tout comme les risques de « surinterprétation » ou de « survalorisation », qui font craindre alors une « déshumanisation de la justice, une rupture du dialogue avec les justiciables et une privatisation du règlement des litiges ». La Cour de cassation relève également l’importance de « prendre en compte les limites et les biais », afin de ne peux en tirer des interprétations incorrectes. Vis-à-vis des justiciables, les MAAD insuffleraient, selon les magistrats, un sentiment de plus grande sécurité juridique, apportant un « éclairage sur les issues à leur différend ». Les avis négatifs relevés (10 %) concernent l’éventuelle « l’inadaptation de ces outils à la complexité du raisonnement judiciaire ».


Aussi, de façon globale, les magistrats soulignent la nécessité de réguler leur conception et d’accompagner leurs usages. Concernant le champ d’application, les magistrats considèrent que les MAAD pourraient être utilisés lors d’affaires contenant des « critères connus et identifiables pour des dossiers de même nature ». Ceux-ci pourraient trouver leur place dans les contentieux technique de la réparation des préjudices corporels par exemple, évitant ainsi une trop grande disparité d’indemnisation entre les affaires. Toutefois, dans certaines affaires plus complexes – comme déterminer le caractère abusif de la rupture, par exemple –,
qui relèvent davantage d’une appréciation dite
« qualitative », les MAAD ne semblent pas adaptées.


Alors que le professeur Lebaron rappelle dans cette publication que le rapport Villani « AlI for humanity » proposait de développer les cursus bi-disciplinaires en intelligence artificielle et droit, ces travaux nous apportent informations et interrogations sur ce que pourraient être le droit et la justice de demain, à l’ère du développement numérique.


 


Constance Périn


 


0 commentaire
Poster

Nos derniers articles