Le 25 juin
dernier, Bruno Pireyre, président de chambre à la Cour de cassation, directeur du
service de documentation, des études et du rapport, du service des relations
internationales et du service de la communication, a introduit le colloque
intitulé « Un monde judiciaire augmenté par l’intelligence
artificielle ? » organisé à
la Cour de cassation par l’Institut PRESAJE (Prospective, Recherches, et Études
Sociétales Appliquées à la Justice et à l’Économie). Nous publions ici son
allocution d’ouverture.
« Le bouleversement n’est
pas seulement certain ; il est majeur »
« (…) Votre
colloque, dont vous me faites l’honneur et l’amitié de me confier l’allocution
d’ouverture, découpe la matinée en deux « tables rondes », toutes
deux modérées par Monsieur Thomas Cassuto, conseiller à la cour d’appel
de Paris, vice-président de l’Institut PRESAJE. La première ambitionne de se
demander, non sans provocation, si l’intelligence artificielle peut être érigée
en « un nouvel acteur judiciaire » ;
la seconde,
tout aussi irrévérencieuse, prétend s’interroger sur la question de savoir si la
justice de demain sera automatisée.
Et pourtant ! C’est à un monde
judiciaire possiblement « augmenté » par l’intelligence artificielle
que vous voulez nous ouvrir.
La réalité « augmentée », nous le
savons, réfère à des techniques permettant de superposer des éléments
numériques à une réalité tangible, observée, pour en accroître des qualités ou
des effets particuliers, recherchés.
Est-ce à dire que l’intelligence
artificielle, greffée sur la réalité judiciaire, pourrait en en préservant la
nature, l’identité, les grands équilibres, l’enrichir par les apports d’informations
qu’autorise une évolution technologique radicale ?
Cette approche, suggérée, mérite qu’on s’y
essaye tant elle contraste avec le discours ambiant, peint aux couleurs sombres
d’un alarmisme qui semble chevillé au corps du temps inquiet qui est le nôtre.
Les mots ont un sens. De quoi parlons-nous
sous le vocable d’intelligence artificielle ? De même, depuis quand
l’évoquons-nous ?
C’est bien à partir de la seconde moitié du
XXe siècle que l’on se réfère assez couramment à
l’intelligence artificielle pour désigner les techniques informatiques visant à
simuler, « par la machine »,
certaines
fonctions de l’intelligence humaine.
Pour autant, il aura fallu attendre le XXIe siècle naissant pour que les progrès scientifiques permettent le
déploiement d’une puissance de calcul nécessaire à l’utilisation des
algorithmes auto-apprenants (machine learning), et ce sont ces dernières
années, seulement, qui ont vu se constituer les gigantesques bases de données
qui en sont le champ d’exploitation.
Au risque de simplifier à l’excès, ce qui est
à l’œuvre en matière d’intelligence artificielle judiciaire peut se résumer
ainsi : les bases de données de jurisprudence sont passées au tamis des
algorithmes afin d’en extraire des informations… qui servent elles-mêmes de matière
première à de nouveaux algorithmes !
Le bouleversement n’est pas seulement
certain ; il est majeur ! C’est avec raison qu’Antoine Garapon et
Jean Lassègue qualifient ce qu’ils dénomment la « justice digitale » tout à la fois
« de
révolution graphique et de rupture anthropologique »,
de l’ordre, soutiennent-ils, de celles qu’a connues l’humanité avec l’invention de
l’écriture.
Comment, dès lors, s’étonner qu’un évènement
d’une telle ampleur, d’une pareille portée, inspire des craintes aigues et
suscite des annonces au prophétisme apocalyptique ?
Nous voici ramenés à la « grande peur » qui saisit l’homme au franchissement des étapes charnières de la science et de la technique. Crainte éruptive d’être supplanté, évincé
par une machine qui, créée par lui, échappe à son contrôle, à tout contrôle, se
soustrait aux finalités rationnelles qu’il lui avait assignées, pour le
supplanter, l’asservir, peut-être, à sa marche irrésistible suivant une logique
dévoyée.
Qui, à cette évocation, n’aura à l’esprit
l’étrange visage de Frankenstein (ou le Prométhée moderne), créature mi-homme
mi-monstre, enfantée il y a 201 ans déjà (1818) par Mary Shelley, épouse
du grand poète rival de Lord Byron, ou encore la voix de métal, faussement
rassurante, du « HAL 9000 » (CARL 500 dans la traduction
française) du film « 2001, l’Odyssée de l’espace », réalisé
par Stanley Kubrick en 1968, supercalculateur des voyages interplanétaires qui
se retourne sournoisement et inexorablement contre ceux qu’il doit servir pour
mieux les perdre.
Tout se passe comme si les vastes et sans
doute trop optimistes attentes mises dans l’intelligence semi-autonome de
dispositifs repoussant loin devant eux les limites humaines en prolongeant et
en décuplant le cerveau humain, secrétaient, en contrepoint et comme par une
sorte de balancement dialectique, le refus crispé des évolutions en cause.
Libérons-nous de ce stérile paradoxe et
risquons quelques raisonnables anticipations.
Il est très vraisemblable que la conjonction
du « big data » des décisions de justice et des techniques de « fouille
textuelle » (« text mining ») permettra
une connaissance plus vaste – et de beaucoup
–,plus rapide,
plus affinée, peut-être, de la jurisprudence par les juges, par
les parties et leurs conseils, comme par le citoyen.
Il est, de même, réaliste d’escompter qu’un
tel savoir facilitera l’harmonisation de pans entiers de la jurisprudence dont
on ne doit pas ignorer que, par la prévisibilité qu’elle engendre, elle sert
efficacement la très légitime demande de sécurité juridique.
Faut-il redouter, à l’inverse, que ces
instruments, en particulier les outils de justice dite
« prédictive », en viennent, par un effet d’imitation, d’intimidation,
de conformisme intellectuels, à brider la liberté de décision du juge,
entendons par là ses facultés, dans l’exercice juridictionnel indépendant qui
lui échoit, de créer le droit en renouvelant l’interprétation de la
norme ? Le juge réduit à n’être plus que la bouche du robot, oserait-on
dire en paraphrasant grossièrement Montesquieu ? Beaucoup le suggèrent.
Quelques-uns l’affirment.
Quelle pâle et triste idée se fait-on de
celui à qui une société et l’État délèguent l’honneur et la charge de juger en
voulant croire qu’il perdrait demain sa capacité de hiérarchiser, de placer en
confrontation, sinon en tension, les informations – toutes les informations –
qui lui seront produites ? Dit autrement, l’office du juge, résumé à
l’essentiel, n’est-il pas de recevoir, de trier, de pondérer, de peser,
d’ordonner, enfin, dans l’irréductible singularité de l’espèce, les éléments –
faits comme règles – par la juste mise en relation desquels il tranchera le
litige ?
Comment, dès lors, imaginer sérieusement que
ces mêmes juges, dont on vient de souligner les libres figures, se
trouveraient, demain, retenus, liés, empêchés, par la jurisprudence massive et
précise dont on exciperait auprès d’eux dans le dessein de contraindre leurs
décisions ?
Ne mésestimons pas, en revanche, les risques,
bien réels, de dérives, de dévoiements, de ces nouveaux outils et produits
dont, dans la très grande majorité des cas, la naissance, le développement et
la distribution suivent les logiques de profit qui sont le stimulus et la rançon
des innovations.
Accepter de tirer parti de ces outils
révolutionnaires ne postule nullement qu’on les croit sans danger, spontanément
empreints de rigueur, dénués de biais. Loin de là !
Ne laissons pas de place à l’angélisme et
donnons-nous les moyens d’une indispensable régulation que la Cour de
cassation, en particulier, appelle de ses vœux depuis plusieurs années déjà.
C’est dans ce sens que s’est inscrite la
proposition n° 20 du rapport de la mission dite « Cadiet » sur l’open data des décisions de justice de novembre 2017. Pour extraits : « réguler le recours aux nouveaux outils de
justice dite "prédictive"
par l’édiction d’une obligation de transparence des algorithmes, la mise en œuvre
de mécanismes souples de contrôle par la puissance publique, l’adoption, enfin,
d’un dispositif de certification de qualité par un organisme
indépendant ».
C’est dans ce même esprit que, par une déclaration
du 25 mars 2019, le Premier président Bertrand Louvel et Madame la bâtonnière
Christiane Féral-Schuhl, présidente du Conseil national des barreaux (…) ont
ensemble appelé à ce que leurs institutions et organes respectifs soient, aux
côtés des juridictions du fond, associés à « la mise en œuvre des dispositifs de régulation et de contrôle, tant des
algorithmes utilisés pour l’exploitation des bases de données des décisions
de justice, que de la réutilisation des informations qu’elles contiennent » et à ce que soit constituée, avec leur commune
participation, l’instance publique qui en serait chargée.
C’est, enfin, un encadrement de cette veine
que recommande la très remarquable charte éthique européenne d’utilisation de
l’intelligence artificielle dans les systèmes judiciaires et leur
environnement, adoptée en décembre 2018 par la Commission européenne pour
l’efficacité de la justice (CEPEJ) (…).
Cette heureuse et significative convergence
de vues de plusieurs des grands acteurs de notre justice dessine, on le voit,
d’un trait assez ferme, les voies adaptées à emprunter.
(…)
Puissiez-vous, à quelques
mois à peine de l’édiction du ou des décrets d’application de la loi Lemaire,
par l’intelligence collective que vous allez vous efforcer d’appliquer à
l’intelligence artificielle, « augmenter », en le réassurant,
notre monde judiciaire de demain. (…) »