Réseaux sociaux JSS
Réseaux sociaux JSS
Réseaux sociaux JSS
Réseaux sociaux JSS
Réseaux sociaux JSS
Journal Spécial des Sociétés
Zoom sur l’IA au service de la police
Publié le 14/01/2021 09:30

Les progrès technologiques ont permis de mettre au point tout une palette d’outils à disposition des services de police et de gendarmerie. S’ils ne prétendent pas se substituer aux agents mais bien à les assister, sont-ils si révolutionnaires, et à quel prix ? Le JSS vous propose un bref tour d’horizon. 

 

À Quel point l’intelligence artificielle permettra-t-elle de révolutionner les enquêtes policières et de diminuer la criminalité ? Harold Finch a sa petite idée sur la question. Dans la série Person of interest, ce milliardaire énigmatique, génie de l’informatique, a conçu pour le gouvernement un système de surveillance de masse capable de prédire de futurs attentats. Traitement d’images, du langage et des big data, reconnaissance faciale et vocale, « la Machine » fait feu de tout bois. 

Mais le super-outil ne s’arrête pas aux attaques terroristes, puisqu’il présage aussi les crimes « ordinaires » et transmet à son inventeur les numéros de sécurité sociale des personnes impliquées, qu’elles soient coupables ou victimes...

 

La police prédictive dans le viseur 

Si elle peut sembler tout aussi intrigante qu’inquiétante, telle invention n’a, pour l’heure, toujours pas été mise au point. Mais de la réalité à la fiction, il n’y a qu’un pas, puisque, depuis quelques années, la « police prédictive » – comprenez par là les techniques de prévision et d’analyse des données destinées à prévenir la criminalité – se développe au grand galop. Certains outils sont ainsi de plus en plus utilisés, notamment aux États-Unis. À l’instar de PredPol, outil d’intelligence artificielle commercialisé depuis 2012, supposé annoncer où seront commis les prochains crimes et délits dans une ville donnée. Le système, qui se base sur l’analyse des historiques de données criminelles, s’inspire d’un modèle utilisé par des sismologues pour prédire les tremblements de terre. 

Mais alors qu’une soixantaine d’États en sont équipés, dernièrement, plusieurs d’entre eux ont semblé vouloir prendre leurs distances avec PredPol. En avril dernier, la police de Los Angeles annonçait ainsi l’arrêt de son utilisation. Officiellement, pour des raisons budgétaires, mais en réalité, il s’agirait plutôt d’une façon de se débarrasser d’un outil sous le feu des critiques. En effet, les détracteurs de PredPol mettent sérieusement en doute son efficacité. Pire, ils dénoncent les biais dont il souffrirait et accusent ses algorithmes de renforcer les préjugés. 

Des reproches également formulés à l’égard de deux dispositifs mis en place par les autorités néerlandaises : Sensing Project, qui détermine lui aussi les risques d’infractions, en se servant des images de caméras capturant les mouvements des véhicules, et SyRI, capable d’augurer les fraudes. Le 29 septembre 2020, dans un communiqué, Amnesty International accusait ces projets de « profilage ethnique » et d’ « atteintes aux droits de l’Homme ». 

La France n’est pas en reste dans l’utilisation de la police prédictive ni dans le débat qui la concerne. L’Hexagone a notamment recours à Paved, un outil de prévention des cambriolages et des dégradations de véhicules, délits parmi les plus courants. Objectif : permettre aux gendarmes de mieux organiser leurs zones de patrouille. Sauf que là encore, bien qu’il permette, selon ses utilisateurs, un gain de temps dans les opérations, Paved se voit reprocher de creuser les inégalités et de contribuer à orienter le « choix » des infractions. 

La police prédictive semble donc une notion quelque peu galvaudée.

 

L’IA pour résoudre des enquêtes

L’utilisation de l’IA ne s’arrête toutefois pas aux logiciels de prévision de la criminalité très controversés. 

Cette dernière s’avère être un outil précieux pour les services de police en matière d’enquêtes, en particulier grâce au traitement massif des données qu’elle permet. 

C’est ainsi que l’affaire Grégory avait été (une nouvelle fois) rouverte en 2017, relancée par AnaCrim. Cet outil, développé aux États-Unis et mis à la disposition du Service central du renseignement criminel (SCRC) et de la gendarmerie depuis plus de 20 ans, est réputé très utile dans la résolution d’affaires complexes et de « cold cases ». Son objectif : rassembler tous les éléments, de quelque nature qu’ils soient, recueillis sur le terrain et lors des auditions, afin d’analyser l’intégralité de la data et de créer des recoupements. En plus de donner aux enquêteurs une vision globale de la procédure, ce qui est extrêmement difficile pour l’humain au vu du très grand nombre de pièces, AnaCrim noue donc des liens entre protagonistes, pointe des incohérences et propose des pistes, sans toutefois désigner de coupables. L’application a notamment été utilisée pour confondre les tueurs en série les plus recherchés de France, de Michel Fourniret à Guy Georges. 

Sur le modèle d’AnaCrim, les forces de police belges et britanniques testent pour leur part VALCRI, un projet financé par un consortium d’institutions publiques et d’entreprises privées. Le logiciel, qui présente ses hypothèses sur un écran tactile interactif, a été conçu pour soumettre des théories auxquelles personne n’aurait pu penser, en pointant toutes les connexions possibles, même les moins évidentes. Il a préalablement été « nourri » de 6,5 millions de dossiers, soit environ trois ans d’enquêtes, afin de pouvoir fonctionner, sur le principe du machine learning

Si l’assistance technologique peut ouvrir des portes en désignant de nouveaux scénarios, elle peut aussi contribuer à condamner de fausses pistes basées sur des déclarations mensongères. En Espagne, les commissariats se sont dotés de VeriPol, un logiciel qui utilise l’analyse de texte et l’apprentissage automatique pour identifier les fausses déclarations. Son taux d’efficacité est mesuré à 83 % : autrement dit, 83 % des plaintes identifiées comme potentiellement fausses sont finalement jugées irrecevables après que leurs auteurs sont soumis à de nouvelles questions. Lors de sa toute première semaine d’utilisation dans deux villes du pays, le programme avait ainsi détecté pas moins de 64 fausses plaintes.

 

Bérengère Margaritelli

 

0 commentaire
  • 6 + 8 =

Journal Spécial des Sociétés - 8 rue Saint Augustin - 75002 Paris - Tél 01 47 03 10 10