Depuis plusieurs années fleurissent en France des logiciels de prédiction de délits, dont se servent les services de police et de gendarmerie afin de prévenir la criminalité.
Ces logiciels utilisent des algorithmes prédictifs qui puisent dans des bases de données, les faits de délinquance antérieurs.
Ces logiciels posent certains questionnements, quant au respect des données personnelles, des questions de vie privée ou encore des risques d’accroissement des discriminations.
 
 
La police prédictive, qu’est ce que c’est ?
La police prédictive se fonde sur l’étude de bases de données de faits de délinquance, afin que les algorithmes puissent déceler les zones où la commission de délits est le plus risqué.
Il s’agit d’analyser les catégories de délits (cambriolages, vols, trafics de stupéfiants, agressions sexuelles etc…), ainsi que les lieux et dates où ces délits se sont produits les années précédentes. Cela permettrait, au regard des faits antérieurs, d’anticiper les comportements futurs.
 
 
L’utilisation de la police prédictive en France
La première ville ayant utilisé des logiciels de prédiction de crimes est Chicago, où les policiers reçoivent en direct les informations de prédiction.
La France n’en est, quant à elle, qu’à ses balbutiements. Cependant, de plus en plus d’expérimentations de logiciels de police prédictive prennent place à travers le pays.
La France utilise principalement le logiciel Anacrim, qui, au-delà d’opérer des prédictions spatio-temporelles, permet de recouper et analyser les diverses informations relatives à une affaire criminelle. Ce logiciel est notamment utilisé dans des affaires classées, il a notamment permis des avancées majeures concernant le meurtre de Grégory Villemin.
Anacrim est le logiciel « historiquement » utilisé en France, mais de plus en plus de logiciels font surface dans l’hexagone. Salvac, un logiciel canadien est notamment utilisé à Nanterre en prévention d’actes à caractère violent ou sexuel. Marseille a quant à elle lancé un plan « Observatoire Big Data de la tranquillité publique » qui utilisera également un logiciel prédictif.
 
 
La police prédictive favoriserait-t-elle les discriminations ?
L’utilisation de ces algorithmes pose question quant à son caractère arbitraire.
En effet, un risque d’accroissement des discriminations peut-être soulevé, du fait de la stigmatisation de certains quartiers et certaines populations.
Le Général Watin-Augouard, fondateur du Forum International de la Cybersécurité à Lille, qui promeut l’utilisation de ces logiciels, affirme qu’ “Il n’y a aucun profilage d’individus par catégorie ou par communauté ».
La société Hunchlab, société privée d’intérêt général a souhaité développer un algorithme moins arbitraire. Le logiciel utilise la probabilité afin de faire varier les lieux de patrouille, et éviter de surestimer certaines zones ou le risque calculé serait le plus important. Cela éviterait de transformer la réaction de la police.
 
  
La nécessité impérieuse de protection des données personnelles

L’utilisation de ces algorithmes a été rendue possible par l’ouverture des données publiques par la loi « CADA » de 1978, et s’inscrit dans une démarche générale d’Open Data. 

Cependant, les logiciels de police prédictive peuvent collecter des données personnelles, voire des données sensibles, puisqu’il s’agit de fichiers d’infractions, qui répondent à un encadrement renforcé. Bien qu’aucune fiche individuelle ne soit utilisée par les algorithmes, des informations telles que des adresses, ou des données de localisation peuvent figurer dans les logiciels.
Il est donc nécessaire d’être irréprochable sur la collecte de ces données, afin d’éviter toute atteinte à la vie privée des personnes. La collecte doit donc répondre aux obligations de la Loi Informatique et Libertés de 1978 et du Règlement Général sur la Protection des Données entré en vigueur en mai dernier.
La CNIL et le RGPD (article 22) rappellent un principe fondamental en cas de recours à la police prédictive. Aucune prise de décision produisant des effets juridiques, ou affectant significativement les personnes, ne doit se baser uniquement sur le fondement d’un traitement automatisé.
 

A propos de Vincente LECOMTE