La police prédictive et le respect des données personnelles

 

L’écrivain visionnaire Phillip K. Dick décrivait dans sa nouvelle Minority Report, publiée en 1956 puis adaptée au cinéma par Steven Spielberg en 2002, un univers où des êtres humains mutants possédaient la capacité de prédire les crimes permettant à la police d’arrêter les criminels avant leur passage à l’acte.

 

Aujourd’hui, la réalité rattrape la fiction. En effet, les systèmes informatiques de prédiction tels que PredPol, Matrix ou le SSL ont fait leur apparition dans l’éventail d’outils à la disposition des autorités afin de maintenir l’ordre. Méconnus du grand public, les logiciels informatiques de prédiction de criminalité sont considérés comme une révolution technologique. La police prédictive, ou prévision policière, peut se définir comme l’application des techniques de prévision et d’analyse des données pour prévenir les crimes et les délits. Fondée sur l’étude de bases de données de faits de délinquance (cambriolages, vols, trafics de stupéfiants, agressions sexuelles) mais également sur des données personnelles (données bancaires et de santé), les algorithmes déterminent les zones géographiques et les horaires où la commission de délits est la plus probable afin d’ajuster les patrouilles policières et donc d’empêcher la commission d’une infraction.

 

En 2008, le chef de la police de Los Angeles, en collaboration avec les directeurs du Bureau d’Aide Légale (BJA) et l’Institut National de Justice (NIJ) cherchent à élaborer un concept de prévision policière dans le but de prévenir la criminalité. En 2010, les Etats-Unis conçoivent et brevètent à partir d’un algorithme de prédiction des séismes, un logiciel de police prédictive: PredPol [1]. En Europe, seules l’Allemagne et l’Angleterre usent de ce type d’algorithme prédictif. En 2016, la France va elle aussi emboîter le pas aux Etats-Unis, avec quelques années de retard, en lançant son propre logiciel de prévision policière : Anacrim. Le Service Central de Renseignement Criminel (SCRC) a mis au point ce logiciel de prédiction afin d’anticiper les grandes tendances de la délinquance.

 

En revanche, les logiciels de police prédictive collectent des données personnelles ainsi que des données sensibles comme les fichiers d’infractions qui recensent les délits et les crimes commis. Toutefois, de nombreuses questions demeurent autour du fonctionnement des algorithmes ainsi que du traitement des données personnelles opéré mais également de leur impact sur les libertés individuelles des citoyens. Ces nouveaux objets algorithmiques posent ainsi des problèmes d’interprétation et d’application des dispositions légales en vue de la protection des données à caractère personnel.

 

Est-il possible de prévoir un crime pour empêcher sa réalisation tout en respectant les nouvelles dispositions sur l’utilisation des données personnelles ?

 

Il existe des réponses juridiques pour les diverses questions relatives à la partialité et à la neutralité de la gestion algorithmique des données à caractère personnel. Le règlement général sur la protection des données (RGPD), adopté le 14 avril 2016 et transposé en France le 20 juin 2018 à travers sa loi sur la protection des données personnelles, définit la donnée personnelle à son article 4 comme étant « toute information se rapportant à une personne physique identifiée ou identifiable notamment par référence à un identifiant tel qu’un nom (…) ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale »² . Il convient de se demander si les systèmes de police prédictive sont respectueux des libertés individuelles ainsi que du traitement des données personnelles.

 

L’algorithme prédictif face aux exigences de neutralité et de non-discrimination

 

Les algorithmes se basent principalement sur trois types de données censées être neutres ou objectives. Ces types de données prennent en compte l’individu, la zone géographique et la date des précédents délits. Ces données objectives vont être mêlées à des données plus sensibles afin de dresser des probabilités de prédiction criminelle.

 

En Europe, actuellement, seules l’Allemagne et l’Angleterre utilisent des systèmes de police prédictive. Les allemands utilisent le logiciel PredPol qui a fait ses preuves en matière de réduction des cambriolages. En effet dans la région de Bade-Wurtemberg en Allemagne une baisse des cambriolages de plus de 30%³ a été observée. Ce système, inspiré de la sismologie (l’étude des séismes), est une base de données qui recense les infractions passées qui vont ensuite être analysées à l’aide d’une formule mathématique complexe et tenue secrète par les responsables de traitement de l’algorithme. Il permet d’aiguiller de la manière la plus précise possible la police pour leurs interventions. Ce système prend en compte des données géographiques et environnementales comme la météo, la ville, le quartier, les zones les plus sensibles, permettant ainsi l’ajustement des patrouilles policières afin d’en faire une meilleure arme de persuasion contre les délinquants et criminels. « PredPol » a été utilisé pour la première fois à Los Angeles en 2013 où il a permis de réduire les cambriolages de 21% sur une année⁴. Le système est exploité par une entreprise privée qui va vendre ses services à la police. L’entreprise va recueillir toutes les données publiques et un maximum de données privées afin d’établir des prédictions. Celles-ci sont ensuite revendues aux autorités par des « traders » de data. L’idée de vendre des données pose naturellement beaucoup d’interrogations quant à la fiabilité des données et leur provenance mais aussi sur la liciéité de ce type de collecte. En effet, les données personnelles doivent faire l’objet d’un traitement licite, loyal, transparent et doivent être collectées pour des finalités strictement déterminées. Or, l’utilisation des données par l’algorithme ignore régulièrement le respect de ces exigences sous couvert du maintien de l’ordre public.

 

Enfin le système le plus controversé aujourd’hui, car basé sur un objectif de répression, est le logiciel de prédiction policière « Matrix ». Utilisé dans la région du Kent en Angleterre ce logiciel fait ce que l’on appelle du profilage. Le profilage criminel, également connu comme étant une analyse comportementale, est une méthode permettant aux enquêteurs de déterminer le profil physique et psychologique du criminel. Ainsi le logiciel va recueillir un maximum de données négatives sur un individu telles que ses antécédents judicaires et va les utiliser en corrélation avec des données environnementales afin de créer un profil noté en fonction du risque criminel qu’il présente. Selon les informations en relation avec des activités criminelles et des infractions, l’individu faisant partie de la liste du logiciel peut encourir des peines d’emprisonnement à cause de sa simple présence sur les lieux d’un crime ou dans un périmètre où une infraction a été commise ce qui est une atteinte grave à la présomption d’innocence. Cette approche pénale est extrêmement sévère et a été très critiqué par les défenseurs des droits de l’Homme.

 

Il apparaît également que l’algorithme « Matrix » serait discriminatoire. En effet, l’algorithme s’avère être arbitraire et soulève la question de la stigmatisation de certains quartiers et de certaines ethnies notamment en Angleterre où l’ethnie africaine est celle faisant l’objet du pourcentage le plus élevé en matière de prévention des crimes. Certains délinquants potentiels, ciblés par l’algorithme, recevaient une lettre émanant du commissariat dans laquelle était exposée une liste de condamnations pénales qui serait susceptible de leur être appliquée si d’aventure ils se trouvaient dans une zone où une infraction serait commise. Pourtant, l’article 22 du RGPD rappelle l’existence d’un principe important. En effet, aucune prise de décision produisant des effets juridiques, ou affectant significativement les personnes, ne doit se baser uniquement sur le fondement d’un traitement automatisé ⁵. Cet article souligne l’importance et la nécessité impérieuse de protection des données personnelles et de la façon dont elles sont traitées par l’algorithme ⁶.

 

Une atteinte aux droits fondamentaux

 

Le recours aux algorithmes doit alors s’inscrire dans le respect de la loi informatique et liberté c’est-à-dire dans le respect des principes de finalité légitime et de loyauté de la collecte des données. Cependant, les créateurs d’algorithmes ne sont pas neutres. L’algorithme pourrait ainsi porter atteinte à la vie privée par l’utilisation illégale de données à caractère personnel.

 

D’autre part, la liberté d’expression des individus pourrait être atteinte. L’algorithme utilise les données d’internet, c’est-à-dire que tout ce qui est dit sur internet peut être utilisé pour déclarer un citoyen délinquant potentiel in fine. Alors, les citoyens ne pourraient plus s’exprimer en toute liberté de peur qu’un algorithme interprète ce qu’ils ont dit sur leur profil Facebook pour faire d’eux des délinquants potentiels aux yeux de la police. Ces procédés poussés à l’extrême donneraient lieu à un Etat policier.

 

Par ailleurs, il est logique de constater une atteinte à la présomption d’innocence. Le but de la police est répressif, comme c’est le cas avec le logiciel « Matrix » c’est-à-dire qu’elle cherche à punir les actes contraires à la loi. Ce ne serait donc pas du ressort de la police de prédire les crimes. Mais, dans le concept de police prédictive on cible un potentiel coupable de délits ou de crimes avant même qu’il n’ait pu le commettre. En mettant certaines personnes sur des listes et en donnant une note aux individus, les institutions policières qualifient certaines personnes de « quasi-délinquants ». Il est possible de voir dans ses listes, dans ses notes, dans ses quadrillages de quartiers « à fort taux de délinquance » une forme d’atteinte au principe de présomption d’innocence.

 

Même si l’efficacité statistique de l’utilisation de ce type d’algorithme reste encore à prouver, la plupart des institutions chargées du maintien de l’ordre des États membres de l’Union Européenne se serviront tôt ou tard de ces systèmes de prédiction. Il s’agit là de l’émergence d’un futur contentieux de masse quant à l’utilisation des données personnelles et sensibles par les autorités, certainement au mépris des principes garantissant le respect des droits et libertés individuelles.

 

Pierre-Emmanuel ARRIGHI

 

[1] ’’Le logiciel qui prédit les délits’’ – Le Monde, 4 janvier 2013

[2] Art. 4 RGPD

[3] »PredPol : la prédiction des banalités’’ – Internetactu.net, 23 juin 2015

[4]’’Le logiciel qui prédit les délits’’ – Le Monde, 4 janvier 2013

[5] Art. 22, RGPD

[6] “Algorithmes et sécurité : le développement de la police prédictive en France’’ – Vincente Lecomte, 9 janvier 2019

MasterIPIT