Pour éviter les crimes la gendarmerie utilise le big data et le data mining



Comme ses homologues européens et américains, la Gendarmerie Nationale a pris le train de l'analyse prédictive en développant ses propres outils, non pas pour anticiper les délits comme dans certaines séries US mais pour éviter que des faits ne se commettent.
En France comme à l’étranger (PredPol aux États-Unis), les services de police et de gendarmerie disposent d’une énorme masse de données statistiques sur les crimes, complétée par des sources issues de l’open data et du big data. Et comme dans les entreprises, l’exploitation des données (analyse, exploration et visualisation) passe par des solutions décisionnelles avec un zeste de prédictif, les fameux outils dits de prédiction spatio-temporelle. Mais comme l’a clairement indiqué en préambule le colonel de gendarmerie Pierre Perrot, chef de la division analyse et investigation criminelle du Service Central de Renseignement Criminel (une équipe de 6 personnes sur un total de 260 au SCRC), lors d’une journée porte ouverte du Pôle Judiciaire de la Gendarmerie Nationale à Cergy Pontoise juste avant le FIC de Lille (les 25 et 26 janvier), « la Gendarmerie Nationale travaille plutôt sur du décisionnel que du prédictif avec la mise à disposition d’outils d’aide à la décision ».
Une mise en garde nécessaire après une série d’articles en mai dernier expliquant par exemple que « les gendarmes peuvent désormais prédire l'avenir » comme dans le film et les séries Minority Report ou Person of interest.
Les carte de la SCRC soulignent l'évolution de la criminalité qui suit l'urbanisation progressive en Bretagne. (crédit D.R.)
« Nous ne faisons pas de préemption à priori, nous n’allons pas arrêter un Albanais, connu pour faire des cambriolages, s’il rentre dans un quartier [..] Nous n’avons pas de boites noires mais des algorithmes mathématiques sans traitement subjectif. Nous sommes sur des données objectives grâce à une connaissance issue des éléments du passé en distinguant bien la corrélation et la causalité en utilisant les informations sur les bassins de délinquance. » L’évolution temporelle des cambriolages par exemple n’est pas la même dans les régions de France. « Il n’y a pas une méthode de police prédictive unique, ce qui fonctionne dans le Nord, ne marchera pas dans le Var. Sur 687 facteurs sociaux-économiques, une quinzaine ont été retenus pour alimenter les modèles mathématiques à appliquer à l’analyse et au croisement des données. 15 méthodes analytiques ont été utilisées par la Gendarmerie comme les réseaux neuronaux, le lissage temporel ou la solution Arima. »
Lire la suite sur le site du Monde Informatique
http://www.lemondeinformatique.fr/actualites/lire-pour-eviter-les-crimes-la-gendarmerie-combine-analytique-et-big-data-63606.html

Comments