La gendarmerie veut anticiper les crimes à coups de Big Data et d’analyses prédictives

| | | | | |

Par publié le à 14h16

La gendarmerie veut anticiper les crimes à coups de Big Data et d’analyses prédictives

Au sein du Service central du renseignement criminel (SCRC), une poignée de personnes planche depuis deux ans sur des méthodes prédictives. Objectif : apporter un nouvel outil d’aide à la décision aux équipes de terrain afin d'optimiser les opérations de prévention. Après plusieurs mois d’expérimentation en interne, la gendarmerie s’apprête à tester des outils industriels, comme Watson d'IBM par exemple. 

Les algorithmes d’analyse prédictive ne servent pas uniquement à optimiser les opérations de maintenance dans l’industrie. Depuis un peu plus de deux ans, la Gendarmerie nationale, elle aussi, travaille sur l’analyse des données. Objectif : anticiper pour mieux agir.

« Attention, nous ne faisons pas de préemption. Nous n’interpellons pas des personnes a priori comme dans Minority Report », prévient le colonel Patrick Perrot, chef de la Division analyse et investigation criminelle du Service central du renseignement criminel (SCRC), installé au Pôle judiciaire de la Gendarmerie nationale. Avec lui, cinq autres personnes travaillent sur cette nouvelle approche, qui doit servir de véritable outil d’aide à la décision pour les équipes opérationnelles. Les prédictions issues des modèles viennent ainsi compléter l’intuition de l’enquêteur et passent systématiquement par son filtre. « On replace l’intelligence humaine là où elle est la plus utile, c’est-à-dire dans l’interprétation », assure le colonel. « L’analyse prédictive doit nous permettre de rationnaliser nos conduites d’actions dans une démarche préventive », poursuit-il. Autrement dit, l’analyse prédictive doit permettre d’optimiser l’organisation des patrouilles et mener des opérations de prévention sur les zones identifiées, pour dissuader l’exécution de probables infractions.

Réseaux de neurones, algorithme d'Arima... différents modèles mathématiques sont utilisés

Dans les détails, la Gendarmerie analyse des données de son patrimoine interne et des données issues de l’Open Data. Par ailleurs, plusieurs modèles mathématiques sont étudiés. En matière d’analyse temporelle, les gendarmes utilisent des méthodes de lissage exponentiel, des réseaux neuronaux à trois couches ou encore la méthode dite d’Arima, une méthode autorégressive à moyenne mobile intégrée. « Nous implémentons toutes ces méthodes, puis nous calculons une marge d’erreur théorique entre l’adaptation du modèle de prédiction et les faits et nous prenons la marge d’erreur la plus faible », explique le colonel Perrot.

« Au niveau spatial, nous étudions à la fois les faits les plus contemporains et leur localisation géographique et nous regardons s’il y a une répétabilité. Cela nous permet de dégager ce qu’on appelle des "hot spots" (zones territoriales restreintes qui concentrent une grande quantité d’actes de délinquance, rapprochés dans le temps et dans l’espace, ndlr) et de voir si ces "hot spots" sont en cohérence avec les faits réels. Si l’étape de validation est pertinente, nous projetons ces données sur les mois suivants », poursuit-il.

Pour alimenter leurs modèles mathématiques, les gendarmes prennent également en compte des données socio-économiques. « Plus de 600 variables sont extraites de l’Insee afin de trouver des facteurs explicatifs aux infractions. Si vous avez une variable à expliquer, comme les cambriolages par exemple, nous cherchons une combinaison linéaire qui relie ces faits avec des variables socio-économiques. Pour cela, nous utilisons également des méthodes de régression ».

Prochaine étape : tester des outils industriels comme Watson, SAP ou SAS

Atteintes aux biens, aux personnes, vols d’automobiles, cambriolages… Cette approche analytique est utilisée pour un panel d’infractions et de crimes. « Mais cela fonctionne mieux pour la délinquance de masse. Plus nous avons de données, plus le modèle mathématique sera précis », note le colonel Perrot. Ces méthodes sont testées depuis octobre 2015 en Aquitaine et dans l’Oise. Si les résultats sont pertinents, le dispositif pourrait être étendu à d’autres zones géographiques. Pour évaluer la pertinence d’un modèle prédictif, une même zone est étudiée sur deux périodes différentes : la première sans l’application d’une approche prédictive, la seconde avec. « In fine, l’objectif c’est que la réalité ne corresponde pas à la prédiction du modèle mathématiques grâce à l’efficacité des contre-mesures mises en place », souligne Patrick Perrot.

Jusqu’à présent, les gendarmes se trouvaient dans une logique d’expérimentation afin de comprendre en interne les différentes méthodologies et d’identifier leurs limites respectives. Désormais, ils s’apprêtent à se tourner vers différents outils industriels pour voir s’ils peuvent leur apporter des solutions pertinentes. La Gendarmerie envisagerait ainsi de tester le super ordinateur Watson du géant américain IBM avec qui elle est en contact. Toutefois, aucune décision n’a encore été prise et la Gendarmerie rejette une approche mono-solution. Elle compte donc tester d’autres outils. « Il y a aussi SAP ou encore SAS », rappelle le colonel Perrot, qui ne cesse de marteler qu’il n’existe pas « d’outil magique ».

Partagez l’info :

Envoyer à un ami
Abonnez-vous et accédez à l’intégralité de la veille technologique

Commentaires

Réagissez à cet article

* Informations obligatoires

erreur

erreur

erreur

Veille technologique

pour les professionnels de l’industrie
S’abonner

S’inscrire à l’hebdo de la techno :

Rechercher sur Industrie & Technologies