Gérer les risques
Aujourd'hui et demain

Sûreté et sécurité

Quand la RATP « is watching you »

Une note de l’IPR révèle que la Régie autonome des transports parisiens se livre à des expérimentations de reconnaissance faciale sur son parc de caméras de vidéosurveillance. Elle souhaiterait même faire de la station Châtelet-Les Halles un « laboratoire d’intelligence artificielle ».

 

Un parisien se tient devant l’arrivée d’un train.

Le métro parisien est soumis à des expérimentations biométriques depuis quelques années.
© Photo by Fabrizio Verrecchia / Unsplash

Les Parisiens croyaient-ils déambuler librement dans la ville Lumière dans le plus pur anonymat ? Une récente note de l’Institut Paris Région (IPR) vient de révéler que la RATP (Régie autonome des transports parisiens) se livre depuis quelques années à des expérimentations de reconnaissance faciale dans le métro de la capitale. Dans un document récent intitulé « La sécurité à l’heure de l’intelligence artificielle». L’agence d’urbanisme d’Île-de-France explique que la RATP est souvent sollicitée par des industriels pour « perfectionner la technicité des algorithmes ». Pour aller plus loin encore, la régie parisienne ambitionne de transformer la station Châtelet-Les Halles en « laboratoire d’intelligence artificielle ». De quoi faire grincer des dents les organismes de défense de la protection des données personnelles… 

51 000 caméras

Il se trouve que le métro dispose déjà d’un parc de plus de 51.000 dont 36 000 embarquées et 15 000 fixes. Un vaste réseau qui se concentre tout particulièrement au sein de la station Châtelet-Les Halles. D’où l’ambition de la RATP d’exploiter ce potentiel technologique. Pour « détecter des situations problématiques » et autres comportements « anormaux » comme « les intrusions sous tunnel, le maraudage, les rixes et les objets abandonnés ».

Les parisiens soumis aux algorithmes

De fait, l’IPR précise que « depuis peu, la RATP enregistre les images filmées quotidiennement. En floutant les visages des usagers, pour créer une base d’apprentissage pour les prochains algorithmes et les entraîner aux conditions réelles de ses espaces ». Au prochain semestre, elle prévoit de « poursuivre les expérimentations. Afin de suivre l’évolution des technologies et d’optimiser le vaste réseau de caméras vidéos au bénéfice de la sûreté des voyageurs ».

Un bilan peu satisfaisant

Toujours est-il que selon l’organisme, les résultats de cette expérimentation s’avèrent « plus ou moins mitigés ». En cause, le maillage de vidéosurveillance a beau être dense, l’ancienneté et la vétusté des caméras à 98% analogiques rendent difficile l’interopérabilité avec les algorithmes actuels de reconnaissance faciale. Et c’est sans compter sur la complexité de l’environnement lui-même de la station, avec des contraintes de luminosité, de vibration, de trafic dense. 

La difficulté d’interpréter les comportements

Autre difficulté, en ce qui concerne le maraudage. Il faut savoir qu’un algorithme estime qu’une personne est suspecte à partir du moment où elle maintient une position statique durant plus de 300 secondes. Dans ce cas, un simple rendez-vous galant, le fait de répondre à un message, ou de chercher son itinéraire sur son smartphone pourrait être considéré comme un comportement louche… 

Des essais depuis quatre ans

Cependant, il faut savoir que ces expérimentations ont débuté en 2016. Avec un dispositif de détection automatique d’événements à Châtelet-Les Halles. En effet, cet outil embarque des algorithmes qui consistent à repérer des situations anormales. Comme les mouvements de foule, des comportements violents ou des objets délaissés. 

Une campagne contre les abus de la biométrie

Bien sûr, ce type d’expérience fait polémique. En témoigne l’organisation de défense des droits des citoyens sur le net La Quadrature du Net. Elle exhorte le gouvernement à interdire l’usage sécuritaire de la reconnaissance faciale depuis décembre 2019. En réaction à la note de l’IPR, l’organisme a publié sur Twitter une vive critique dans laquelle elle appelle les citoyens à rejoindre la campagne  « Technopolice ». Initiée en septembre dernier, cette opération a pour but de dénoncer les dérives de la reconnaissance faciale et à « organiser la résistance ». 

Ségolène Kahn

Commentez

Participez à la discussion


The reCAPTCHA verification period has expired. Please reload the page.