Gérer les risques
Aujourd'hui et demain

Risques industriels et environnementaux

Les softs d’analyse d’image

Ce domaine évoluant très vite, nous faisons le point, ce mois-ci, sur l'état de l'art et les développements et tendances en cours...

Historique (déjà !)

Après le but premier de fiabilisation des vidéosensors, l’analyse d’image dite intelligente s’est développée autour de fonctionnalités diverses. Les premiers systèmes disponibles utilisaient un bypass de signaux analogiques vers des PC pouvant analyser de 1 à 4 signaux simultanément. Les algorithmes tournant sur ces PC nécessitaient beaucoup de puissance, et ils sont devenus de plus en plus performants, au fur et à mesure que cette puissance l’a permis. La miniaturisation des composants et l’avènement de DSP de plus en plus performants et économes en énergie ont permis, depuis 2 ou 3 ans, la migration de certains algorithmes sur DSP à l’intérieur même des caméras IP. Nous allons voir que ces deux techniques peuvent être utilisées de façon conjointe.

Les softs embarqués en périphérie

Ils représentent une tendance forte, et se rencontrent sur les caméras fixes et serveurs IP, certains dômes commençant à les intégrer sur les prépositions. Ils tournent sur des DSP de plusieurs types, les plus fréquemment rencontrés étant ceux de Texas Instruments, comme en particulier la série DaVinci, dont les plus récents éléments apportent encore un saut de puissance considérable. Aujourd’hui, certains algorithmes d’analyse d’image embarquée sont aussi performants, pour la partie détection, que leurs équivalents sur station de travail. Ils présentent pour avantages d’être en option bon marché ou bien inclus dans le coût des caméras, et de permettre une analyse d’image à la source, au plus près de l’évènement, avant le transport de l’image et la compression, en évitant les erreurs dues aux artefacts. Cela permet de meilleures réactivité et fiabilité de détection. Les résultats d’analyse peuvent être envoyés et stockés sous forme de métadonnées, soit avec les images dans une démarche sécuritaire sans compromis, soit de plus en plus souvent seuls sans les images, la caméra servant alors de capteur intelligent. En cas d’évènement le serveur central est alerté et appelle les images pour le surveillant, qui ne voit ainsi que les images pertinentes. Cette stratégie de fonctionnement est privilégiée sur les sites à grand nombre de caméras pour ne surcharger ni les opérateurs, ni le réseau, d’images inutiles. Reste que, selon le niveau critique du site à surveiller, si le réseau le permet, il peut être préférable de tout transmettre et tout stocker pour relectures, analyses et corrélations ultérieures de faits pouvant être apparus anodins, même si seules les images d’alarme sont affichées.
Parmi les contraintes, il faut souligner une utilisation partagée de la puissance du processeur de la caméra entre l’encodage et l’analyse, ce qui peut avoir pour conséquence d’augmenter le nombre d’artefacts et de fausses alarmes. Une élévation potentiellement importante de la température de la caméra à pleine charge du processeur peut poser des problèmes en extérieur, quand une caméra est exposée au soleil dans un caisson. Si celui-ci peut-être ventilé, le mieux est sans doute la disponibilité d’un radiateur aux mesures de la caméra et du caisson, comme chez Bosch pour la NWC-0495. Les conditions de fonctionnement étant réunies, aucun problème de fiabilité ne devrait être à redouter, les éventuelles pannes étant couvertes par les garanties des constructeurs et les contrats de maintenance des installateurs. Ces derniers doivent ainsi doublement surveiller ce point.
A titre de court exemple, nous citerons les algorithmes embarqués IVA de Bosch et Deepath de Cieffe, ainsi que ceux de ioImage et les algorithmes du programme OEM OnBoard d’Object Video. La discrimination se fera sur la qualité des algorithmes, leur facilité de paramétrage et le nombre d’algorithmes pouvant fonctionner simultanément.

Les softs sur stations de travail

Ils sont nombreux et notamment représentés par les solutions d’éditeurs spécialisés et expérimentés, qui ont l’avantage de pouvoir être customisées selon les besoins précis, là où les algorithmes embarqués sont simplement paramétrables. Les logiciels seront également plus sûrement upgradables que dans un équipement périphérique. C’est dans ce domaine que les plus grandes avancées vont être développées avant de pouvoir éventuellement être portées sur DSP.
Ils ont également comme énorme avantage la possibilité de fonctionner sur tous les signaux de caméras analogiques et numériques du marché, ce qui leur ouvre les portes de tous les systèmes déjà installés, sans besoin de changer des caméras fonctionnelles et satisfaisantes. En cela, ces solutions ont un avenir au moins aussi important que la durée de vie des systèmes analogiques en place sera longue.
Si les premières solutions permettaient d’analyser les signaux de 1 à 4 caméras sur un PC, les puissances aujourd’hui disponibles permettent soit bien plus de caméras, souvent jusqu’à 16 par serveur, soit plus d’algorithmes simultanés sur un même champ, plus complexes et précis. Surtout, certains acteurs mettent en avant l’utilisation de la puissance pour supporter une intelligence destinée à limiter les fausses alarmes, au-delà de la détection. Par exemple, la taille des objets pourra être estimée avec fiabilité, et cela dans toutes les conditions de prise de vue.
Parmi les contraintes, figure bien entendu la charge importante du réseau en cas d’utilisation de caméra IP. Pour tous les types de caméras, l’analyse peut éventuellement être réalisée sur des DVR ou NVR répartis sur l’ensemble du site, de façon à éviter les goulots d’étranglement. Si on compresse plus, l’analyse sera plus sensible aux artefacts. Il faut aussi rester raisonnable lors du choix du nombre de caméras allouées à un serveur d’analyse, dont les performances pourraient décroître avec la charge de travail.
Nous citerons les offres de spécialistes, comme Evitech, Keeneo, KaoLab, Foxstream, Object Video (Vew), Ipsotech, iOmniscient ou Axxon, ainsi que celles de fabricants, comme Siemens, Honeywell, Dedicated Micros, Cieffe, Verint et DVTel, qui intègrent des fonctionnalités d’analyse intelligente dans certains enregistreurs.

 

 Pour et contre
Ces technologies sont parfois décriées, car facilement incertaines, surtout en extérieur, bien qu’il semble y avoir plus de faux positifs dus à des artefacts, et relativement peu de faux négatifs. Elles sont efficaces quand les paramètres sont bien réglés, et cela est aujourd’hui le point clé d’une bonne solution. Quel que soit le système, un paramétrage de qualité et une bonne formation des utilisateurs, réalisés par des professionnels expérimentés, sont absolument indispensables, ainsi que des ajustements périodiques en fonction des variations climatiques et des évolutions de l’environnement naturel. On ne sait vraiment comment une solution va performer qu’en conditions réelles sur site après investissement, installation et paramétrage. Il s’agit d’un domaine où le réalisé diffère souvent quelque peu des prévisions et des attentes, tout en apportant toujours de grandes satisfactions.

L’intelligence distribuée

Ces deux techniques ayant leurs avantages propres, et la recherche d’efficacité et de fiabilité étant sans fin, une tendance apparaît aujourd’hui à leur utilisation conjointe et complémentaire. Une double analyse peut être réalisée dans la caméra et sur le serveur, les caméras générant à la source des métadonnées reprises par les systèmes centraux pour des fonctionnalités plus poussées, une analyse a posteriori, voire une analyse simultanée et corrélative des données de plusieurs caméras.
La complexité de ces opérations et le format propriétaire des métadonnées favorisent l’utilisation de solutions intégrées monoconstructeurs. Sony a été précurseur en la matière, depuis 2006, avec ses solutions Depa (Distributed Enhanced Processing Architecture).
A noter les efforts d’éditeurs de softs de gestion vidéo, comme Viseox, qui sait utiliser les metadonnées de Sony dans son module VXsmart, et Genetec, qui a intégré un moteur de métadonnées dans Omnicast pour gérer, indexer et afficher les metadonnées associées aux enregistrements vidéo et audio, et effectuer des recherches plus rapides. Toujours dans un but de recherche rapide, eBoo sait indexer les images dans une base de données ultra rapide.
Chez Agent VI, la technologie IPoIP (Intelligent Processing over IP) utilise des algorithmes distribués entre les périphériques et les serveurs. La technologie a été développée pour s’intégrer aisément à l’intérieur des caméras, serveurs et DVR de ses partenaires. Coe dispose d’une architecture Coe VI, capable de traiter jusqu’à une centaine de caméras par serveur, grâce à des VI-Agents dans ses encodeurs X-Net G3 et à l’envoi d’images de qualité au serveur uniquement sur incident.
Dans le même esprit, l’initiative OV Ready de Object Video, qui a été introduite à l’Ifsec, vise à préparer et à garantir l’interopérabilité analytique entre des éléments labellisés OV Ready, sans que ceux-ci soient forcément équipés d’algorithmes fonctionnels au moment de l’achat. Elle ouvre la porte à de nombreuses collaborations fonctionnelles entre des périphériques et des logiciels gestionnaires de vidéosurveillance.

Un secteur de pionniers

En France et en Europe, l’offre provient de plusieurs sociétés de petite taille, souvent issues du monde universitaire et peinant parfois à trouver une croissance forte, faute d’un marché suffisamment large, alors que leur offre est d’un haut niveau technique et d’une bonne fiabilité, et mérite vraiment plus d’intérêt.
De l’autre côté de l’Atlantique, les acteurs américains du marché bénéficient à plein des efforts gigantesques des Etats-Unis pour développer la Homeland Security. Un processus extrêmement intelligent et proactif est en place pour soutenir les sociétés innovantes dans ce domaine et établies aux Etats-Unis, comme nous l’avons déjà expliqué dans le n° 148 d’APS, début 2006. Il apparaît clair que toute société étrangère à même d’apporter un savoir-faire unique et utile à la Homeland Security américaine, pourrait bénéficier de cette dynamique en établissant des opérations en Amérique du Nord.

 Les points à surveiller
– Compatibilité avec le matériel !
– Robustesse vis-à-vis des conditions extérieures, des contre-jours et des illuminations de phares, des conditions de faible contraste, comme le brouillard.
– Sensibilité en basses lumières, éclairage visible ou IR.
– Prise en charge des perspectives.
– Nombre d’algorithmes possibles simultanément, sur chaque ou plusieurs régions d’intérêt, et sur l’ensemble des caméras.
– Facilité de paramétrage, permettant l’efficacité de détection.

Tendances du marché

Certaines sociétés se diversifient, comme Object Video qui a pris une orientation vers des marchés de masse, après avoir effectué une levée de fonds importante, et élargit le champ des applications de son savoir-faire à d’autres secteurs, comme la vision industrielle. Verint, qui a été historiquement sur des applications d’analyse de données et de signaux audio, se positionne en tant que générateur d’intelligence actionnable pour un environnement sécurisé et une entreprise décisionnelle.
La montée en résolution des caméras va aboutir à des quantités de données à analyser de plus en plus importantes, ce qui peut être trop complexe ou trop coûteux. Ainsi, l’analyse embarquée devrait devenir un argument de vente des caméras de résolution standard, à moins que des processeurs et DSP de plus en plus puissants ne permettent une efficacité équivalente sur les hautes résolutions.
Afin de limiter les fausses alarmes, les méthodes heuristiques d’auto-apprentissage de l’environnement et de ses évènements devraient se développer, dans la direction de ce que propose Foxstream. Pour une meilleure efficacité dans certaines applications, les caméras thermiques devraient être de plus en plus utilisées. Elles ne sont affectées ni par le brouillard ni par les éblouissements des phares.
Enfin, des fonctionnalités plus ou moins riches d’analyse d’image sont de plus en plus souvent intégrées dans les softs de gestion vidéo, par exemple chez Vision Advance, OnSSI, Aimetis, et Virage. Si un grand nombre d’acteurs, fabricants de caméras et éditeurs de soft, proposent aujourd’hui des solutions d’analyse d’image, ceux qui réussiront seront certainement ceux qui possèdent à la fois le savoir-faire en développement d’algorithmes et une expérience sécuritaire, pour dépasser l’analyse et bien prendre en compte les besoins.

Evitech : la performance en environnement critique

« Nous sommes spécialisés dans le marché des infrastructures critiques, militaires ou civiles, nous explique Laurent Assouly, directeur marketing d’Evitech, et nous avons fait le choix de développer nos solutions sur serveurs Linux, beaucoup plus puissants que les processeurs des caméras intelligentes. Nous atteignons ainsi une finesse de détection bien plus grande, avec un taux plus réduit de fausses alarmes.
Nos solutions sont compétitives avec les solutions courantes, car elles permettent de détecter plus loin, donc d’employer jusqu’à 2 fois moins de caméras. Il faut également considérer le coût total de possession et le coût à terme des systèmes, la gestion des fausses alarmes pouvant s’avérer prohibitive. Dans un cas réel, nous avons vérifié avoir 0,5 à 2 fausses alarmes par jour, soit 10 fois moins qu’un système courant. Un paramétrage rapide sur place ou distant permet d’atteindre une estimation de la taille des objets précise à 5 %.
Un système « prêt à brancher » n’existe pas en analyse d’image, car 2 caméras ne sont jamais dans les mêmes conditions. Aussi, les clients demandent souvent à tester les produits, et nous prêtons régulièrement quelques systèmes pendant 2 ou 3 semaines pour des tests en conditions réelles. »

 La détection de chute
Dans le cadre de l’élargissement des systèmes de vidéosurveillance aux domaines de vidéogestion et vidéoprotection, les algorithmes de détection de chute semblent avoir un avenir important pour la sécurité des personnes âgées ou médicalement dépendantes. Il suffit d’une ou plusieurs petites caméras reliées à un PC muni d’un logiciel adéquat restreint à la détection de chute pour donner l’alerte à temps et gagner les précieuses premières minutes suivant le malaise. Foxstream, iOmniscient et Verint, en particulier, disposent d’un savoir-faire en ce domaine, à la disposition des organismes de soin et d’hébergement.

Evolynx : le point de vue d’un intégrateur

« Les clients nous demandent des traitements d’images pour répondre à leurs problématiques particulières, nous explique Laurent Rouyer, responsable marketing et produit de Evolynx. Compte tenu des efforts importants de R & D, notre stratégie a été de s’associer à des partenaires qui offrent la brique d’analyse d’image.
Pour nous, les avantages de ces technologies sont certains : aide à l’exploitant de sécurité en attirant son attention sur les alarmes et événements détectés par la visualisation directe de la bonne caméra, automatisation des tâches, et utilisation de la caméra comme un capteur, ce qui réduit les coûts globaux. Mais, des contraintes existent. La fiabilité à 100 % n’est pas assurée sur les systèmes d’alarmes. On peut détecter un événement qui n’en est pas un et, plus dangereux pour la sécurité, ne pas détecter un événement qui aurait du être une alarme. Voilà pourquoi on parle d’aide à l’exploitation. Le positionnement de la caméra, l’éclairage, la distance entre la caméra et la zone à observer, doivent respecter des contraintes.
Les traitements d’analyse d’image, que nous avons mis en œuvre et qui fonctionnent bien, sont, par exemple, la lecture de plaques d’immatriculation pour le contrôle d’accès des voitures, des camions et des motos chez plusieurs clients. Notre système de reconnaissance de plaques n’ouvre pas la barrière, mais informe, comme le ferait un lecteur de badge, Evolynx, qui gère les accès en conservant toute la puissance d’Evolynx en gestion de droits d’accès, gestion de crise, gestion anti-passback, avec un seul historique global pour le responsable sécurité, que l’on arrive à pied ou en voiture, et une gestion des droits d’accès uniquement sur un seul système. Les vidéosensors intérieurs et extérieurs, et le test d’unicité de passage dans un sas, fonctionnent également très bien. D’autres traitements, plus récents, commencent à être envisagés par les clients, par exemple le comptage, la détection de sens de passage, le franchissement de ligne fictive et la détection de présence ou absence de colis. »

 Que peut-on faire avec ?
– Détection avancée de mouvement.
– Reconnaissance de plaques d’immatriculation, de numéro de container, de visage.
– Classification d’objets et individus par taille, sexe et/ou vitesse, discrimination entre individus, animaux et véhicules.
– Tracking ou détection d’arrêt, pour individus ou véhicules, comptage, détection de sens de mouvement et d’unicité de passage.
– Détection de disparition d’objet ou apparition d’objet abandonné, de parking non autorisé.
– Détection de comportements anormaux ou suspects, comme le maraudage, l’errance sur parking ou la course, détection de stationnarité à l’intérieur d’une foule (algorithmes NMD de iOmniscient), détection de chute ou de malaise.
– Gestion de queues.
– Détection de sabotage.
– Détection de graffiti.
– Détection d’intrusion.
– Détection de fumée et d’incendie.
– etc… selon besoins. Sur détection d’évènement, il est possible de mettre en œuvre tout type de réaction, sur contact sec ou bien du type fonctionnalité logicielle, comme l’affichage prioritaire ou l’enregistrement dans des conditions optimales de qualité, et l’envoi de messages d’alerte.

En savoir plus

Cet article est extrait du Magazine APS n°172 – Juin 2008.
Pour plus d’information sur nos publications, contactez Juliette Bonk .

Commentez

Participez à la discussion


La période de vérification reCAPTCHA a expiré. Veuillez recharger la page.