Gérer les risques
Aujourd'hui et demain

Risques industriels et environnementaux

L'IA pour imiter les procédés d'analyse humaine pour accélérer la détection des menaces

Mise au point par Darktrace, cette nouvelle intelligence artificielle a été conçue pour détecter et analyser les anomalies afin de déterminer si elles représentent une menace ou non. De quoi faire gagner du temps aux analystes qui peuvent ainsi se consacrer aux cyberattaques avérées.

Un homme de dos se tient devant des vignettes représentant des cyber-tâches à accomplir.

Selon l’entreprise britannique, cette technologie n’est pas faite pour remplacer les analystes mais pour leur faire gagner du temps. © Pixabay

C’est une brique en plus qui vient d’être ajoutée pour améliorer les opérations dans le domaine de la cybersécurité : jusqu’alors, certains algorithmes de l’intelligence artificielle étaient capables de détecter les comportements anormaux sur la Toile. Aux analystes de se charger de savoir si ces comportements étaient malveillants ou pas. Aujourd’hui, ce procédé est en train de s’automatiser comme en témoigne la nouvelle technologie, Cyber IA Analyst de Darktrace, capable d’identifier si certaines anomalies sont nuisibles. Et ce, en imitant les procédés d’analyse humaine. 

Une opération chronophage

D’habitude, la détection de cyberattaques est une tâche confiée aux analystes, selon un processus en trois étapes : « D’abord la détection des comportements anormaux – qu’ils surviennent sur le réseau, le cloud ou dans la bureautique –, le tri de ces anomalies pour identifier celles qui sont réellement malveillantes, la définition d’un plan d’action pour parer l’attaque », confie à l’Usine Nouvelle Mike Beck, à la tête du département Analyse des menaces chez Darktrace. Une opération laborieuse qui, selon l’entreprise britannique, grignote jusqu’à une demi-journée pour analyser les cycles et déterminer la nature de l’incident. D’où l’intérêt d’automatiser ce processus. Et, comme le rappelle l’expert, il ne s’agit pas de remplacer les équipes humaines mais de leur faire gagner du temps afin de plancher sur les anomalies les plus dangereuses et trouver comment s’en défendre. 

100 analystes interrogés

Pour reproduire les procédés de réflexion et d’intuition humaine, les chercheurs de Darktrace ont planché durant trois années dans leur centre R&D à Cambridge, au Royaume-Uni. Objectif : recueillir un maximum d’informations sur les techniques d’investigation des cyberanalystes afin de les reproduire. Après avoir interrogé une centaine d’entre eux dans le monde, les données recueillies ont été interprétées grâce à des procédés de Machine Learning et plus précisément d’apprentissage non supervisé et supervisé ainsi qu’avec du Deep Learning. Actuellement, la technologie est testée en version bêta et devrait être commercialisée courant octobre. 

Ségolène Kahn

Commentez

Participez à la discussion

Suivez-nous