À Chaud :

TVH Consulting publie son nouveau baromètre sur la transformation digitale des entreprises en France

Pour 85% des entreprises, l'exploitation et la sauvegarde des...

ITS Integra : Le partenaire technologique essentiel de PULSALYS pour la gestion de son infrastructure

ITS Integra, opérateur et infogérant multi-Cloud ultra-sécurisé, répond aux...

Le PaaS Kubernetes de ITS Integra retenu par Bpifrance dans le cadre du plan France 2030

ITS Integra, opérateur Cloud et Managed Security Services Provider...
Expertise professionnelleL'explicabilité en IA : un impératif dans la cybersécurité moderne

L’explicabilité en IA : un impératif dans la cybersécurité moderne

L’intelligence artificielle a révolutionné de nombreux domaines dont celui de la cybersécurité. Cependant, cette technologie prometteuse soulève des questions en termes d’explicabilité et de transparence. Le Machine Learning (ML)a connu des avancées remarquables depuis ces dernières années. Aujourd’hui, grâce à d’énormes bases de données, des modèles de plus en plus élaborés peuvent classifier des attaques complexes et variées sans qu’il soit nécessaire de les définir explicitement.  Cependant, cette évolution s’accompagne d’une opacité croissante. Bien que des méthodes de ML avancées, telles que les réseaux neuronaux profonds, démontrent une excellente efficacité en laboratoire, leur utilisation comme « boîtes noires » peut causer des erreurs inattendues et difficiles à comprendre en conditions réelles.Il est donc utile de comprendre en quoi consiste l’explicabilité des IA dans le monde de la cybersécurité et pourquoi cela est devenu une nécessité.

Le concept de l’explicabilité des IA

L’explicabilité est la capacité d’un système à rendre son processus de raisonnement et ses résultats intelligibles pour les humains. Dans le contexte actuel, des modèles sophistiqués opèrent souvent comme des « boîtes noires », masquant les détails de leur fonctionnement. Ce manque de transparence soulève des enjeux. En effet, sans une compréhension claire du processus décisionnel, il devient difficile d’identifier, et encore moins de corriger, d’éventuelles erreurs. De plus, il est compliqué pour l’être humain de faire confiance à une IA qui délivre des résultats sans justification apparente.

Intelligence artificielle - IA - AI

L’importance de l’explicabilité

Dans des domaines où la prise de décision est critique, il est primordial de comprendre comment l’IA opère pour lui accorder notre confiance. L’absence d’explicabilité et de transparence est aujourd’hui un frein à l’intégration de l’IA dans ces secteurs sensibles. Prenons l’exemple d’un analyste de sécurité ; il a besoin de savoir pourquoi un comportement a été classé comme suspect et d’obtenir des rapports d’attaque approfondis avant d’engager une action aussi importante que de bloquer le trafic en provenance d’adresses IP spécifiques. Mais l’explicabilité ne profite pas uniquement aux utilisateurs finaux. Pour les ingénieurs et concepteurs de systèmes d’IA, elle simplifie la détection de potentielles erreurs du modèle de ML et évite les ajustements « à l’aveugle ». L’explicabilité est donc centrale dans la conception de systèmes fiables et dignes de confiance.

Comment rendre les IA explicables

Des modèles de ML comme les arbres de décision sont naturellement explicables. Bien qu’en général moins efficaces que des techniques de ML plus sophistiquées comme les réseaux neuronaux profonds, ils offrent une totale transparence.

Certaines techniques “post hoc”, telles que SHAP et LIME, ont été développées pour analyser et interpréter des modèles « boîte noire ». En modifiant les entrées et en observant les variations correspondantes dans les sorties, ces techniques permettent d’analyser et de déduire le fonctionnement de nombreux modèles existants.

L’approche “explainability-by-design » va au-delà des techniques post hoc en intégrant l’explicabilité dès la conception de systèmes d’IA. Plutôt que de chercher à expliquer les modèles a posteriori, l’ »explainability-by-design » s’assure que chaque étape du système est transparente et compréhensible. Cela peut impliquer l’utilisation de méthodes hybrides et permet la conception d’explications appropriées.

L’explicabilité en IA n’est donc pas un luxe, mais une nécessité, surtout dans des domaines sensibles comme la cybersécurité. Elle permet de gagner la confiance des utilisateurs mais aussi d’améliorer continuellement les systèmes de détection. Il s’agit d’un point essentiel à prendre en considération dans le choix d’une solution de sécurité.

Céline Minh - PHD Student - LAAS-CNRS | LinkedIn

Céline MINH, Ingénieure en IA chez Custocy

à lire aussi

Cybersécurité et assurance : une formation spécifique signée Conscio Technologies

Conscio Technologies, spécialiste de la sensibilisation à la cybersécurité,...

ACE modernise son système de gestion avec Eureka Solutions

Eureka Solutions accompagne ACE dans l’optimisation de ses processus de...

Sécuriser physiquement les équipements IT pour prolonger leur durée de vie

L’une des principales problématiques actuelles pour les gestionnaires de...

L’importance de la conformité réglementaire dans la gestion documentaire export

Dans un contexte de mondialisation croissante et d’échanges commerciaux...

Dans la même catégorie

Sécuriser physiquement les équipements IT pour prolonger leur durée de vie

L’une des principales problématiques actuelles pour les gestionnaires de...

L’importance de la conformité réglementaire dans la gestion documentaire export

Dans un contexte de mondialisation croissante et d’échanges commerciaux...

Comment protéger efficacement ses Identités et l’accès à ses ressources IT

Par Marc SCHMITT, Consultant senior Cybersécurité chez SASETY   Protection des...

Cloud et Datacenters Edge : quelles synergies en 2025 ?

Par Christian Zipp, CSO chez nLighten En 2025, l’industrie des...

Sécuriser la migration du RTC vers l’IP : points de vigilance

Passer du RTC aux solutions IP n’est pas si...

Ça pourrait vous interresser

Microsoft 365 : Comment protéger sa messagerie contre le spear phishing ?

Par Rebeca Rocha chez Altospam Le spear phishing est une technique d’attaque ciblée par e-mail qui vise spécifiquement des individus. C’est une attaque qui découle du phishing ou hameçonnage,...

IA et modernisation des processus IT : cas pratiques et tendances

Par Bertrand Pourcelot, DG Enreach for Service Providers L’IA s’invite aujourd’hui largement dans le quotidien des entreprises pour améliorer leur productivité et leur efficacité opérationnelle....

Optimisation des partenariats B2B via des offres exclusives par canal

Les entreprises B2B sont constamment tiraillées entre le potentiel de revenus des marketplaces comme Amazon et la nécessité de maintenir la paix avec leurs canaux établis. C’est un...