Temps de lecture : 5 minutes 50 secondes | Publication : 1er octobre 2025
IA explicable Qu’est-ce que l’IA explicable (ou XAI) ?
L’IA explicable est un ensemble de processus et de méthodes qui permettent aux utilisateurs de comprendre et de se fier aux résultats et aux informations générées par les algorithmes de machine learning (ML) de l’IA. Les explications qui accompagnent les résultats de l’IA/ML sont conçues pour résoudre des problèmes et relever des défis tels que l’adoption par les utilisateurs, la gouvernance et le développement de systèmes. Ce caractère « explicable » est essentiel pour permettre à l’IA de susciter la confiance indispensable sur le marché afin d’encourager une large adoption de l’IA et de tirer profit de celle-ci. Parmi les initiatives connexes et émergentes, on peut citer l’IA fiable et l’IA responsable.
Comment l’IA explicable est-elle implémentée ?
Le National Institute of Standards and Technology (NIST) des États-Unis affirme que quatre principes régissent la XAI :
- Explication : Les systèmes fournissent des preuves ou des motifs qui accompagnent tous les résultats.
- Pertinence : Les systèmes fournissent des explications que les utilisateurs peuvent comprendre.
- Exactitude des explications : Les explications fournies traduisent parfaitement le processus du système pour produire les résultats.
- Limites de connaissances : Le système ne fonctionne que dans les conditions prévues ou lorsque ses résultats ont atteint un niveau de confiance suffisant.
Le NIST note que les explications peuvent aller du plus simple au plus complexe en fonction du consommateur concerné. L’agence illustre certains types d’explications en se servant de ces cinq catégories d’explication non exhaustives :
- Avantage pour les utilisateurs
- Acceptation sociale
- Réglementation et conformité
- Développement de systèmes
- Avantage pour les propriétaires
Pourquoi l’IA explicable est-elle importante ?
L’IA explicable est un élément essentiel pour développer, gagner et garantir la confiance dans les systèmes automatisés. Faute de confiance, l’IA, et plus particulièrement l’AIOps (AI for IT Operations), ne sera pas pleinement adoptée, si bien que l’échelle et la complexité des systèmes modernes dépasseront ce qu’il est possible de réaliser avec des opérations manuelles et l’automatisation traditionnelle.
Lorsque la confiance est installée, la pratique de l’« AI washing » (consistant à dire qu’un produit ou un service s’appuie sur l’IA alors que le rôle de celle-ci est limité, voire inexistant) devient une évidence. Les utilisateurs et les clients peuvent ainsi faire preuve de diligence raisonnable en matière d’IA. La confiance dans l’IA a un impact sur l’ampleur et la rapidité de son adoption, qui détermine à son tour la rapidité et la portée de ses avantages.
Lorsque vous demandez à un système de trouver des réponses ou de prendre des décisions, notamment celles qui ont un impact sur le monde réel, vous devez être en mesure d’expliquer comment il parvient à une décision, comment il influence un résultat ou pourquoi des actions ont été jugées nécessaires.
Quels sont les bénéfices de l’IA explicable ?
Les avantages de l’IA explicable sont multidimensionnels. L’IA informe la prise de décisions, réduit les risques, améliore le niveau de confiance et l’adoption par les utilisateurs, renforce la gouvernance, accélère l’amélioration des systèmes et, en évoluant, devient de plus en plus utile de manière générale.
À quels problèmes l’IA explicable apporte-t-elle une solution ?
De nombreux modèles d’IA et de ML sont opaques, et leurs résultats sont inexplicables. Il est essentiel de pouvoir exposer et expliquer les raisons pour lesquelles certains chemins sont suivis ou la façon dont les résultats sont générés, car la confiance, l’évolution et l’adoption des technologies d’IA en dépendent.
La transparence des données, des modèles et des processus permet de mieux comprendre et observer ces systèmes – et, par conséquent, de les optimiser grâce à un raisonnement clair et valide. Plus important encore, l’explicabilité signaler plus facilement les défauts, les biais et les risques, puis de les atténuer ou les supprimer.
Comment l’IA explicable favorise-t-elle la transparence et la confiance ?
Pour être exploitables, les données brutes initiales doivent déboucher sur une action suggérée ou exécutée. Bien souvent, il est exagéré de demander à un utilisateur de faire confiance à un workflow entièrement autonome dès le départ. Il vaut donc mieux lui permettre de parcourir ses différentes couches de bas en haut. En analysant les événements niveau par niveau, le workflow de l’interface utilisateur (IU) permet d’éplucher les couches jusqu’aux données brutes. Cela favorise la transparence et suscite la confiance. Cela facilite la transparence et la confiance.
Un framework doit être assez approfondi pour apaiser les doutes des experts du domaine tout en permettant aux novices d’explorer au gré de leur curiosité. Cela permet d’établir la confiance tant chez les débutants que chez les experts chevronnés, et augmente ainsi la productivité et l’apprentissage. Cet engagement constitue également un cycle vertueux qui peut entraîner et perfectionner davantage les algorithmes de l’IA/ML pour améliorer continuellement le système.
Comment utiliser l’IA explicable pour évaluer et réduire les risques ?
La mise en réseau des données, avec ses protocoles et ses structures de données bien définis, signifie que l’IA peut faire des progrès spectaculaires sans craindre la discrimination ou les préjugés humains. Face à des problèmes neutres tels que le dépannage et l’assurance des services, l’application de l’IA peut être clairement définie et adoptée de manière responsable.
Votre fournisseur doit impérativement répondre à certaines questions techniques et opérationnelles de base afin de démasquer et éviter l’AI washing. Comme toujours lorsqu’il s’agit de vérification et d’approvisionnement, le niveau de détail des réponses peut révéler des informations importantes. Les réponses nécessiteront peut-être une interprétation technique, mais elles vous permettront de vous assurer que les réclamations des vendeurs sont viables.
Comme pour toute technologie, les équipes d’ingénierie et de direction définissent des critères pour évaluer les propositions d’achat, qui permettent d’étayer les décisions correspondantes. Pour réduire les risques et dissiper les doutes, voici quelques exemples de questions que les propriétaires et les utilisateurs de l’IA/ML doivent poser :
- Quels algorithmes forment la solution et y contribuent ?
- Comment les données sont-elles ingérées et nettoyées ?
- D’où proviennent les données (et sont-elles personnalisées par locataire, compte ou utilisateur) ?
- Comment les paramètres et les fonctionnalités sont-ils conçus à partir de l’espace réseau ?
- Comment les modèles sont-ils entraînés, réentraînés et maintenus à jour pour garantir leur pertinence ?
- Le système est-il capable d’expliquer ses raisonnements, ses recommandations ou ses actions ?
- Comment les biais sont-ils éliminés ou réduits ?
- Comment la solution ou la plateforme s’améliore-t-elle et évolue-t-elle automatiquement ?
En outre, les pilotes ou les essais sont toujours recommandés pour valider les engagements ou les affirmations relatives aux services ou aux systèmes d’IA.
L’IA explicable en action chez HPE Networking
L’utilisation responsable et éthique de l’IA est un sujet certes complexe, mais les entreprises doivent l’aborder. Les principes d’innovation de HPE Mist AI orientent l’utilisation de l’IA dans nos services et produits. Nous avons également produit une abondante documentation sur l’IA/ML et sur notre approche AIOps. Celle-ci couvre notamment les outils de détection et résolution des anomalies réseau et d’amélioration des opérations, notamment les données et primitives d’intelligence artificielle, la résolution des problèmes assistée par l’IA, les interfaces et les agents conversationnels intelligents.
La XAI peut se présenter sous de nombreuses formes. Par exemple, les fonctionnalités HPE Networking AIOps incluent la gestion automatique des ressources radio (RRM) dans les réseaux Wi-Fi et la détection de problèmes (par exemple, un câble réseau défectueux). Grâce à des agents de GenAI et d’IA avancés, les équipes des opérations peuvent activer de manière sélective des actions autonomes et autopilotées à partir du tableau de bord Marvis Actions une fois que la confiance dans les actions entreprises et leurs résultats a été établie.
Au cœur de Mist se trouvent le moteur Marvis AI ainsi que Marvis AI Assistant. Marvis AI redéfinit la manière dont les équipes informatiques interagissent avec leurs réseaux et les exploitent. Grâce à l’intégration de l’IA agentique, Marvis AI est capable de raisonner, de collaborer et d’agir dans des environnements complexes, rapprochant ainsi la vision du réseau autonome de la réalité.
L’un des composants de Marvis AI Assistant est l’interface conversationnelle Marvis, qui utilise des LLM avancés, une IA générative et le NLU/NLP pour permettre aux équipes informatiques de poser des questions en langage naturel et de recevoir des réponses claires et exploitables. Cette interface comprend l’intention de l’utilisateur, fait intervenir des agents spécialisés et orchestre des workflows multi-étapes pour diagnostiquer les problèmes et, lorsqu’elle y est autorisée, résoudre les problèmes de manière autonome. Les rapports générés résument les actions entreprises et les résultats obtenus pour documenter la valeur ajoutée et renforcer la confiance des utilisateurs. Cette combinaison d’intelligence conversationnelle et d’automatisation permet aux équipes informatiques de fonctionner plus efficacement, de réduire les délais de résolution et de se concentrer sur les initiatives stratégiques qui stimulent l’innovation.
FAQ sur l’IA explicable
Qu’entend-on par IA explicable ?
L’IA explicable est un ensemble de processus et de méthodes qui permettent aux utilisateurs de comprendre et de se fier aux résultats et aux informations générés par les algorithmes d’IA/ML. Les explications qui accompagnent les résultats de l’IA/ML peuvent être destinées aux utilisateurs, aux opérateurs ou aux développeurs. Elles sont conçues pour résoudre des problèmes et relever des défis tels que l’adoption par les utilisateurs, la gouvernance et le développement de systèmes.
Qu’est-ce qu’un modèle d’IA explicable ?
Un modèle d’IA explicable possède des caractéristiques ou des propriétés qui favorisent la transparence, la facilité de compréhension et la possibilité de remettre en question ou d’interroger les résultats de l’IA.
L’IA explicable existe-t-elle ?
Oui, bien qu’il s’agisse d’une forme primitive dans la mesure où des définitions sont encore en évolution. Bien qu’il soit plus difficile de mettre en œuvre l’IA sur des modèles complexes ou mixtes d’IA/ML comportant un grand nombre de fonctions ou de phases, l’IA trouve rapidement sa place au niveau des produits et des services, où elle permet de renforcer la confiance des utilisateurs et d’accélérer le développement.
Qu’est-ce que l’explicabilité du deep learning ?
Le deep learning est parfois considéré comme une « boîte noire », ce qui signifie qu’il peut être difficile de comprendre le comportement de son modèle et la façon dont il prend ses décisions. L’explicabilité a pour but de faciliter la compréhension du deep learning. L’une des techniques utilisées pour expliquer les modèles de deep learning s’appelle Shapley (SHAP). Les valeurs SHAP peuvent expliquer des prédictions spécifiques en mettant en évidence les caractéristiques impliquées dans la prévision. Des recherches sont en cours pour évaluer les différentes méthodes d’explication.