Tempo di lettura: 5 minuti e 50 secondi | Pubblicazione: 1° ottobre 2025
AI spiegabile Cosa è l'AI spiegabile, o XAI?
L'AI spiegabile è un insieme di processi e metodologie che consente agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di machine learning (ML) dell'intelligenza artificiale. La XAI fornisce le spiegazioni che accompagnano l'output di AI/ML per affrontare problematiche e timori che spaziano dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi. Questa "spiegabilità" è fondamentale per ottenere la fiducia e la sicurezza necessarie sul mercato al fine di ampliare l’adozione dell'intelligenza artificiale, con i benefici che ne derivano. Altre iniziative correlate ed emergenti includono l'AI affidabile e l'AI responsabile.
Come viene implementata l'AI spiegabile?
Il National Institute of Standards and Technology (NIST) degli Stati Uniti afferma che la XAI si basa su quattro principi.
- Spiegazione: i sistemi forniscono prove o motivazioni di accompagnamento per tutti gli output.
- Comprensibilità: i sistemi forniscono spiegazioni comprensibili ai singoli utenti.
- Accuratezza: il processo di generazione dell’output deve essere riflesso con precisione nella spiegazione.
- Limiti della conoscenza: il sistema opera solo entro i parametri per cui è stato progettato o quando l’output raggiunge un livello di confidenza sufficiente.
Il NIST osserva che le spiegazioni possono variare da semplici a complesse e dipendono dal consumatore in questione. L'agenzia ne illustra alcuni tipi servendosi delle seguenti cinque categorie di spiegabilità campione non esaustive.
- Vantaggio per l'utente
- Accettazione sociale
- Normative e compliance
- Sviluppo dei sistemi
- Vantaggio per il proprietario
Perché l'AI spiegabile è importante?
L'AI spiegabile è una componente fondamentale per accrescere, conquistare e mantenere la fiducia nei sistemi automatizzati. Senza fiducia, l'intelligenza artificiale, e in particolare l'AI per le operazioni IT (AIOps), non verrà pienamente adottata, lasciando che le dimensioni e la complessità dei sistemi moderni superino quanto è realizzabile con le operazioni manuali e l'automazione tradizionale.
La fiducia porta alla luce l'"AI-washing" ( la tendenza a presentare un prodotto o servizio come basato sull’intelligenza artificiale anche quando il suo ruolo è minimo o inesistente), assistendo sia i professionisti sia i clienti nelle procedure di due diligence sull'AI. Creare fiducia nell'intelligenza artificiale influisce sulla sua portata e velocità di adozione, che a loro volta determinano con quanta rapidità e a che livello ne verranno realizzati i benefici.
Quando si decide di affidare a un sistema il compito di trovare risposte o prendere decisioni, soprattutto quelle con impatti nel mondo reale, è fondamentale essere in grado di spiegare come un sistema arriva a una decisione, in che modo influenza un risultato o perché determinate azioni sono state ritenute necessarie.
Quali sono i vantaggi dell'AI spiegabile?
I vantaggi dell'AI spiegabile sono multidimensionali. Riguardano il processo decisionale informato, la riduzione dei rischi, l’aumento della fiducia e dell’adozione da parte degli utenti, il miglioramento della governance, il perfezionamento più rapido dei sistemi e l'evoluzione e l'utilità complessive dell'intelligenza artificiale nel mondo.
Quali problemi risolve l'AI spiegabile?
Molti modelli di AI e ML sono poco chiari e i loro output inspiegabili. Affinché le tecnologie AI conquistino fiducia, si evolvano e vengano adottate, è imperativo esporre e spiegare perché sono stati seguiti determinati percorsi o come sono stati generati gli output.
Portando alla luce i dati, i modelli e i processi, si forniscono informazioni e osservabilità per l'ottimizzazione del sistema mediante ragionamenti trasparenti e validi. Soprattutto, la spiegabilità consente una comunicazione più semplice e la successiva attenuazione o eliminazione di difetti, bias e rischi.
Come l'AI spiegabile crea trasparenza e fiducia
Per essere utili, i dati non elaborati iniziali devono dare origine a un'azione suggerita o eseguita. Chiedere a un utente di fidarsi di un flusso di lavoro completamente autonomo fin dall'inizio è una richiesta spesso azzardata, quindi è consigliabile farlo procedere attraverso i livelli di supporto dal basso verso l'alto. Analizzando gli eventi livello per livello, il flusso di lavoro dell'interfaccia utente (UI) arriva fino agli input non elaborati, favorendo la trasparenza e la fiducia.
Idealmente, un framework deve scavare abbastanza in profondità, in modo da rispondere allo scetticismo degli esperti del settore, consentendo al contempo ai principianti di saziare la loro curiosità. Questo impegno contribuisce a creare fiducia sia tra i principianti sia tra i più esperti, oltre ad aumentare la produttività e l'apprendimento. Crea anche un circolo virtuoso che può ulteriormente addestrare e perfezionare gli algoritmi di AI/ML per un miglioramento continuo del sistema.
Come utilizzare l'AI spiegabile per valutare e ridurre il rischio
Grazie al networking dei dati, con protocolli chiari e strutture di dati ben definite, l'intelligenza artificiale può fare progressi incredibili senza timore di discriminazioni o bias umani. In questo modo, le sue applicazioni possono essere ben delimitate e adottate in modo responsabile per gli spazi problematici neutrali, come la risoluzione dei problemi e la garanzia del servizio.
È fondamentale che il fornitore risponda ad alcune domande tecniche e operative di base per contribuire a individuare ed evitare le pratiche di AI washing. Come in ogni processo di due diligence o di approvvigionamento, il livello di dettaglio nelle risposte può offrire indicazioni preziose. Sebbene le risposte possano richiedere una valutazione tecnica, è comunque consigliabile raccoglierle per verificare la solidità delle affermazioni dei fornitori.
Proprio come avviene con tutte le tecnologie, i team di ingegneria e leadership stabiliscono criteri per valutare gli acquisti proposti e prendere decisioni correlate sulla base di prove. Per ridurre i rischi e facilitare la due diligence, ecco alcuni esempi di domande che possono porre i proprietari e gli utenti di sistemi di AI/ML.
- Quali algoritmi compongono e contribuiscono alla soluzione?
- Come vengono acquisiti e ripuliti i dati?
- Da dove provengono i dati (e sono personalizzati per tenancy, account o utente)?
- Come si definiscono i parametri e le funzionalità dello spazio di rete?
- In che modo i modelli vengono addestrati, riaddestrati e mantenuti aggiornati e pertinenti?
- Il sistema stesso può spiegare il suo ragionamento, i suoi suggerimenti o le sue azioni?
- Come si eliminano o si riducono i bias?
- In che modo la soluzione o la piattaforma migliora e si evolve automaticamente?
Inoltre, si consigliano sempre progetti pilota o sperimentazioni su servizi e sistemi di AI per convalidare le promesse o affermazioni.
L'AI spiegabile in azione presso HPE Networking
L'uso responsabile ed etico dell'intelligenza artificiale è un tema complesso che le organizzazioni non possono tuttavia ignorare. I principi di innovazione di Mist AI di HPE guidano l'uso dell'AI nei nostri servizi e prodotti. Disponiamo inoltre di un'ampia documentazione riguardante il nostro approccio AI/ML e AIOps. Sono inclusi tool che aiutano a rilevare e correggere le anomalie di rete migliorando al contempo le operazioni, come dati e primitive di intelligenza artificiale, risoluzione dei problemi basata sull'AI, interfacce e chatbot intelligenti.
La XAI può presentarsi sotto molte forme. Ad esempio, le funzionalità AIOps di HPE Networking includono l'esecuzione della gestione automatica delle risorse radio (RRM) nelle reti Wi-Fi e il rilevamento di problemi, come cavi di rete difettosi. Tramite agenti GenAI e AI avanzati, le operazioni possono abilitare selettivamente azioni a guida autonoma dal Marvis Actions Dashboard una volta stabilita la fiducia nelle azioni intraprese e nei risultati ottenuti.
Il core di Mist è composto dal motore Marvis AI e da Marvis AI Assistant. Marvis AI ridefinisce la modalità di interazione gestione delle reti da parte dei team IT. Grazie all'integrazione dell'AI agentica, Marvis AI è in grado di ragionare, collaborare e agire negli ambienti complessi, rendendo la visione della rete a guida autonoma sempre più realistica.
Un componente di Marvis AI Assistant è la Marvis Conversational Interface, che utilizza LLM avanzati, AI generativa e NLU/NLP per consentire ai team IT di porre domande in linguaggio naturale e ricevere risposte chiare e fruibili. Comprende le intenzioni dell'utente, coinvolge agenti specializzati e orchestra i flussi di lavoro in più fasi per diagnosticare i problemi e, se autorizzata, risolverli autonomamente. I report generati riepilogano le azioni intraprese e i risultati ottenuti per documentare il valore e creare fiducia con gli utenti. Questa combinazione di intelligenza conversazionale e automazione consente ai team IT di operare in modo più efficiente, ridurre i tempi di risoluzione e concentrarsi sulle iniziative strategiche che promuovono l'innovazione.
Domande frequenti sull'AI spiegabile
Cosa si intende per AI spiegabile?
L'AI spiegabile è un insieme di processi e metodologie che consentono agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di AI/ML. Le spiegazioni che accompagnano l'output di AI/ML possono rivolgersi a utenti, operatori o sviluppatori e mirano ad affrontare problematiche e timori che vanno dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi.
Cos'è un modello di AI spiegabile?
Un modello di AI spiegabile è un modello con caratteristiche o proprietà che semplificano la trasparenza e la facilità di comprensione e offrono la possibilità di mettere in discussione o interrogare gli output dell’AI.
Esiste un'AI spiegabile?
Sì, pur essendo ai primi passi a causa delle definizioni ancora in evoluzione. Sebbene sia più difficile implementarla su modelli AI/ML complessi o misti con numerose funzionalità o fasi, la XAI si sta rapidamente diffondendo nei prodotti e nei servizi per creare fiducia negli utenti e contribuire ad accelerare lo sviluppo.
Che cosa si intende per spiegabilità nel deep learning?
Il deep learning è talvolta considerato una "scatola nera", il che significa che può essere difficile comprendere il comportamento del suo modello e il modo in cui arriva alle decisioni. La spiegabilità mira a facilitare le spiegazioni basate sul deep learning: una tecnica utilizzata a tale fine si avvale dei valori di Shapley (SHAP). I valori SHAP possono spiegare previsioni specifiche evidenziando le caratteristiche coinvolte nella previsione. Al momento sono in corso ricerche per valutare diversi metodi di spiegazione.