Tempo di lettura: 5 minuti e 50 secondi | Pubblicazione: 1° ottobre 2025

AI spiegabile
Cosa è l'AI spiegabile, o XAI?

L'AI spiegabile è un insieme di processi e metodologie che consente agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di machine learning (ML) dell'intelligenza artificiale. La XAI fornisce le spiegazioni che accompagnano l'output di AI/ML per affrontare problematiche e timori che spaziano dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi. Questa "spiegabilità" è fondamentale per ottenere la fiducia e la sicurezza necessarie sul mercato al fine di ampliare l’adozione dell'intelligenza artificiale, con i benefici che ne derivano. Altre iniziative correlate ed emergenti includono l'AI affidabile e l'AI responsabile. 

Persone d'affari parlano in un ufficio.

Passa a

Come viene implementata l'AI spiegabile?

Il National Institute of Standards and Technology (NIST) degli Stati Uniti afferma che la XAI si basa su quattro principi.

  • Spiegazione: i sistemi forniscono prove o motivazioni di accompagnamento per tutti gli output.
  • Comprensibilità: i sistemi forniscono spiegazioni comprensibili ai singoli utenti.
  • Accuratezza: il processo di generazione dell’output deve essere riflesso con precisione nella spiegazione.
  • Limiti della conoscenza: il sistema opera solo entro i parametri per cui è stato progettato o quando l’output raggiunge un livello di confidenza sufficiente.

Il NIST osserva che le spiegazioni possono variare da semplici a complesse e dipendono dal consumatore in questione. L'agenzia ne illustra alcuni tipi servendosi delle seguenti cinque categorie di spiegabilità campione non esaustive.

  • Vantaggio per l'utente
  • Accettazione sociale
  • Normative e compliance
  • Sviluppo dei sistemi
  • Vantaggio per il proprietario

Perché l'AI spiegabile è importante?

L'AI spiegabile è una componente fondamentale per accrescere, conquistare e mantenere la fiducia nei sistemi automatizzati. Senza fiducia, l'intelligenza artificiale, e in particolare l'AI per le operazioni IT (AIOps), non verrà pienamente adottata, lasciando che le dimensioni e la complessità dei sistemi moderni superino quanto è realizzabile con le operazioni manuali e l'automazione tradizionale.

La fiducia porta alla luce l'"AI-washing" ( la tendenza a presentare un prodotto o servizio come basato sull’intelligenza artificiale anche quando il suo ruolo è minimo o inesistente), assistendo sia i professionisti sia i clienti nelle procedure di due diligence sull'AI. Creare fiducia nell'intelligenza artificiale influisce sulla sua portata e velocità di adozione, che a loro volta determinano con quanta rapidità e a che livello ne verranno realizzati i benefici.

Quando si decide di affidare a un sistema il compito di trovare risposte o prendere decisioni, soprattutto quelle con impatti nel mondo reale, è fondamentale essere in grado di spiegare come un sistema arriva a una decisione, in che modo influenza un risultato o perché determinate azioni sono state ritenute necessarie.

Quali sono i vantaggi dell'AI spiegabile?

I vantaggi dell'AI spiegabile sono multidimensionali. Riguardano il processo decisionale informato, la riduzione dei rischi, l’aumento della fiducia e dell’adozione da parte degli utenti, il miglioramento della governance, il perfezionamento più rapido dei sistemi e l'evoluzione e l'utilità complessive dell'intelligenza artificiale nel mondo. 

Quali problemi risolve l'AI spiegabile?

Molti modelli di AI e ML sono poco chiari e i loro output inspiegabili. Affinché le tecnologie AI conquistino fiducia, si evolvano e vengano adottate, è imperativo esporre e spiegare perché sono stati seguiti determinati percorsi o come sono stati generati gli output.

Portando alla luce i dati, i modelli e i processi, si forniscono informazioni e osservabilità per l'ottimizzazione del sistema mediante ragionamenti trasparenti e validi. Soprattutto, la spiegabilità consente una comunicazione più semplice e la successiva attenuazione o eliminazione di difetti, bias e rischi.

Il flusso di dati in un diagramma di interfaccia utente basato sull'AI.

Come l'AI spiegabile crea trasparenza e fiducia

Per essere utili, i dati non elaborati iniziali devono dare origine a un'azione suggerita o eseguita. Chiedere a un utente di fidarsi di un flusso di lavoro completamente autonomo fin dall'inizio è una richiesta spesso azzardata, quindi è consigliabile farlo procedere attraverso i livelli di supporto dal basso verso l'alto. Analizzando gli eventi livello per livello, il flusso di lavoro dell'interfaccia utente (UI) arriva fino agli input non elaborati, favorendo la trasparenza e la fiducia.

Idealmente, un framework deve scavare abbastanza in profondità, in modo da rispondere allo scetticismo degli esperti del settore, consentendo al contempo ai principianti di saziare la loro curiosità. Questo impegno contribuisce a creare fiducia sia tra i principianti sia tra i più esperti, oltre ad aumentare la produttività e l'apprendimento. Crea anche un circolo virtuoso che può ulteriormente addestrare e perfezionare gli algoritmi di AI/ML per un miglioramento continuo del sistema.

Come utilizzare l'AI spiegabile per valutare e ridurre il rischio

Grazie al networking dei dati, con protocolli chiari e strutture di dati ben definite, l'intelligenza artificiale può fare progressi incredibili senza timore di discriminazioni o bias umani. In questo modo, le sue applicazioni possono essere ben delimitate e adottate in modo responsabile per gli spazi problematici neutrali, come la risoluzione dei problemi e la garanzia del servizio.

È fondamentale che il fornitore risponda ad alcune domande tecniche e operative di base per contribuire a individuare ed evitare le pratiche di AI washing. Come in ogni processo di due diligence o di approvvigionamento, il livello di dettaglio nelle risposte può offrire indicazioni preziose. Sebbene le risposte possano richiedere una valutazione tecnica, è comunque consigliabile raccoglierle per verificare la solidità delle affermazioni dei fornitori.

Proprio come avviene con tutte le tecnologie, i team di ingegneria e leadership stabiliscono criteri per valutare gli acquisti proposti e prendere decisioni correlate sulla base di prove. Per ridurre i rischi e facilitare la due diligence, ecco alcuni esempi di domande che possono porre i proprietari e gli utenti di sistemi di AI/ML.

  • Quali algoritmi compongono e contribuiscono alla soluzione?
  • Come vengono acquisiti e ripuliti i dati?
  • Da dove provengono i dati (e sono personalizzati per tenancy, account o utente)?
  • Come si definiscono i parametri e le funzionalità dello spazio di rete?
  • In che modo i modelli vengono addestrati, riaddestrati e mantenuti aggiornati e pertinenti?
  • Il sistema stesso può spiegare il suo ragionamento, i suoi suggerimenti o le sue azioni?
  • Come si eliminano o si riducono i bias?
  • In che modo la soluzione o la piattaforma migliora e si evolve automaticamente?

Inoltre, si consigliano sempre progetti pilota o sperimentazioni su servizi e sistemi di AI per convalidare le promesse o affermazioni.

L'AI spiegabile in azione presso HPE Networking

L'uso responsabile ed etico dell'intelligenza artificiale è un tema complesso che le organizzazioni non possono tuttavia ignorare. I principi di innovazione di Mist AI di HPE guidano l'uso dell'AI nei nostri servizi e prodotti. Disponiamo inoltre di un'ampia documentazione riguardante il nostro approccio AI/ML e AIOps. Sono inclusi tool che aiutano a rilevare e correggere le anomalie di rete migliorando al contempo le operazioni, come dati e primitive di intelligenza artificiale, risoluzione dei problemi basata sull'AI, interfacce e chatbot intelligenti.

La XAI può presentarsi sotto molte forme. Ad esempio, le funzionalità AIOps di HPE Networking includono l'esecuzione della gestione automatica delle risorse radio (RRM) nelle reti Wi-Fi e il rilevamento di problemi, come cavi di rete difettosi. Tramite agenti GenAI e AI avanzati, le operazioni possono abilitare selettivamente azioni a guida autonoma dal Marvis Actions Dashboard una volta stabilita la fiducia nelle azioni intraprese e nei risultati ottenuti.

 Il core di Mist è composto dal motore Marvis AI e da Marvis AI Assistant. Marvis AI ridefinisce la modalità di interazione gestione delle reti da parte dei team IT. Grazie all'integrazione dell'AI agentica, Marvis AI è in grado di ragionare, collaborare e agire negli ambienti complessi, rendendo la visione della rete a guida autonoma sempre più realistica. 

Un componente di Marvis AI Assistant è la Marvis Conversational Interface, che utilizza LLM avanzati, AI generativa e NLU/NLP per consentire ai team IT di porre domande in linguaggio naturale e ricevere risposte chiare e fruibili. Comprende le intenzioni dell'utente, coinvolge agenti specializzati e orchestra i flussi di lavoro in più fasi per diagnosticare i problemi e, se autorizzata, risolverli autonomamente. I report generati riepilogano le azioni intraprese e i risultati ottenuti per documentare il valore e creare fiducia con gli utenti.  Questa combinazione di intelligenza conversazionale e automazione consente ai team IT di operare in modo più efficiente, ridurre i tempi di risoluzione e concentrarsi sulle iniziative strategiche che promuovono l'innovazione.

Domande frequenti sull'AI spiegabile

Cosa si intende per AI spiegabile?

L'AI spiegabile è un insieme di processi e metodologie che consentono agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di AI/ML. Le spiegazioni che accompagnano l'output di AI/ML possono rivolgersi a utenti, operatori o sviluppatori e mirano ad affrontare problematiche e timori che vanno dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi.

Cos'è un modello di AI spiegabile?

Un modello di AI spiegabile è un modello con caratteristiche o proprietà che semplificano la trasparenza e la facilità di comprensione e offrono la possibilità di mettere in discussione o interrogare gli output dell’AI. 

Esiste un'AI spiegabile?

Sì, pur essendo ai primi passi a causa delle definizioni ancora in evoluzione. Sebbene sia più difficile implementarla su modelli AI/ML complessi o misti con numerose funzionalità o fasi, la XAI si sta rapidamente diffondendo nei prodotti e nei servizi per creare fiducia negli utenti e contribuire ad accelerare lo sviluppo.

Che cosa si intende per spiegabilità nel deep learning?

Il deep learning è talvolta considerato una "scatola nera", il che significa che può essere difficile comprendere il comportamento del suo modello e il modo in cui arriva alle decisioni. La spiegabilità mira a facilitare le spiegazioni basate sul deep learning: una tecnica utilizzata a tale fine si avvale dei valori di Shapley (SHAP). I valori SHAP possono spiegare previsioni specifiche evidenziando le caratteristiche coinvolte nella previsione. Al momento sono in corso ricerche per valutare diversi metodi di spiegazione.

Prodotti, soluzioni o servizi HPE correlati

Mist

Marvis AI

Assistente Marvis AI

Marvis Minis

Reti di data center AI

Marvis AI Assistant per data center

Argomenti correlati

intelligenza artificiale (AI)

AIOps

AI nel networking

AI agentica

Rete AI-native

Osservabilità della rete