AI spiegabile
Cosa è l'AI spiegabile, o XAI?

L'AI spiegabile è un insieme di processi e metodologie che consente agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di machine learning (ML) dell'intelligenza artificiale. La XAI fornisce le spiegazioni che accompagnano l'output di AI/ML per affrontare problematiche e timori che spaziano dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi. Questa "spiegabilità" è fondamentale per ottenere la fiducia e la sicurezza necessarie sul mercato al fine di ampliare l’adozione dell'intelligenza artificiale, con i benefici che ne derivano. Altre iniziative correlate ed emergenti includono l'AI affidabile e l'AI responsabile. 

Tempo di lettura: 5 minuti e 50 secondi | Pubblicazione: 1° ottobre 2025

Indice

    Come viene implementata l'AI spiegabile?

    Il National Institute of Standards and Technology (NIST) degli Stati Uniti afferma che la XAI si basa su quattro principi.

    • Spiegazione: i sistemi forniscono prove o motivazioni di accompagnamento per tutti gli output.
    • Comprensibilità: i sistemi forniscono spiegazioni comprensibili ai singoli utenti.
    • Accuratezza: il processo di generazione dell’output deve essere riflesso con precisione nella spiegazione.
    • Limiti della conoscenza: il sistema opera solo entro i parametri per cui è stato progettato o quando l’output raggiunge un livello di confidenza sufficiente.

    Il NIST osserva che le spiegazioni possono variare da semplici a complesse e dipendono dal consumatore in questione. L'agenzia ne illustra alcuni tipi servendosi delle seguenti cinque categorie di spiegabilità campione non esaustive.

    • Vantaggio per l'utente
    • Accettazione sociale
    • Normative e compliance
    • Sviluppo dei sistemi
    • Vantaggio per il proprietario

    Perché l'AI spiegabile è importante?

    L'AI spiegabile è una componente fondamentale per accrescere, conquistare e mantenere la fiducia nei sistemi automatizzati. Senza fiducia, l'intelligenza artificiale, e in particolare l'AI per le operazioni IT (AIOps), non verrà pienamente adottata, lasciando che le dimensioni e la complessità dei sistemi moderni superino quanto è realizzabile con le operazioni manuali e l'automazione tradizionale.

    La fiducia porta alla luce l'"AI-washing" ( la tendenza a presentare un prodotto o servizio come basato sull’intelligenza artificiale anche quando il suo ruolo è minimo o inesistente), assistendo sia i professionisti sia i clienti nelle procedure di due diligence sull'AI. Creare fiducia nell'intelligenza artificiale influisce sulla sua portata e velocità di adozione, che a loro volta determinano con quanta rapidità e a che livello ne verranno realizzati i benefici.

    Quando si decide di affidare a un sistema il compito di trovare risposte o prendere decisioni, soprattutto quelle con impatti nel mondo reale, è fondamentale essere in grado di spiegare come un sistema arriva a una decisione, in che modo influenza un risultato o perché determinate azioni sono state ritenute necessarie.

    Quali sono i vantaggi dell'AI spiegabile?

    I vantaggi dell'AI spiegabile sono multidimensionali. Riguardano il processo decisionale informato, la riduzione dei rischi, l’aumento della fiducia e dell’adozione da parte degli utenti, il miglioramento della governance, il perfezionamento più rapido dei sistemi e l'evoluzione e l'utilità complessive dell'intelligenza artificiale nel mondo. 

    Quali problemi risolve l'AI spiegabile?

    Molti modelli di AI e ML sono poco chiari e i loro output inspiegabili. Affinché le tecnologie AI conquistino fiducia, si evolvano e vengano adottate, è imperativo esporre e spiegare perché sono stati seguiti determinati percorsi o come sono stati generati gli output.

    Portando alla luce i dati, i modelli e i processi, si forniscono informazioni e osservabilità per l'ottimizzazione del sistema mediante ragionamenti trasparenti e validi. Soprattutto, la spiegabilità consente una comunicazione più semplice e la successiva attenuazione o eliminazione di difetti, bias e rischi.

    Il flusso di dati in un diagramma di interfaccia utente basato sull'AI.

    Come l'AI spiegabile crea trasparenza e fiducia

    Per essere utili, i dati non elaborati iniziali devono dare origine a un'azione suggerita o eseguita. Chiedere a un utente di fidarsi di un flusso di lavoro completamente autonomo fin dall'inizio è una richiesta spesso azzardata, quindi è consigliabile farlo procedere attraverso i livelli di supporto dal basso verso l'alto. Analizzando gli eventi livello per livello, il flusso di lavoro dell'interfaccia utente (UI) arriva fino agli input non elaborati, favorendo la trasparenza e la fiducia.

    Idealmente, un framework deve scavare abbastanza in profondità, in modo da rispondere allo scetticismo degli esperti del settore, consentendo al contempo ai principianti di saziare la loro curiosità. Questo impegno contribuisce a creare fiducia sia tra i principianti sia tra i più esperti, oltre ad aumentare la produttività e l'apprendimento. Crea anche un circolo virtuoso che può ulteriormente addestrare e perfezionare gli algoritmi di AI/ML per un miglioramento continuo del sistema.

    Come utilizzare l'AI spiegabile per valutare e ridurre il rischio

    Grazie al networking dei dati, con protocolli chiari e strutture di dati ben definite, l'intelligenza artificiale può fare progressi incredibili senza timore di discriminazioni o bias umani. In questo modo, le sue applicazioni possono essere ben delimitate e adottate in modo responsabile per gli spazi problematici neutrali, come la risoluzione dei problemi e la garanzia del servizio.

    È fondamentale che il fornitore risponda ad alcune domande tecniche e operative di base per contribuire a individuare ed evitare le pratiche di AI washing. Come in ogni processo di due diligence o di approvvigionamento, il livello di dettaglio nelle risposte può offrire indicazioni preziose. Sebbene le risposte possano richiedere una valutazione tecnica, è comunque consigliabile raccoglierle per verificare la solidità delle affermazioni dei fornitori.

    Proprio come avviene con tutte le tecnologie, i team di ingegneria e leadership stabiliscono criteri per valutare gli acquisti proposti e prendere decisioni correlate sulla base di prove. Per ridurre i rischi e facilitare la due diligence, ecco alcuni esempi di domande che possono porre i proprietari e gli utenti di sistemi di AI/ML.

    • Quali algoritmi compongono e contribuiscono alla soluzione?
    • Come vengono acquisiti e ripuliti i dati?
    • Da dove provengono i dati (e sono personalizzati per tenancy, account o utente)?
    • Come si definiscono i parametri e le funzionalità dello spazio di rete?
    • In che modo i modelli vengono addestrati, riaddestrati e mantenuti aggiornati e pertinenti?
    • Il sistema stesso può spiegare il suo ragionamento, i suoi suggerimenti o le sue azioni?
    • Come si eliminano o si riducono i bias?
    • In che modo la soluzione o la piattaforma migliora e si evolve automaticamente?

    Inoltre, si consigliano sempre progetti pilota o sperimentazioni su servizi e sistemi di AI per convalidare le promesse o affermazioni.

    L'AI spiegabile in azione presso HPE Networking

    L'uso responsabile ed etico dell'intelligenza artificiale è un tema complesso che le organizzazioni non possono tuttavia ignorare. I principi di innovazione di Mist AI di HPE guidano l'uso dell'AI nei nostri servizi e prodotti. Disponiamo inoltre di un'ampia documentazione riguardante il nostro approccio AI/ML e AIOps. Sono inclusi tool che aiutano a rilevare e correggere le anomalie di rete migliorando al contempo le operazioni, come dati e primitive di intelligenza artificiale, risoluzione dei problemi basata sull'AI, interfacce e chatbot intelligenti.

    La XAI può presentarsi sotto molte forme. Ad esempio, le funzionalità AIOps di HPE Networking includono l'esecuzione della gestione automatica delle risorse radio (RRM) nelle reti Wi-Fi e il rilevamento di problemi, come cavi di rete difettosi. Tramite agenti GenAI e AI avanzati, le operazioni possono abilitare selettivamente azioni a guida autonoma dal Marvis Actions Dashboard una volta stabilita la fiducia nelle azioni intraprese e nei risultati ottenuti.

     Il core di Mist è composto dal motore Marvis AI e da Marvis AI Assistant. Marvis AI ridefinisce la modalità di interazione gestione delle reti da parte dei team IT. Grazie all'integrazione dell'AI agentica, Marvis AI è in grado di ragionare, collaborare e agire negli ambienti complessi, rendendo la visione della rete a guida autonoma sempre più realistica. 

    Un componente di Marvis AI Assistant è la Marvis Conversational Interface, che utilizza LLM avanzati, AI generativa e NLU/NLP per consentire ai team IT di porre domande in linguaggio naturale e ricevere risposte chiare e fruibili. Comprende le intenzioni dell'utente, coinvolge agenti specializzati e orchestra i flussi di lavoro in più fasi per diagnosticare i problemi e, se autorizzata, risolverli autonomamente. I report generati riepilogano le azioni intraprese e i risultati ottenuti per documentare il valore e creare fiducia con gli utenti.  Questa combinazione di intelligenza conversazionale e automazione consente ai team IT di operare in modo più efficiente, ridurre i tempi di risoluzione e concentrarsi sulle iniziative strategiche che promuovono l'innovazione.

    Domande frequenti sull'AI spiegabile

    Cosa si intende per AI spiegabile?

    L'AI spiegabile è un insieme di processi e metodologie che consentono agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di AI/ML. Le spiegazioni che accompagnano l'output di AI/ML possono rivolgersi a utenti, operatori o sviluppatori e mirano ad affrontare problematiche e timori che vanno dall'adozione da parte degli utenti alla governance e allo sviluppo dei sistemi.

    Cos'è un modello di AI spiegabile?

    Un modello di AI spiegabile è un modello con caratteristiche o proprietà che semplificano la trasparenza e la facilità di comprensione e offrono la possibilità di mettere in discussione o interrogare gli output dell’AI. 

    Esiste un'AI spiegabile?

    Sì, pur essendo ai primi passi a causa delle definizioni ancora in evoluzione. Sebbene sia più difficile implementarla su modelli AI/ML complessi o misti con numerose funzionalità o fasi, la XAI si sta rapidamente diffondendo nei prodotti e nei servizi per creare fiducia negli utenti e contribuire ad accelerare lo sviluppo.

    Che cosa si intende per spiegabilità nel deep learning?

    Il deep learning è talvolta considerato una "scatola nera", il che significa che può essere difficile comprendere il comportamento del suo modello e il modo in cui arriva alle decisioni. La spiegabilità mira a facilitare le spiegazioni basate sul deep learning: una tecnica utilizzata a tale fine si avvale dei valori di Shapley (SHAP). I valori SHAP possono spiegare previsioni specifiche evidenziando le caratteristiche coinvolte nella previsione. Al momento sono in corso ricerche per valutare diversi metodi di spiegazione.

    Prodotti, soluzioni o servizi HPE correlati

    Mist

    Marvis AI

    Assistente Marvis AI

    Marvis Minis

    Reti di data center AI

    Marvis AI Assistant per data center

    Argomenti correlati