Lesezeit: 5 Minuten 50 Sekunden | Veröffentlicht: 1. Oktober 2025
Erklärbare KI Was ist erklärbare KI oder XAI?
Unter erklärbarer KI versteht man eine Reihe von Prozessen und Methoden, die es Benutzern ermöglichen, die von den Algorithmen des maschinellen Lernens (ML) der KI erstellten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen. XAI liefert die Erklärungen zur Ausgabe von KI/ML, um auf Bedenken und Herausforderungen einzugehen, die von der Benutzerakzeptanz bis hin zu Governance und Systementwicklung reichen. Diese „Erklärbarkeit“ ist von zentraler Bedeutung, um das Vertrauen und die Zuversicht zu gewinnen, die auf dem Markt erforderlich sind, um eine breite Akzeptanz und einen breiten Nutzen von KI zu fördern. Zu den weiteren damit verbundenen und neu entstehenden Initiativen zählen vertrauenswürdige KI und verantwortungsvolle KI.
Wie wird erklärbare KI implementiert?
Das US-amerikanische National Institute of Standards and Technology (NIST) gibt an, dass XAI von vier Prinzipien angetrieben wird:
- Erklärung: Systeme liefern begleitende Beweise oder Gründe für alle Ausgaben.
- Aussagekräftig: Systeme liefern Erklärungen, die für den einzelnen Benutzer verständlich sind.
- Erklärungsgenauigkeit: Die Erklärung spiegelt den Prozess des Systems zur Generierung der Ausgabe genau wider.
- Wissensgrenzen: Das System funktioniert nur unter den Bedingungen, für die es entwickelt wurde, oder wenn seine Ausgabe ein ausreichendes Vertrauensniveau erreicht hat.
NIST stellt fest, dass Erklärungen von einfach bis komplex reichen können und vom jeweiligen Verbraucher abhängen. Die Agentur veranschaulicht einige Erklärungstypen anhand der folgenden fünf unvollständigen Beispielkategorien der Erklärbarkeit:
- Anwendervorteile
- Gesellschaftliche Akzeptanz
- Gesetzliche Auflagen und Compliance
- Systementwicklung
- Eigentümervorteile
Warum ist erklärbare KI wichtig?
Erklärbare KI ist eine entscheidende Komponente, um Vertrauen in automatisierte Systeme aufzubauen, zu gewinnen und aufrechtzuerhalten. Ohne Vertrauen wird sich KI, insbesondere KI für den IT-Betrieb (AIOps), nicht voll durchsetzen können. Dadurch geraten Umfang und Komplexität moderner Systeme zunehmend außer Reichweite dessen, was mit manuellen Prozessen und herkömmlicher Automatisierung noch zu bewältigen ist.
Vertrauen macht „KI-Washing“ (ein Produkt oder Service ist KI-basiert, obgleich die Rolle der KI schwach oder nicht vorhanden ist) offensichtlich und hilft Praktikern und Kunden bei ihrer KI-Due-Diligence. Der Aufbau von Vertrauen in KI wirkt sich auf den Umfang und die Geschwindigkeit ihrer Einführung aus, was wiederum bestimmt, wie schnell und umfassend ihre Vorteile realisiert werden können.
Beauftragen wir ein System mit der Suche nach Antworten oder dem Treffen von Entscheidungen, insbesondere wenn diese Auswirkungen auf die reale Welt haben, müssen wir unbedingt erklären können, wie das System zu einer Entscheidung gelangt, welchen Einfluss es auf ein Ergebnis hat oder warum Maßnahmen als notwendig erachtet wurden.
Welche Vorteile sind von erklärbarer KI zu erwarten?
Die Vorteile erklärbarer KI sind vielschichtig. Sie beziehen sich auf fundierte Entscheidungsfindung, Risikominderung, mehr Vertrauen und Benutzerakzeptanz, bessere Governance, schnellere Systemverbesserung sowie die allgemeine Entwicklung und Nützlichkeit der KI in der Welt.
Welches Problem bzw. welche Probleme löst erklärbare KI?
Viele KI- und ML-Modelle sind undurchsichtig und ihre Ergebnisse unerklärlich. Für das Vertrauen in KI-Technologien, ihre Weiterentwicklung und ihre Akzeptanz ist es von entscheidender Bedeutung, offenzulegen und zu erklären, warum bestimmte Wege beschritten oder wie Ergebnisse generiert wurden.
Die Beleuchtung der Daten, Modelle und Prozesse bietet Einblicke und Beobachtungsmöglichkeiten für die Systemoptimierung durch transparente und gültige Argumentation. Am wichtigsten ist jedoch, dass die Erklärbarkeit eine einfachere Kommunikation und die anschließende Minderung oder Beseitigung von Mängeln, Vorurteilen und Risiken ermöglicht.
Wie erklärbare KI Transparenz schafft und Vertrauen aufbaut
Um nützlich zu sein, müssen anfängliche Rohdaten letztlich entweder zu einer vorgeschlagenen oder ausgeführten Aktion führen. Von einem Benutzer von Anfang an zu verlangen, einem völlig autonomen Workflow zu vertrauen, ist oft ein zu großer Schritt. Daher ist es ratsam, dem Benutzer zu ermöglichen, die unterstützenden Ebenen von unten nach oben zu durchlaufen. Durch die schichtweise Rückverfolgung von Ereignissen legt der UI-Workflow die Schichten bis hin zu den Roheingaben frei. Das fördert Transparenz und Vertrauen.
Im Idealfall ist ein Framework umfangreich genug, um die Skepsis von Fachexperten zu zerstreuen und gleichzeitig Einsteigern die Suche zu ermöglichen, soweit ihre Neugier reicht. Das trägt dazu bei, Vertrauen sowohl bei Anfängern als auch bei erfahrenen Personen aufzubauen und ermöglicht eine höhere Produktivität und Lernfähigkeit. Dieses Engagement bildet auch einen positiven Kreislauf, der KI-/ML-Algorithmen für kontinuierliche Systemverbesserungen weiter trainieren und verfeinern kann.
So nutzen Sie erklärbare KI zur Bewertung und Reduzierung von Risiken
Durch die Vernetzung der Daten mit ihren klar definierten Protokollen und Datenstrukturen kann die KI unglaubliche Fortschritte erzielen, ohne dass Diskriminierung oder menschliche Voreingenommenheit befürchtet werden muss. Auf diese Weise können KI-Anwendungen gut eingegrenzt und verantwortungsvoll eingesetzt werden, wenn sie mit neutralen Problembereichen wie der Fehlerbehebung und der Servicesicherung betraut sind.
Es ist wichtig, dass Ihr Anbieter einige grundlegende technische und betriebliche Fragen beantwortet, um KI-Washing aufzudecken und zu vermeiden. Wie bei allen Due Diligence- und Beschaffungsbemühungen kann der Detaillierungsgrad der Antworten wichtige Erkenntnisse liefern. Antworten erfordern möglicherweise eine gewisse technische Interpretation, werden aber dennoch empfohlen, um sicherzustellen, dass die Ansprüche der Anbieter tragfähig sind.
Wie bei jeder Technologie legen die Entwicklungs- und Führungsteams Kriterien fest, um geplante Käufe zu bewerten und entsprechende Entscheidungen auf der Grundlage von Beweisen zu treffen. Um Risiken zu verringern und die Sorgfaltspflicht zu erfüllen, finden Sie hier einige Beispielfragen, die Eigentümer und Benutzer von KI/ML stellen können:
- Welche Algorithmen umfasst diese Lösung bzw. tragen zu dieser Lösung bei?
- Wie werden Daten eingepflegt und bereinigt?
- Woher stammen die Daten (und sind sie pro Mandant, Konto oder Benutzer angepasst)?
- Wie werden Parameter und Funktionen aus dem Netzwerkbereich entwickelt?
- Wie werden Modelle trainiert, neu trainiert und aktuell und relevant gehalten?
- Kann das System seine Begründungen, Empfehlungen oder Aktionen selbst erklären?
- Wie wird Voreingenommenheit beseitigt oder reduziert?
- Wie verbessert und entwickelt sich die Lösung oder Plattform automatisch weiter?
Darüber hinaus werden Pilotprojekte oder Tests von KI-Services und -Systemen immer empfohlen, um Versprechen oder Behauptungen zu validieren.
Erklärbare KI in der Praxis bei HPE Networking
Der verantwortungsvolle und ethische Einsatz von KI ist ein komplexes Thema, mit dem sich Unternehmen jedoch auseinandersetzen müssen. Die Mist AI Innovation Principles von HPE sind für den Einsatz von KI in unseren Services und Produkten wegweisend. Wir verfügen außerdem über eine umfassende Dokumentation zu unserem KI-/ML- und AIOps-Ansatz. Dazu gehören Tools, die dabei helfen, Netzwerkanomalien zu erkennen und zu korrigieren und gleichzeitig den Betrieb zu verbessern, wie etwa KI-Daten und -Prinzipien, KI-gestützte Problemlösung, Schnittstellen und intelligente Chatbots.
XAI kann viele Formen annehmen. Zu den AIOps-Funktionen von HPE Networking gehört beispielsweise die Durchführung eines automatischen Radio Resource Management (RRM) in WLAN-Netzwerken und die Erkennung von Problemen wie fehlerhaften Netzwerkkabeln. Mithilfe fortschrittlicher GenAI- und KI-Agenten können Betreiber selektiv eigenständige, autonome Aktionen über das Marvis Actions Dashboard aktivieren, sobald Vertrauen in die ergriffenen Maßnahmen und die daraus resultierenden Ergebnisse hergestellt wurde.
Das Herzstück von Mist bilden die Marvis AI Engine und der Marvis AI Assistant. Marvis AI definiert die Art und Weise neu, wie IT-Teams mit ihren Netzwerken interagieren und diese betreiben. Mit der Integration agentenbasierter KI ist Marvis AI in der Lage logisch zu denken, zusammenzuarbeiten und in komplexen Umgebungen zu agieren. So kommt die Vision des autonomen Netzwerks der Realität ein Stück näher.
Eine Komponente des Marvis AI Assistant ist die Marvis Conversational Interface, die erweiterte LLMs, generative KI und NLU/NLP verwendet, damit IT-Teams Fragen in natürlicher Sprache stellen und klare, umsetzbare Antworten erhalten können. Sie versteht die Absichten des Benutzers, bindet spezialisierte Agenten ein und orchestriert mehrstufige Workflows, um Probleme zu diagnostizieren und, sofern autorisiert, diese selbstständig zu lösen. Die erstellten Berichte fassen die durchgeführten Aktionen und erzielten Ergebnisse zusammen, um den Wert zu dokumentieren und das Vertrauen der Benutzer zu gewinnen. Diese Kombination aus Konversationsintelligenz und Automatisierung ermöglicht es IT-Teams, effizienter zu arbeiten, Lösungszeiten zu verkürzen und sich auf strategische Initiativen zu konzentrieren, die Innovationen vorantreiben.
Häufig gestellte Fragen zu erklärbarer KI
Was versteht man unter erklärbarer KI?
Erklärbare KI beschreibt eine Reihe von Prozessen und Methoden, die es Benutzern ermöglichen, die von KI-/ML-Algorithmen erstellten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen. Die den KI-/ML-Ausgaben beigefügten Erläuterungen können sich an Benutzer, Betreiber oder Entwickler richten und sollen auf Bedenken und Herausforderungen eingehen, die von der Benutzerakzeptanz bis hin zu Governance und Systementwicklung reichen.
Was ist ein erklärbares KI-Modell?
Ein erklärbares KI-Modell verfügt über Merkmale oder Eigenschaften, die Transparenz und Verständlichkeit fördern und die Möglichkeit bieten, KI-Ausgaben zu hinterfragen oder abzufragen.
Gibt es erklärbare KI?
Ja, allerdings befindet sie sich aufgrund der sich noch entwickelnden Definitionen noch in der Anfangsphase. Während es schwieriger ist, XAI auf komplexen oder gemischten KI-/ML-Modellen mit einer großen Anzahl von Funktionen oder Phasen zu implementieren, findet XAI schnell ihren Weg in Produkte und Services, um das Vertrauen der Benutzer aufzubauen und die Entwicklung zu beschleunigen.
Was ist Erklärbarkeit beim Deep Learning?
Deep Learning wird manchmal als „Blackbox“ betrachtet, was bedeutet, dass es schwierig sein kann, das Verhalten des Deep Learning-Modells und die Art und Weise, wie es zu seinen Entscheidungen gelangt, zu verstehen. Erklärbarkeit soll Deep Learning-Erklärungen erleichtern. Eine Technik zur Erklärung von Deep Learning-Modellen sind Shapley (SHAP)-Werte. SHAP-Werte können bestimmte Vorhersagen erklären, indem sie an der Vorhersage beteiligte Merkmale hervorheben. Es wird derzeit an der Bewertung verschiedener Erklärungsmethoden geforscht.