読了所要時間: 5分50秒 | 公開日: 2025年10月1日

説明可能なAI
説明可能なAI (XAI) とは

説明可能なAIとは、AIの機械学習 (ML) アルゴリズムによって作成された結果とアウトプットをユーザーが理解し、信頼できるようにするプロセスと手法です。XAIは、AI/MLのアウトプットに付随する説明を提供し、ユーザーの導入からガバナンス、システム開発に至るまでの懸念や課題に対処します。この「説明可能性」は、幅広くAIの導入とメリットを促進するために市場で必要な信頼と信用を得るのに不可欠です。その他の関連する新たな取り組みとしては、信頼できるAI、責任あるAIなどがあります。 

オフィスで話し合う3人のビジネスパーソンたち。

...にジャンプ

説明可能なAIの実装方法

米国国立標準技術研究所 (NIST) は、XAIを促進する4つの原則について次のように述べています。

  • 説明: システムは、すべてのアウトプットに対して付随する証拠または理由を提供します。
  • 有意味: システムは、個々のユーザーが理解できる説明を提供します。
  • 説明の正確さ: 説明は、システムがアウトプットを生成するプロセスを適切に反映しています。
  • 知識の限界: システムは、設計時に想定された条件下でのみ、またはそのアウトプットが十分な信頼度に達した場合にのみ動作します。

NISTは、説明は単純なものから複雑なものまで多岐にわたり、対象となる消費者によっても異なる、と指摘しています。NISTでは、以下の5つの非網羅的な説明可能性カテゴリの例を使用して、一部の説明タイプについて説明しています。

  • ユーザーにとってのメリット
  • 社会的受容
  • 規制とコンプライアンス
  • システム開発
  • オーナーにとってのメリット

説明可能なAIが重要となる理由

説明可能なAIは、自動化システムに対する信頼を高め、獲得し、維持するために不可欠な要素です。信頼がなければ、AI、特にIT運用向けAI (AIOps) は十分に活用されず、最新のシステムの規模と複雑さが、手動運用と従来の自動化で対応できる範囲を超えたまま放置されることになります。

信頼によって 「AIウォッシング」 (AIの役割が非常に小さいかまったくないのに、その製品またはサービスがAIを活用していることを暗に示す手法) が明らかになり、そうした手法を濫用する者と顧客の双方がAIデューデリジェンスを実施するのに役立ちます。AIに対する信頼と信用を確立することは、AIの導入範囲と速度に影響を及ぼし、それによってAIのメリットを実現できる範囲と所要時間が決まります。

システムに答えを見つけたり判断を下したりするように指示する場合 (特に、その指示が現実世界に影響を与える場合)、システムがどのようにしてその結論に達したか、それが結果にどう影響したか、なぜアクションが必要と判断されたのかを説明できることが不可欠です。

説明可能なAIのメリット

説明可能なAIのメリットは多面的です。それらのメリットは、情報に基づいた意思決定、リスクの軽減、信頼の向上とユーザーの導入拡大、ガバナンスの改善、システム改善の迅速化、そして世界におけるAIの全体的な発展と有用性に関連しています。 

説明可能なAIによって解決される問題

多くのAI/MLモデルは不透明であり、そのアウトプットについて説明することはできません。その経路をたどった理由や、アウトプットがどのように生成されたかを明らかにして説明することが、AIテクノロジーの信頼、発展、導入には不可欠です。

データ、モデル、プロセスを明らかにすることで、透明性と妥当性のある推論を使用したシステム最適化に関する有益な情報と可観測性が得られます。最も重要なのは、説明可能性によってコミュニケーションが容易になり、欠陥や偏見、リスクを軽減または排除できるようになることです。

AI主導のユーザーインターフェイスにおけるデータの流れを示す図。

説明可能なAIによって透明性と信頼性が向上する仕組み

最初の生データは、最終的にアクションの提案または実行につながるものでなければ有用とは言えません。最初から完全に自律的なワークフローを信頼するようユーザーに求めるのは、通常は性急すぎるため、ユーザーがサポートレイヤーの一番下から段階的に進めるようにすることをお勧めします。ユーザーインターフェイス (UI) ワークフローでは、イベントを階層ごとに掘り下げて、生データに達するまでレイヤーをめくっていきます。これにより、透明性と信頼性が向上します。

フレームワークは、懐疑的な専門家を満足させるほど深く掘り下げるものでありながら、初心者が好奇心の赴くままに検索できるものが理想的です。これにより、初心者とベテランの信頼関係を構築し、生産性と知識を向上させることができます。また、この取り組みを通じて、AI/MLアルゴリズムをさらにトレーニングして改善することでシステムの継続的改善につなげるという好循環が生まれます。

説明可能なAIを利用してリスクを評価し、軽減する方法

明確に定義されたプロトコルとデータ構造を備えたデータネットワークでは、AIが差別や人間の偏見を恐れることなく驚異的な進歩を遂げることができます。このように、トラブルシューティングやサービス保証などの中立的な問題領域を任せる場合、AIの用途は適切に制限され、責任ある利用が可能になります。

AIウォッシングを明らかにして回避するために、ベンダーは技術および運用に関するいくつかの基本的な質問に答える必要があります。デューデリジェンスや調達の取り組みと同様に、回答の詳細度によって重要なインサイトが得られます。回答には多少の技術的な解釈が必要になる場合もありますが、ベンダーの主張が実現可能であることを確認するために引き続き推奨されます。

他のテクノロジーと同様に、エンジニアリングチームと経営幹部は、提案された購入を評価し、エビデンスに基づいて関連する意思決定を下すための基準を設定します。リスクを軽減してデューデリジェンスを支援するために、AI/MLのオーナーとユーザーが尋ねるべき質問の例を以下に挙げます。

  • このソリューションに含まれ、貢献しているアルゴリズムは何ですか。
  • データはどのように取得され、クリーニングされますか。
  • データはどこから供給されますか (テナンシー、アカウント、またはユーザーごとにカスタマイズされますか)。
  • パラメーターと機能はネットワーク空間からどのように設計されますか。
  • モデルはどのようにトレーニングされ、再トレーニングされ、最新の状態に維持されますか。
  • システム自体が、その根拠、推奨事項、またはアクションを説明できますか。
  • 偏見はどのように排除または軽減されるのでしょうか。
  • ソリューションまたはプラットフォームはどのように自動的に改善され、進化するのでしょうか。

上記に加えて、AIサービスやAIシステムのパイロットまたはトライアルを実施して、約束や主張を検証することを推奨します。

HPE Networkingにおける説明可能なAIの導入事例

責任ある倫理的なAIの使用は複雑なトピックですが、組織はこれに取り組む必要があります。HPEのMist AIイノベーション原則は、HPEのサービスや製品でAIを使用する際の指針となります。HPEでは、AI/MLとAIOps手法に関する詳細なドキュメントも用意しています。これには、AIデータとプリミティブ、AI主導の問題解決、インターフェイス、インテリジェントなチャットボットなど、運用を改善しながらネットワークの異常を検出して修正するのに役立つツールが含まれています。

XAIはさまざまな形式で提供されます。たとえば、HPE NetworkingのAIOps機能には、Wi-Fiネットワークにおける自動無線リソース管理 (RRM) の実行や、ネットワークケーブルの障害などの問題の検出が含まれます。高度なGenAI/AIエージェントを使用している場合、実行されたアクションとその結果に対して信頼が確立されると、運用部門がMarvis Actionsダッシュボードから自動運用の自律的なアクションを選択的に有効にすることができます。

Mistの中核を担うのが、Marvis AIエンジンとMarvis AI Assistantです。Marvis AIは、ITチームがネットワークとやり取りして運用する方法を再定義します。エージェンティックAIの統合により、Marvis AIでは、複雑な環境間での推論、連携、対応が可能となっており、Self-Driving Networkのビジョンが実現に近づきつつあります。 

Marvis AI Assistantのコンポーネントの1つであるMarvis Conversational Interfaceは、高度な LLM、生成AI、NLU/NLPを使用して、ITチームが自然言語で質問し、明確かつ実用的な回答が得られるようにします。ユーザーの意図を理解し、専門のエージェントと連携し、複数ステップのワークフローを調整することで問題を診断し、承認された場合は問題を自律的に解決します。価値を文書化してユーザーとの信頼関係を構築するために、実行されたアクションと実現された結果を要約したレポートが生成されます。このように対話型インテリジェンスと自動化を組み合わせることで、ITチームがより効率的に業務を遂行し、解決時間を短縮し、イノベーションを加速させる戦略的な取り組みに注力できるよう支援します。

説明可能なAIについてよくあるご質問

説明可能なAIとはどのような意味ですか。

説明可能なAIとは、AI/MLアルゴリズムによって作成された結果とアウトプットをユーザーが理解し、信頼できるようにするプロセスと手法をいいます。AI/MLのアウトプットに付随する説明は、ユーザー、オペレーター、または開発者向けであり、ユーザーの導入からガバナンス、システム開発に至るまでの懸念や課題に対処することを目的としています。

説明可能なAIモデルとは何ですか。

説明可能なAIモデルとは、透明性とわかりやすさを向上させ、AIのアウトプットについて質問する機能を提供する特性またはプロパティを備えたモデルです。 

説明可能なAIは存在しますか。

はい。ただ、その定義はまだ発展的で、初期段階にあります。多数の機能やフェーズを備えた複雑なAI/MLモデルや混合型AI/MLモデルにXAIを実装するのはさらに困難ですが、ユーザーとの信頼関係を構築し、開発を迅速化するために、製品やサービスへのXAIの導入が急速に進んでいます。

ディープラーニングにおける説明可能性とは何ですか。

ディープラーニングは「ブラックボックス」とみなされることがあります。これは、ディープラーニングモデルの動作や、その決定に至る過程を理解することが困難な場合があるということです。説明可能性では、ディープラーニングの説明をサポートすることを目指しています。ディープラーニングモデルの説明に使用される手法の1つが、シャープレイ (SHAP) 値です。SHAP値は、予測に関係する特徴を明らかにすることで、特定の予測を説明できます。さまざまな説明手法の評価に関する研究が進められています。

関連する製品、ソリューション、サービス

Mist

Marvis AI

Marvis AI Assistant

Marvis Minis

AIデータセンターネットワーキング

Marvis AI Assistant for Data Center

関連トピック

人工知能 (AI)

AIOps

ネットワーキングにおけるAI

エージェンティックAI

AIネイティブネットワーク

ネットワークの可観測性