説明可能な機械学習 Explainable Machine Learning

thumb image
人工知能(AI)の精度・性能は日進月歩で進化し続けており、AIシステムは今後の社会の発展に必要不可欠なものと言えます。その一方で、AIのコア技術であるニューラルネット等の機械学習法は、時として人間が想定しない分類・予測をすることがあるため、社会からはAIの透明性の確保が求められています。しかし、機械学習法は複雑な構造を持つため、どのように分類・予測を行っているのかを人間が理解することは困難になっています。AIの振る舞いの透明性を確保するため、本研究プロジェクトでは、高い分類・予測精度とともに、予測結果の根拠を信頼できる形で分かりやすく説明できる機械学習法の研究を行っています。

研究成果

  • Yuya Yoshikawa, and Tomoharu Iwata, “Explanation-Based Training with Differentiable Insertion/Deletion Metric-Aware Regularizers,” The 27th International Conference on Artificial Intelligence and Statistics (AISTATS2024), Valencia, Spain, May 2024.
    • 予測モデルの説明可能性を高めるため、後付けで予測の根拠を説明する事後説明器がよく用いられます。本研究では、説明の忠実性評価尺度である挿入・削除メトリクスを微分可能にし、これを訓練時に利用することで、予測モデルの振る舞いに忠実な説明が事後説明器から得られるように予測モデルを最適化する方法を提案しました。
  • Yuya Yoshikawa, and Tomoharu Iwata, “Gaussian Process Regression With Interpretable Sample-wise Feature Weights,” IEEE Transactions on Neural Networks and Learning Systems, 2021.
    • ガウス過程回帰モデルは、少数のデータであっても高い予測性能が達成できるという利点があるものの、カーネル関数の特性上、特徴量がどのように使われて予測が行われているのかが隠蔽される構造となっていました。本研究では、従来のガウス過程回帰モデルと同等の予測性能を維持しながら、予測に対して特徴量がどのように貢献しているのかを説明可能な手法を開発しました。
  • Yuya Yoshikawa, and Tomoharu Iwata, “Neural Generators of Sparse Local Linear Models for Achieving Both Accuracy and Interpretability,” Information Fusion, 2021.
    • 多層ニューラルネットは多数のパラメータと複雑な構造を持つことで、高精度な予測が可能です。その一方で、各予測に対する特徴量の直接的な貢献が見えないという問題点がありました。本研究では、局所線形モデルの係数(重み)を多層ニューラルネットで生成することで、高精度の予測と予測に対する特徴量の貢献度合いの両方を出力するモデルを開発しました。

本研究の一部は、科研費若手研究の支援を受けて行ったものです。また、上記論文は、NTTコミュニケーション科学基礎研究所との共同研究の成果です。

The accuracy of artificial intelligence (AI) continues to evolve at an ever-increasing pace, and AI systems are indispensable for the future development of society. On the other hand, a core technology of AI, machine learning including neural networks, can sometimes make predictions that are not expected by humans. Therefore society needs to ensure the transparency of AI. However, due to the complex structure of the recent machine learning methods, it has become difficult for humans to understand how they perform the predictions.

In order to ensure the transparency of AI behavior, this research project is conducting research on machine learning methods that both achieve high prediction accuracy and have the ability of explaining the predictions theirselves.

Publications

A part of this research was supported by JSPS KAKENHI. In addition, the works in the above publications were done with NTT Communication Science Laboratories.

2024.02.22

Members