STAIR Lab

Projects

自己説明型機械学習 Self-Explaining Machine Learning

thumb image
人工知能(AI)の精度・性能は日進月歩で進化し続けており、AIシステムは今後の社会の発展に必要不可欠なものと言えます。その一方で、AIのコア技術であるニューラルネット等の機械学習法は、時として人間が想定しない分類・予測をすることがあるため、社会からはAIの透明性の確保が求められています。しかし、機械学習法は複雑な構造を持つため、どのように分類・予測を行っているのかを人間が理解することは困難になっています。

AIの振る舞いの透明性を確保するため、本研究プロジェクトでは、高い分類・予測精度とともに、予測結果の根拠を信頼できる形で分かりやすく説明できる機械学習法の研究を行っています。

— 研究成果 —

ガウス過程回帰モデルは、少数のデータであっても高い予測性能が達成できるという利点があるものの、カーネル関数の特性上、特徴量がどのように使われて予測が行われているのかが隠蔽される構造となっていました。本研究では、従来のガウス過程回帰モデルと同等の予測性能を維持しながら、予測に対して特徴量がどのように貢献しているのかを説明可能な手法を開発しました。

多層ニューラルネットは多数のパラメータと複雑な構造を持つことで、高精度な予測が可能です。その一方で、各予測に対する特徴量の直接的な貢献が見えないという問題点がありました。本研究では、局所線形モデルの係数(重み)を多層ニューラルネットで生成することで、高精度の予測と予測に対する特徴量の貢献度合いの両方を出力するモデルを開発しました。

本研究の一部は、科研費若手研究の支援を受けて行ったものです。また、上記論文は、NTTコミュニケーション科学基礎研究所との共同研究の成果です。

The accuracy of artificial intelligence (AI) continues to evolve at an ever-increasing pace, and AI systems are indispensable for the future development of society. On the other hand, a core technology of AI, machine learning including neural networks, can sometimes make predictions that are not expected by humans. Therefore society needs to ensure the transparency of AI. However, due to the complex structure of the recent machine learning methods, it has become difficult for humans to understand how they perform the predictions.

In order to ensure the transparency of AI behavior, this research project is conducting research on machine learning methods that both achieve high prediction accuracy and have the ability of explaining the predictions theirselves.

— Publications —

A part of this research was supported by JSPS KAKENHI. In addition, the works in the above publications were done with NTT Communication Science Laboratories.

Members 関連メンバー