機械学習における解釈性について

分類器の出力結果に、何らかの理由、説明を意図するような出力が出来る
現在、実装可能なソースコード(OSS)があればそれを教えてください。

ただし、画像認識に限ります。

回答の条件
  • URL必須
  • 1人5回まで
  • 登録:
  • 終了:2022/01/07 12:45:06
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

回答2件)

id:kuroyuli No.1

回答回数253ベストアンサー獲得回数57

説明可能AIの実現方法:LIME、SHAP

https://technomado.jp/column/ai/8296/

にあるように、LIME、SHAPという手法が有名なようです。

画像のどの部分に注目して学習したかが、マスキングされて示されるという説明方法ですね。

パッケージもGitHub上で公開されています。

id:TAK_TAK

他にも教えてください。

2021/12/25 09:19:07
id:TAK_TAK

LIMEのコードは古いので、新しい手法を教えてください。

2021/12/28 11:10:49
id:pyopyopyo No.2

回答回数377ベストアンサー獲得回数98

shapが便利ですよ

https://data-analysis-stats.jp/機械学習/機械学習モデルを解釈するshap/

id:TAK_TAK

それは、ももんがラスさんが既に答えています。

2022/01/06 17:32:49

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません