Articles

Day041 – Why should I trust you?

Two minutes paperは、私が他の人に薦めるチャンネルです。 私はチャンネル所有者が私がすぐにブラウザについてできるように数分に学術論文を要約するために時間を費やして感謝しています。 今週、それは私があなたと共有したいと思います興味深いトピックを提示します。

“なぜ私はあなたを信頼すべき?” 任意の分類器の予測を説明する。 引用された回数を見るだけでも人気のある論文です。 300回以上。 WOW.

機械学習の分野では、押さえられた精度が注目されることが多いですね。 機械学習モデルを開発する際、データセットをトレーニング、テスト、検証に分けるのが一般的なアプローチです。 精度が高いということは、モデルが機能していることを意味し、モデルはすぐにでも展開できる。 しかし、精度を唯一の要因として見てはいけません。 モデルは、その述語が正しくても、間違っている可能性があります。 例えば、雪を背景にしたオオカミの写真では、モデルは単に白い雪がオオカミの毛皮であると考え、オオカミの写真であると予測します。 このモデルがどのようにして結論を出したのかが分からないと、そのモデルが本当に正しいのかどうか分からない。 ただ運が良かっただけかもしれない。

この論文は、LIME(Local Interpretable Model-agnostic Explanations)を紹介しています。 これは、任意の機械学習分類器の述語を解釈可能かつ忠実に説明する新しい技術である。 この説明により、モデルの意思決定の根拠が明確になる。 そして、人々は機械学習モデルのブラックボックスを見破り、それが出す予測を本当に信頼することができる。 また、モデルがどのように機能するか、あるいは弱点があればそれを突き止めるのに役立ちます。

著者は、説明者に望まれる特性について、LIMEがそのすべてを満たしているという視点を述べています。

  • Interpretable, 説明は対象者によって十分に理解しやすいものでなければならない
  • Local Fidelity, 少なくとも予測されるインスタンスの近傍では局所的に忠実である
  • Model Agnostic, 少なくとも予測されるインスタンスの近傍では局所的に忠実である。 はどのようなモデルでも説明すべきである
  • Global Perspective, select a few explanations to be representative of the model

論文では、テキストと画像分類のモデルを説明することによって、このフレームワークの柔軟性を示している。

GoogleのInceptionニューラルネットワークによる画像分類の予測を説明する。 予測された上位3クラスは、”Electric Guitar” (p = 0.32), “Acoustic guitar” (p = 0.24) and “Labrador” (p = 0.21)

です。