Articles

Day041 – Why should I trust you?

Two minutes paper to kanał, który będę polecał innym. Doceniam właściciela kanału poświęcając czas na streszczenie akademickiego papieru do kilku minut tak, że mogę szybko przeglądać. W tym tygodniu prezentuje ciekawy temat, którym chciałbym się z Wami podzielić.

„Why Should I Trust You?” Explaining the Predictions of Any Classifier. Jest to bardzo popularny artykuł, wystarczy spojrzeć na ilość cytowań. Ponad 300. WOW.

W dziedzinie uczenia maszynowego, ludzie często skupiają się na utrzymywanej dokładności. Powszechnym podejściem do opracowania modelu uczenia maszynowego jest posiadanie zestawu danych podzielonego na szkolenie, testowanie i walidację. Wysoka dokładność oznacza, że model działa i jest gotowy do wdrożenia. Jednakże, dokładność nie powinna być jedynym czynnikiem, na który zwracamy uwagę. Model może być błędny, nawet jeśli jego przewidywania są poprawne. W przypadku obrazu zawierającego wilka na tle śniegu, model przewiduje, że obraz zawiera wilka tylko dlatego, że uważa, że biały śnieg to futro wilka. Nie wiedząc, jak model dochodzi do swoich wniosków, nigdy nie dowiemy się, czy jest on naprawdę poprawny. Może po prostu mieć szczęście. Nigdy nie zrozumiemy, dlaczego model myśli, że to wilk, jeśli nie będziemy pewni, która część obrazu ma największy wpływ na to, że to wilk.

Praca wprowadza LIME, Local Interpretable Model-agnostic Explanations. Jest to nowatorska technika wyjaśniania predykcji dowolnego klasyfikatora uczenia maszynowego w sposób interpretowalny i wierny. Dzięki wyjaśnieniu, wyjaśnia ona przesłanki stojące za podejmowaniem decyzji przez model. W ten sposób ludzie mogą przejrzeć czarną skrzynkę modelu uczenia maszynowego i naprawdę zaufać jego przewidywaniom. Pomaga to również uzyskać wgląd w to, jak model działa lub wskazać jego słabe punkty, jeśli takowe występują.

Autor opisuje swój punkt widzenia na Pożądane Cechy dla Wyjaśniaczy, które LIME spełnia wszystkie z nich:

  • Interpretowalny, wyjaśnienie powinno być wystarczająco łatwe do zrozumienia w zależności od docelowej grupy odbiorców
  • Lokalna wierność, przynajmniej lokalnie wierny w pobliżu przewidywanej instancji
  • Model Agnostic, powinien wyjaśniać każdy model
  • Global Perspective, wybrać kilka wyjaśnień, aby były reprezentatywne dla modelu

W artykule demonstruje elastyczność ram poprzez wyjaśnianie modeli klasyfikacji tekstu i obrazu.

Wyjaśnia predykcję klasyfikacji obrazów wykonaną przez sieć neuronową Inception firmy Google. Trzy najlepsze przewidywane klasy to „Gitara elektryczna” (p = 0,32), „Gitara akustyczna” (p = 0,24) i „Labrador” (p = 0,21)
.