Articles

Day041 – Proč bych vám měl věřit?

Dvě minuty papíru je kanál, který doporučím ostatním. Oceňuji, že majitel kanálu věnuje čas shrnutí akademického papíru do několika minut, abych si o něm mohl rychle prohlédnout. Tento týden představuje zajímavé téma, o které bych se s vámi rád podělil.

„Proč bych vám měl věřit?“. Vysvětlení předpovědí jakéhokoli klasifikátoru. Jedná se o populární článek, už jen podle toho, kolikrát byl citován. Je jich více než 300. WOW.

V oblasti strojového učení se lidé často zaměřují na zadržovanou přesnost. Běžným přístupem k vývoji modelu strojového učení je rozdělení datové sady na trénovací, testovací a ověřovací. Vysoká přesnost znamená, že model funguje a že je připraven k nasazení. Přesnost by však neměla být jediným faktorem, na který se díváte. Model se může mýlit, i když je jeho predikce správná. Na obrázku obsahujícím vlka se sněhovým pozadím model předpovídá, že obrázek obsahuje vlka, jednoduše proto, že si myslí, že bílý sníh je vlčí srst. Bez znalosti toho, jak model dospěl ke svému závěru, se nikdy nedozvíme, zda je model skutečně správný. Možná má jen štěstí. Nikdy bychom skutečně nepochopili, proč si model myslí, že jde o vlka, pokud bychom s jistotou nevěděli, jaká část obrázku se nejvíce podílí na jeho rozhodnutí, že jde o vlka.

Příspěvek představuje LIME, Local Interpretable Model-agnostic Explanations. Jedná se o novou techniku, která umožňuje interpretovatelně a věrně vysvětlit predikci libovolného klasifikátoru strojového učení. Pomocí vysvětlení objasňuje důvody, které stojí za rozhodováním modelu. Lidé pak mohou prohlédnout černou skříňku modelu strojového učení a skutečně věřit predikci, kterou poskytuje. Pomáhá také získat přehled o tom, jak model funguje, nebo přesně určit jeho případné slabiny.

Autor popisuje svůj pohled na žádoucí charakteristiky pro vysvětlovače, které LIME všechny splňuje:

  • Interpretovatelný, vysvětlení by mělo být dostatečně srozumitelné v závislosti na cílové skupině
  • Lokální věrnost, alespoň lokálně věrný v okolí předpovídaného případu
  • Modelově agnostický, měl by vysvětlovat jakýkoli model
  • Globální perspektiva, vybrat několik vysvětlení, která budou reprezentativní pro daný model

V článku je demonstrována flexibilita rámce na vysvětlení modelů klasifikace textu a obrazu.

Vysvětluje předpověď klasifikace obrázků provedenou neuronovou sítí Google Inception. Tři nejlepší předpovězené třídy jsou „Elektrická kytara“ (p = 0,32), „Akustická kytara“ (p = 0,24) a „Labrador“ (p = 0,21)

.