Day041 – Miért bízzak meg benned?
A Kétperces papír egy olyan csatorna, amelyet másoknak is ajánlani fogok. Nagyra értékelem, hogy a csatorna tulajdonosa időt fordít arra, hogy összefoglalja a tudományos papírt néhány percre, hogy gyorsan tudtam böngészni. Ezen a héten egy érdekes témát mutat be, amit szeretnék megosztani önökkel.
“Miért bízzak benned?” Bármely osztályozó előrejelzéseinek magyarázata. Ez egy népszerű írás, már csak a hivatkozások számát tekintve is. Több mint 300. WOW.
A gépi tanulás területén az emberek gyakran a megtartott pontosságra összpontosítanak. Egy gépi tanulási modell kifejlesztésének gyakori megközelítése, hogy az adathalmazt gyakorlásra, tesztelésre és validálásra osztják. A magas pontosság azt jelenti, hogy a modell működik, és a modell készen áll a telepítésre. Azonban nem szabad, hogy a pontosság legyen az egyetlen tényező, amit vizsgálunk. A modell még akkor is tévedhet, ha a jóslata helyes. Egy farkast tartalmazó képen, amelynek hátterében hó van, a modell azt jósolja, hogy a kép farkast tartalmaz, egyszerűen azért, mert úgy gondolja, hogy a fehér hó a farkas bundája. Anélkül, hogy tudnánk, hogyan jut a modell a következtetésére, soha nem fogjuk megtudni, hogy a modell valóban helyes-e. Lehet, hogy csak szerencséje van. Soha nem értenénk meg igazán, hogy a modell miért gondolja azt, hogy farkas, ha nem tudnánk biztosan, hogy a kép melyik része járul hozzá a legtöbbet, amikor úgy dönt, hogy az egy farkas.
A tanulmány bemutatja a LIME, Local Interpretable Model-agnostic Explanations. Ez egy újszerű technika, amellyel bármely gépi tanulási osztályozó predikcióját értelmezhetően és hűen lehet magyarázni. A magyarázattal tisztázza a modell döntésének logikáját. Ezután az emberek átlátnak a gépi tanulási modell fekete dobozán, és valóban megbízhatnak az általa adott előrejelzésben. Segít továbbá betekintést nyerni abba, hogy a modell hogyan teljesít, vagy rámutat a gyengeségre, ha az bemutatja.
A szerző leírja álláspontját a magyarázók kívánatos jellemzőiről, amelyek közül a LIME mindegyiknek megfelel:
- Értelmezhető, a magyarázatnak elég könnyen érthetőnek kell lennie a célközönségtől függően
- Lokális hűség, legalább lokálisan hűséges a megjósolandó eset közelében
- Modell-agnosztikus, bármilyen modellt meg kell magyaráznia
- Globális perspektíva, válasszon ki néhány magyarázatot, hogy reprezentatív legyen a modellre nézve
A dolgozatban a szöveg- és képosztályozás modelljeinek magyarázatával mutatja be a keretrendszer rugalmasságát.