Articles

Day041 – Miért bízzak meg benned?

A Kétperces papír egy olyan csatorna, amelyet másoknak is ajánlani fogok. Nagyra értékelem, hogy a csatorna tulajdonosa időt fordít arra, hogy összefoglalja a tudományos papírt néhány percre, hogy gyorsan tudtam böngészni. Ezen a héten egy érdekes témát mutat be, amit szeretnék megosztani önökkel.

“Miért bízzak benned?” Bármely osztályozó előrejelzéseinek magyarázata. Ez egy népszerű írás, már csak a hivatkozások számát tekintve is. Több mint 300. WOW.

A gépi tanulás területén az emberek gyakran a megtartott pontosságra összpontosítanak. Egy gépi tanulási modell kifejlesztésének gyakori megközelítése, hogy az adathalmazt gyakorlásra, tesztelésre és validálásra osztják. A magas pontosság azt jelenti, hogy a modell működik, és a modell készen áll a telepítésre. Azonban nem szabad, hogy a pontosság legyen az egyetlen tényező, amit vizsgálunk. A modell még akkor is tévedhet, ha a jóslata helyes. Egy farkast tartalmazó képen, amelynek hátterében hó van, a modell azt jósolja, hogy a kép farkast tartalmaz, egyszerűen azért, mert úgy gondolja, hogy a fehér hó a farkas bundája. Anélkül, hogy tudnánk, hogyan jut a modell a következtetésére, soha nem fogjuk megtudni, hogy a modell valóban helyes-e. Lehet, hogy csak szerencséje van. Soha nem értenénk meg igazán, hogy a modell miért gondolja azt, hogy farkas, ha nem tudnánk biztosan, hogy a kép melyik része járul hozzá a legtöbbet, amikor úgy dönt, hogy az egy farkas.

A tanulmány bemutatja a LIME, Local Interpretable Model-agnostic Explanations. Ez egy újszerű technika, amellyel bármely gépi tanulási osztályozó predikcióját értelmezhetően és hűen lehet magyarázni. A magyarázattal tisztázza a modell döntésének logikáját. Ezután az emberek átlátnak a gépi tanulási modell fekete dobozán, és valóban megbízhatnak az általa adott előrejelzésben. Segít továbbá betekintést nyerni abba, hogy a modell hogyan teljesít, vagy rámutat a gyengeségre, ha az bemutatja.

A szerző leírja álláspontját a magyarázók kívánatos jellemzőiről, amelyek közül a LIME mindegyiknek megfelel:

  • Értelmezhető, a magyarázatnak elég könnyen érthetőnek kell lennie a célközönségtől függően
  • Lokális hűség, legalább lokálisan hűséges a megjósolandó eset közelében
  • Modell-agnosztikus, bármilyen modellt meg kell magyaráznia
  • Globális perspektíva, válasszon ki néhány magyarázatot, hogy reprezentatív legyen a modellre nézve

A dolgozatban a szöveg- és képosztályozás modelljeinek magyarázatával mutatja be a keretrendszer rugalmasságát.

A Google Inception neurális hálózata által készített képosztályozási előrejelzés magyarázata. Az első 3 megjósolt osztály a következő: “Elektromos gitár” (p = 0,32), “Akusztikus gitár” (p = 0,24) és “Labrador” (p = 0,21)