Articles

Ziua041 – De ce să am încredere în tine?

Hârtia de două minute este un canal pe care îl voi recomanda și altora. Apreciez că proprietarul canalului și-a petrecut timpul pentru a rezuma hârtia academică la câteva minute, astfel încât să pot naviga rapid despre. Săptămâna aceasta prezintă un subiect interesant pe care aș dori să îl împărtășesc cu voi.

„De ce să am încredere în tine?” Explicarea predicțiilor oricărui clasificator. Este o lucrare populară doar dacă ne uităm la numărul de ori în care a fost citată. Peste 300. WOW.

În domeniul învățării automate, oamenii se concentrează adesea pe precizia reținută. O abordare comună pentru a dezvolta un model de învățare automată este de a avea setul de date împărțit în formare, testare și validare. O acuratețe ridicată înseamnă că modelul funcționează și că modelul este gata să fie implementat. Cu toate acestea, acuratețea nu ar trebui să fie singurul factor la care vă uitați. Modelul ar putea fi greșit chiar dacă predicția sa este corectă. Într-o imagine care conține un lup cu un fundal de zăpadă, modelul prezice că imaginea conține un lup pur și simplu pentru că el crede că zăpada albă este blana unui lup. Dacă nu știm cum ajunge modelul la concluzia sa, nu vom ști niciodată dacă modelul este cu adevărat corect. S-ar putea să fie doar norocos. Nu vom înțelege niciodată cu adevărat de ce modelul crede că este lup dacă nu știm cu siguranță ce porțiune din imagine contribuie cel mai mult atunci când decide că este un lup.

Articolul introduce LIME, Local Interpretable Model-agnostic Explanations. Aceasta este o tehnică nouă pentru a explica predicția oricărui clasificator de învățare automată într-o manieră interpretabilă și fidelă. Odată cu explicația, se clarifică raționamentul care stă la baza luării deciziei unui model. Astfel, oamenii ar putea să vadă dincolo de cutia neagră a modelului de învățare automată și să aibă cu adevărat încredere în predicțiile pe care acesta le emite. De asemenea, ajută la înțelegerea performanțelor modelului sau la identificarea punctelor slabe pe care acesta le prezintă.

Autorul descrie punctul său de vedere cu privire la Caracteristicile dorite pentru Explicatori, pe care LIME le îndeplinește pe toate:

  • Interpretabil, explicația ar trebui să fie suficient de ușor de înțeles în funcție de publicul țintă
  • Fidelitate locală, cel puțin local fidel în vecinătatea instanței care este prezisă
  • Agnostic față de model, ar trebui să explice orice model
  • Global Perspective, selectează câteva explicații care să fie reprezentative pentru model

În lucrare, se demonstrează flexibilitatea cadrului prin explicarea modelelor de clasificare a textelor și imaginilor.

Explică o predicție de clasificare a imaginilor realizată de rețeaua neuronală Inception de la Google. Primele 3 clase prezise sunt „Electric Guitar” (p = 0,32), „Acoustic guitar” (p = 0,24) și „Labrador” (p = 0,21)

.