Articles

Giorno041 – Perché dovrei fidarmi di voi?

Two minutes paper è un canale che raccomanderò agli altri. Apprezzo il proprietario del canale che spende tempo per riassumere la carta accademica a pochi minuti in modo che io possa navigare rapidamente su. Questa settimana presenta un argomento interessante che vorrei condividere con voi.

“Perché dovrei fidarmi di te? Spiegare le previsioni di qualsiasi classificatore. È un articolo popolare solo guardando il numero di volte che è stato citato. Più di 300. WOW.

Nel campo dell’apprendimento automatico, la gente spesso si concentra sulla precisione tenuta. Un approccio comune per sviluppare un modello di apprendimento automatico è quello di avere il set di dati diviso in allenamento, test e convalida. Un’alta accuratezza significa che il modello sta funzionando e che il modello è pronto per essere distribuito. Tuttavia, l’accuratezza non dovrebbe essere l’unico fattore che si guarda. Il modello potrebbe essere sbagliato anche se la sua previsione è corretta. In un’immagine che contiene un lupo con uno sfondo di neve, il modello predice che l’immagine contiene un lupo semplicemente perché pensa che la neve bianca sia la pelliccia di un lupo. Senza sapere come il modello arriva alla sua conclusione, non sapremo mai se il modello è veramente corretto. Potrebbe essere solo fortunato. Non capiremo mai veramente perché il modello pensa che sia un lupo se non sappiamo con certezza quale porzione dell’immagine contribuisce maggiormente quando decide che è un lupo.

L’articolo introduce LIME, Local Interpretable Model-agnostic Explanations. Si tratta di una nuova tecnica per spiegare la previsione di qualsiasi classificatore di apprendimento automatico in modo interpretabile e fedele. Con la spiegazione, si chiarisce la logica dietro il processo decisionale di un modello. Quindi, le persone potrebbero vedere attraverso la scatola nera del modello di apprendimento automatico e fidarsi davvero della previsione che dà. Aiuta anche ad avere un’idea di come il modello si comporta o a individuare la debolezza che presenta.

L’autore descrive il suo punto di vista sulle caratteristiche desiderate per Explainers, che LIME soddisfa tutte:

  • Interpretabile, la spiegazione dovrebbe essere abbastanza facile da capire a seconda del pubblico di destinazione
  • Fedeltà locale, almeno localmente fedele in prossimità dell’istanza da prevedere
  • Modello agnostico, dovrebbe spiegare qualsiasi modello
  • Global Perspective, selezionare alcune spiegazioni che siano rappresentative del modello

Nell’articolo, dimostra la flessibilità del quadro spiegando modelli di classificazione di testi e immagini.

Spiega una previsione di classificazione di immagini fatta dalla rete neurale Inception di Google. Le prime 3 classi previste sono “chitarra elettrica” (p = 0,32), “chitarra acustica” (p = 0,24) e “Labrador” (p = 0,21)

.