Articles

Dia041 – Porque devo confiar em vocês?

O papel de dois minutos é um canal que eu recomendarei a outros. Agradeço ao dono do canal ter gasto tempo para resumir o trabalho acadêmico a alguns minutos para que eu pudesse navegar rapidamente por aí. Esta semana ele apresenta um tópico interessante que eu gostaria de compartilhar com vocês.

“Why Should I Trust You” (Por que devo confiar em vocês?) Explicando as Previsões de Qualquer Classificador. É um artigo popular apenas por olhar para o número de vezes que foi citado. Mais de 300. WOW.

No campo da aprendizagem de máquinas, as pessoas muitas vezes se concentram na exatidão mantida. Uma abordagem comum para desenvolver um modelo de aprendizagem de máquina é ter o conjunto de dados dividido em treinamento, teste e validação. Uma alta precisão significa que o modelo está funcionando e o modelo está pronto para ser implantado. No entanto, a precisão não deve ser o único fator a ser considerado. O modelo pode estar errado, mesmo que sua predicação esteja correta. Em uma imagem contendo um lobo com um fundo de neve, o modelo prevê que a imagem contém um lobo simplesmente porque pensa que a neve branca é o pêlo de um lobo. Sem saber como o modelo chega à sua conclusão, nunca saberemos que é o modelo realmente correto. Pode ser que tenha apenas sorte. Nunca entenderemos verdadeiramente porque o modelo pensa que é lobo, a menos que saibamos ao certo qual parte da imagem contribui mais quando decide que é um lobo.

>

>

>

>

>

>

>>

O artigo introduz LIME, Explicações agnósticas do Modelo Interpretável Local. É uma nova técnica para explicar a predicação de qualquer classificador de aprendizagem de máquinas de uma forma interpretável e fiel. Com a explicação, esclarece a lógica por detrás da tomada de decisão de um modelo. Então, as pessoas podiam ver através da caixa negra do modelo de aprendizagem de máquinas e realmente confiar na predicação que ele dá. Também ajuda a obter uma visão de como o modelo se comporta ou a identificar as suas fraquezas, se elas se apresentam.

O autor descreve o seu ponto de vista sobre as Características Desejadas para Explicadores, que a LIME conhece a todos eles:

  • Interpretável, a explicação deve ser suficientemente fácil de entender dependendo do público-alvo
  • Fidelidade Local, pelo menos fiel localmente nas proximidades da instância sendo prevista
  • Modelo Agnóstico, deve explicar qualquer modelo
  • Perspectiva Global, selecione algumas explicações para ser representativo do modelo

No trabalho, demonstra a flexibilidade da estrutura explicando modelos de classificação de texto e imagem.

>

Explicar uma previsão de classificação de imagem feita pela rede neural Inception do Google. As 3 primeiras classes previstas são “Electric Guitar” (p = 0,32), “Acoustic guitar” (p = 0,24) e “Labrador” (p = 0,21)