Articles

Día041 – ¿Por qué debería confiar en ustedes?

Dos minutos de papel es un canal que recomendaré a otros. Agradezco que el propietario del canal dedique tiempo a resumir el papel académico a unos pocos minutos para que yo pueda navegar rápidamente sobre. Esta semana presenta un tema interesante que me gustaría compartir con ustedes.

«¿Por qué debo confiar en ti?» Explicando las predicciones de cualquier clasificador. Es un paper muy popular sólo con ver el número de veces que fue citado. Más de 300. WOW.

En el campo del aprendizaje automático, la gente a menudo se centra en la precisión mantenida. Un enfoque común para desarrollar un modelo de aprendizaje automático es tener el conjunto de datos dividido en entrenamiento, prueba y validación. Una alta precisión significa que el modelo está funcionando y que el modelo está listo para ser desplegado. Sin embargo, la precisión no debe ser el único factor que se tenga en cuenta. El modelo puede estar equivocado aunque su predicción sea correcta. En una imagen que contiene un lobo con un fondo de nieve, el modelo predice que la imagen contiene un lobo simplemente porque piensa que la nieve blanca es el pelaje de un lobo. Sin saber cómo llega el modelo a su conclusión, nunca sabremos si el modelo es realmente correcto. Puede que sólo tenga suerte. Nunca entenderíamos realmente por qué el modelo piensa que es un lobo a menos que sepamos con certeza qué parte de la imagen contribuye más cuando decide que es un lobo.

El artículo presenta LIME, Local Interpretable Model-agnostic Explanations. Es una técnica novedosa para explicar la predicción de cualquier clasificador de aprendizaje automático de una manera interpretable y fiel. Con la explicación, se aclara la razón de ser de la toma de decisiones de un modelo. Así, la gente puede ver a través de la caja negra del modelo de aprendizaje automático y confiar realmente en la predicción que emite. También ayuda a obtener una visión de cómo funciona el modelo o a señalar los puntos débiles que presenta.

El autor describe su punto de vista sobre las características deseadas para los explicadores, que LIME cumple todas ellas:

  • Interpretable, la explicación debe ser lo suficientemente fácil de entender dependiendo de la audiencia a la que va dirigida
  • Fidelidad Local, al menos localmente fiel en la proximidad de la instancia que se predice
  • Agnóstico al Modelo, debe explicar cualquier modelo
  • Perspectiva Global, seleccionar unas pocas explicaciones para que sean representativas del modelo

En el documento, se demuestra la flexibilidad del marco explicando modelos de clasificación de textos e imágenes.

Explica una predicción de clasificación de imágenes realizada por la red neuronal Inception de Google. Las 3 primeras clases predichas son «Guitarra eléctrica» (p = 0,32), «Guitarra acústica» (p = 0,24) y «Labrador» (p = 0,21)