Articles

Jour041 – Pourquoi devrais-je vous faire confiance ?

Le papier de deux minutes est une chaîne que je recommanderai aux autres. J’apprécie que le propriétaire de la chaîne passe du temps à résumer le papier académique à quelques minutes afin que je puisse naviguer rapidement à ce sujet. Cette semaine, il présente un sujet intéressant que je voudrais partager avec vous.

« Pourquoi devrais-je vous faire confiance ? » Explication des prédictions de tout classificateur. C’est un papier populaire juste en regardant le nombre de fois qu’il a été cité. Plus de 300. WOW.

Dans le domaine de l’apprentissage automatique, les gens se concentrent souvent sur la précision retenue. Une approche commune pour développer un modèle d’apprentissage automatique est d’avoir l’ensemble de données divisé en formation, test et validation. Une précision élevée signifie que le modèle fonctionne et qu’il est prêt à être déployé. Toutefois, la précision ne doit pas être le seul facteur à prendre en compte. Le modèle peut se tromper même si sa prédiction est correcte. Dans une image contenant un loup sur fond de neige, le modèle prédit que l’image contient un loup simplement parce qu’il pense que la neige blanche est la fourrure d’un loup. Sans savoir comment le modèle arrive à sa conclusion, nous ne saurons jamais si le modèle est vraiment correct. Il pourrait simplement avoir de la chance. Nous ne comprendrions jamais vraiment pourquoi le modèle pense qu’il s’agit d’un loup à moins de savoir avec certitude quelle partie de l’image contribue le plus lorsqu’il décide qu’il s’agit d’un loup.

L’article présente LIME, Local Interpretable Model-agnostic Explanations. C’est une nouvelle technique pour expliquer la prédication de n’importe quel classificateur d’apprentissage automatique d’une manière interprétable et fidèle. Avec l’explication, il clarifie le raisonnement derrière la prise de décision d’un modèle. Les gens peuvent alors voir à travers la boîte noire du modèle d’apprentissage automatique et faire réellement confiance aux prédictions qu’il émet. Cela aide également à avoir un aperçu de la façon dont le modèle fonctionne ou à mettre le doigt sur la faiblesse si elle présente.

L’auteur décrit son point de vue sur les caractéristiques souhaitées pour les explicateurs, que LIME répond à toutes :

  • Interprétable, l’explication doit être suffisamment facile à comprendre en fonction du public cible
  • Fidélité locale, au moins localement fidèle au voisinage de l’instance prédite
  • Agnostique de modèle, devrait expliquer n’importe quel modèle
  • Perspective globale, sélectionner quelques explications pour être représentatives du modèle

Dans l’article, il démontre la flexibilité du cadre en expliquant des modèles de classification de textes et d’images.

Explication d’une prédiction de classification d’images faite par le réseau neuronal Inception de Google. Les 3 principales classes prédites sont « guitare électrique » (p = 0,32), « guitare acoustique » (p = 0,24) et « Labrador » (p = 0,21)

.