Articles

Dag041 – Varför ska jag lita på dig?

Two minutes paper är en kanal som jag kommer att rekommendera till andra. Jag uppskattar att kanalägaren lägger tid på att sammanfatta akademiska papper till några minuter så att jag snabbt kan bläddra om. Den här veckan presenterar den ett intressant ämne som jag vill dela med mig av till dig.

”Varför ska jag lita på dig?” Förklara förutsägelserna för alla klassificerare. Det är en populär artikel bara genom att titta på antalet gånger den har citerats. Över 300. WOW.

Inom området maskininlärning fokuserar folk ofta på den hållna noggrannheten. Ett vanligt tillvägagångssätt för att utveckla en maskininlärningsmodell är att datamängden delas upp i träning, testning och validering. En hög noggrannhet innebär att modellen fungerar och att modellen är redo att driftsättas. Noggrannheten bör dock inte vara den enda faktorn du tittar på. Modellen kan ha fel även om dess prediktion är korrekt. I en bild som innehåller en varg med en snöbakgrund förutsäger modellen att bilden innehåller en varg helt enkelt för att den tror att den vita snön är en vargs päls. Utan att veta hur modellen kommer fram till sin slutsats kommer vi aldrig att veta om modellen verkligen är korrekt. Den kanske bara har tur. Vi skulle aldrig riktigt förstå varför modellen tror att det är en varg om vi inte med säkerhet vet vilken del av bilden som bidrar mest när den beslutar att det är en varg.

I uppsatsen introduceras LIME, Local Interpretable Model-agnostic Explanations. Det är en ny teknik för att förklara förutsägelsen av varje maskininlärningsklassificator på ett tolkningsbart och trovärdigt sätt. Med förklaringen klargörs resonemanget bakom en modells beslutsfattande. På så sätt kan människor se igenom den svarta lådan i modellen för maskininlärning och verkligen lita på de förutsägelser som den ger ut. Det hjälper också till att få en inblick i hur modellen fungerar eller att identifiera eventuella svagheter.

Författaren beskriver sin syn på de önskade egenskaperna hos förklarare, som LIME uppfyller alla:

  • Tolkningsbar, förklaringen bör vara tillräckligt lätt att förstå beroende på målgruppen
  • Lokal trohet, åtminstone lokalt trogen i närheten av den instans som förutsägs
  • Modellagnostisk, bör förklara vilken modell som helst
  • Global Perspective, välj några förklaringar som är representativa för modellen

I artikeln demonstreras ramverkets flexibilitet genom att förklara modeller för text- och bildklassificering.

Förklarar en förutsägelse för bildklassificering som gjorts av Googles neurala nätverk Inception. De tre främsta klasserna är ”Electric Guitar” (p = 0,32), ”Acoustic guitar” (p = 0,24) och ”Labrador” (p = 0,21)