NL
EN
Google Cloud

Een blik in de zwarte doos

Interpretatie van AI-modellen mogelijk maken

In de zoektocht naar preciezere AI heeft de beschikbaarheid van rekencapaciteit gecombineerd met steeds omvangrijker wordende datasets een beweging in gang gezet naar complexere, non-lineaire modellen. Met deze zeer complexe modellen kunnen ontwikkelaars onzichtbare correlaties vinden in grote hoeveelheden data. Het levert bedrijven nieuwe inzichten op, en daardoor een grote voorsprong op de concurrentie. Helaas zijn die ingewikkelde modellen steeds minder transparant geworden. In dit artikel maak je kennis met het bouwen van interpretabele en inclusieve machine learning modellen door gebruik te maken van Explainable AI.

Betere modellen maken
De bruikbaarheid en eerlijkheid van AI-systemen hangt erg af van in hoeverre de data-analist ze kan begrijpen en beheersen. Met Explainable AI kunnen AI Platform en AutoML gebruikers  invloeden van variabelen begrijpen en het gedrag van het model visueel monitoren met de What-if Tool. Onze tools helpen op die manier data-analisten bij het ontwerpen van modellen met zo min mogelijk bias en drift. Jouw eigen ontwikkelaars kunnen daardoor weer modellen ontwerpen met een hoge precisie en recall. Tot slot kunnen eindgebruikers meer vertrouwen krijgen in machine learning als ze modellen hebben die gemakkelijk uit te leggen en transparant zijn. 

Je modellen interpreteren met Feature Attribution
Zowel AutoML Tables als AI Platform laten ontwikkelaars zien hoe belangrijk een bepaalde feature was bij het bouwen van een model. Op die manieren kunnen ontwikkelaars bias en niet-gebalanceerde of niet-genormaliseerde datasets beheren. Beide oplossingen kunnen ook de feature attributes voor een bepaald item laten zien.

Neem nu een diep neuraal netwerk dat is getraind om de duur van een fietstocht te voorspellen, gebaseerd op informatie over het weer en eerder gedeelde ride-sharing data. Als je het model alleen vraagt om voorspellingen, krijg je de voorspelde duur van fietstochten in aantal minuten. Vraag je om verklaringen, dan krijg je de voorspelde duur van de fietstocht en een ‘attribution score’ voor elke feature in je vraag. De attribution scores laten zien hoeveel invloed die feature heeft gehad op de verandering in voorspellingswaarde, in relatie tot de basiswaarde die je vaststelt. Kies een basiswaarde die logisch is voor jouw model, in dit geval de gemiddelde duur van een fietstocht. Je kunt de feature attribution scores in kaart brengen om te kijken welke features de meeste invloed hadden op de voorspellingen die uit je opdracht kwamen.

 

Daarnaast kun je met AI Platform modellen laten uitleggen waarom bepaalde afbeeldingen hun classificering hebben meegekregen. Zo leren ontwikkelaars beter begrijpen waarom een afbeelding onjuist is geclassificeerd en daarop actie ondernemen. Een ‘image classification model’ is getraind om een bloemensoort op een plaatje te voorspellen. Als je voorspelling vraagt van dit model op basis van nieuwe set afbeeldingen, krijg je een voorspelling voor elke afzonderlijk plaatje (“madeliefje” of “paardebloem”). Als je verklaringen vraagt, krijg je de voorspelde soort en een overlay met de afbeelding waarin je ziet welke delen daarvan het meest hebben bijgedragen aan de voorspelling die het model geeft.

 

Laat je ogen het werk doen
Met de What-If Tool kun je heel eenvoudig efficiënt en intuïtief onderzoek doen naar de prestaties van maximaal twee modellen op een dataset. Dit kun je doen voor verschillende features in je dataset, optimalisatiestrategieën en zelfs na manipulaties van afzonderlijke waardes. En dat alles op een visuele manier die weinig code vraagt.

Door de compatibiliteit met TensorBoard, AI Platform, Jupyter en Colaboratory notebooks kunnen data-analisten gewoon de IDE gebruiken waar ze het liefst mee werken.

Lees nu de What-if Tool Tutorial, kijk naar het filmpje hieronder voor een korte kennismaking met de What-If Tool, of bekijk hier meer gedetailleerde afleveringen.

 

Ben je benieuwd hoe jouw bedrijf nu al kan beginnen met het gebruiken van Explainable AI? Klik hier voor onze whitepaper over Explainable AI.

Bronnen: