Het is inmiddels breed geaccepteerd dat beslissingen die door AI-systemen worden genomen, uitlegbaar moeten zijn aan hun gebruikers. Toch blijft het in de praktijk vaak onduidelijk hoe die uitlegbaarheid concreet vorm moet krijgen. Vooral voor niet-technische gebruikers, zoals scha-debeoordelaars bij verzekeringsmaatschappijen, is het essentieel dat zij de beslissingen van een AI-systeem goed kunnen begrijpen én kunnen uitleggen aan klanten. Denk bijvoorbeeld aan het toelichten van een afgewezen schadeclaim of leningaanvraag. Hoewel het belang van verklaarbare AI algemeen wordt erkend, ontbreekt het vaak aan praktische handvatten om dit te realiseren. Daarom hebben we in deze handreiking inzichten samengebracht uit twee use cases binnen de financiële sector én uit een uitgebreide literatuurstudie. Hieruit zijn 30 aspecten van betekenisvolle uitleg van AI voortgekomen. Op basis van deze aspecten is een checklist ontwikkeld die AI-ontwikkelaars helpt om hun systemen beter uitlegbaar te maken. De checklist biedt niet alleen inzicht in hoeverre een AI-toe-passing op dit moment begrijpelijk is voor eindgebruikers, maar maakt ook duidelijk waar nog verbeterpunten liggen.