Uitlegbare AI in de financiele sector

afbeelding uitlegbare AI in de financiele sector
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. 

Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus.

Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren.

Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder.

Doel

Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders.

Resultaten

  • Uitlegbare AI binnen de financiële sector gedefinieerd.
  • Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper ‘Explainable AI in the financial sector’.
  • Principes en richtlijnen voor het ontwikkelen van AI-toepassingen binnen de financiële sector gelet op eisen van uitlegbaarheid.

Looptijd

01 juni 2020 - 30 juni 2022

Aanpak

Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren.

Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector. 

Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen.

Betrokken HU-onderzoekers

Betrokken lectoraten

Samenwerking met kennispartners

Wil je samenwerken of heb je een vraag?

Stefan Leijnen

Stefan Leijnen

  • Lector
  • Lectoraat: Artificial Intelligence