Spel stelt ethiek aan de orde bij ontwikkelen AI-oplossingen

Bij het ontwikkelen van Artificial Intelligence (AI)-toepassingen wordt steeds meer rekening gehouden met ethische aspecten. Bijvoorbeeld bij zelfrijdende auto’s. Maar hoe breng je ethiek naar AI? Het lectoraat Artificial Intelligence van de HU heeft een spel ontwikkeld dat professionals, beleidsmakers en studenten op de goede weg helpt. Lector Stefan Leijnen: “In ethiek kan je niet het ene tegen het andere wegstrepen.”

“Onze onderzoekers liepen rond met de vraag: hoe kun je ethische richtlijnen voor AI verwerken in producten? In het onderwijs kan je die richtlijnen in het lesmateriaal gebruiken. Maar in de praktijk, als je software bouwt, heb je zo’n lijstje niet bij de hand. We zochten een manier om deze richtlijnen toch in het ontwerpproces te krijgen”, vertelt Stefan Leijnen, lector bij het lectoraat Artificial Intelligence. “We raakten in gesprek met de Stichting Toekomstbeeld der Techniek (STT). Samen kwamen we tot een interessant idee: waarom niet een spel ontwikkelen dat gebruikt kan worden in scrum ontwerpsessies van ontwikkelaars? Ook het NEN, een organisatie die de ontwikkeling van normen begeleid en stimuleert, is toen aangehaakt bij het project.”

Human-centered

In het spel worden de spelers benaderd door de start-up ‘Ethics Inc’, om een betrouwbare AI-applicatie te ontwikkelen die voldoet aan de Europese richtlijnen. Die richtlijnen zijn betrekkelijk nieuw, vertelt Leijnen. “Een jaar of zes, zeven geleden werd AI opeens een hype. En als technologie een hoge vlucht neemt, wordt het een Frankenstein-monster. Het gaat zich steeds autonomer ontwikkelen, iedereen gaat ermee aan de haal, de controle neemt af. Inmiddels zien we een tegenreactie, een poging om de ontwikkeling van de technologie weer meer te controleren en human-centered te maken, met oog voor de menselijke kant. De Europese Commissie liet hiervoor ethische richtlijnen voor betrouwbare AI opstellen. Wie zijn AI-toepassingen op de Europese markt wil brengen, doet er goed aan deze richtlijnen te volgen. Op deze richtlijnen hebben wij ons gebaseerd bij het ontwikkelen van het spel.”

"Als technologie een hoge vlucht neemt, wordt het een Frankenstein-monster"

Stefan Leijnen, lector Artificial Intelligence

Medewerking van studenten

Een eerste versie is inmiddels beschikbaar, als kaartspel. “Dat lijkt misschien ouderwets maar dit soort spellen wordt vaak in scrum-sessies gebruikt door ontwikkelaars. Nu iedereen grotendeels op afstand werkt, is de behoefte aan een digitale versie wel groter geworden. Een studententeam van HBO-ICT gaat hier komend semester mee aan de slag. We laten de studenten het spel bovendien spelen om aan de hand van hun feedback tot verbeteringen te komen. Het spel is sowieso zeer geschikt om studenten te leren over de ethische aspecten van AI-ontwerp. Die onderwijscomponent is vanaf het begin belangrijk geweest in dit project.”

Keuzes en consequenties

Het spel is dus niet enkel een praktische tool voor ontwikkelaars, Het helpt ook de bewustwording over de rol van ethiek bij AI te vergroten. “Of je nou ontwikkelaar bent of beleidsmaker of student, je voert eigenlijk dezelfde discussie: wat zijn de gevolgen van bepaalde keuzes voor de gebruiker en de maatschappij? Het spel laat zien dat keuzes verregaande consequenties kunnen hebben. Ons uitgangspunt is echter niet dat ethische dilemma’s altijd een zero-sum game zijn, dat de keus voor het ene een keus tegen het andere is. We denken eerder dat oplossingen voor ethische dilemma’s in elkaars verlengde kunnen liggen. In ethiek kan je niet het ene tegen het andere wegstrepen.” Het spel is hier te downloaden.

Meer weten?

Het lectoraat Artificial Intelligence (voorheen: Intelligent Data Systems) van de HU doet onderzoek naar toepassingen van artificial intelligence en werkt aan data-gedreven innovatie, waarbij de mens – en daarmee waarden als transparantie, vertrouwen, creativiteit en autonomie – centraal staan. Kijk hier voor meer informatie. De filosofie achter het ontwerpspel is uitgediept in het artikel An Agile Framework for Trustworthy AI, dat 4 september werd gepresenteerd op de ECAI-conferentie.

Deel dit artikel