Experts bespreken ethische inzet van AI in media
Het integreren van AI in de media brengt allerlei ethische zorgen met zich mee. AI-systemen die autonoom beslissingen nemen kunnen leiden tot een verlies van menselijke controle over inhoud en distributie. Als een AI-systeem is getraind met een dataset die niet representatief is, kan het bepaalde groepen stereotyperen of zelfs discrimineren. Het vertrouwen van het publiek in de media kan afnemen als AI-systemen worden gezien als onbetrouwbaar of manipulatief. Dat zijn risico’s die we niet uit het oog mogen verliezen. Maar wat zijn kansen? “Omdat er nog zo weinig regulering is, is risico-framing momenteel dominant in het debat over AI”, stelde Natali Helberger, universiteitshoogleraar Recht & Digitale Technologie aan de Universiteit van Amsterdam. “Maar AI is niet een autonome kracht. De discussie AI zou daarom ook over macht moeten gaan. Wie heeft de macht om risico’s op te leggen aan de meerderheid ten gunste van een minderheid?”
Bewust het goede
Die macht ligt niet uitsluitend bij de techbedrijven die AI ontwikkelen. Ook mediaorganisaties en onderzoekers hebben veel macht, vindt Helberger: ze kunnen de risico’s van AI zelf definiëren en onderzoeken. “Mediaorganisaties moeten hun macht gebruiken om te definiëren wat acceptabele risico’s zijn. We kunnen risicoafweging niet alleen overlaten aan de grote Amerikaanse techbedrijven. We moeten ons niet alleen afvragen: waar gaan we naartoe, maar ook: waar willen we naartoe? AI draait natuurlijk niet alleen om risico’s. Uiteindelijk moet de vraag zijn: hoe kunnen we generatieve AI gebruiken om bewust het goede te doen?”
Complexe dynamiek
Voor die positieve benadering is wel het vertrouwen van het publiek nodig. En het vertrouwen in de media daalt juist, constateerde de European Trust Alliance (THETA). Men vertrouwt berichten op sociale media meer en meer ten opzichte van die van journalisten. Geïnformeerde burgers zijn in sommige dossiers, zoals de gaswinning, ook zelf expert geworden. Het is een complexe dynamiek. Om het noodzakelijke vertrouwen in de media weer op te bouwen, moeten kennisinstituten, markt, overheid en burgers beter gaan samenwerken, aldus THETA.
"We moeten ons niet alleen afvragen: waar gaan we naartoe, maar ook: waar willen we naartoe?"
Meer diepgang bereikt
Artificial Intelligence lijkt zo vooral een bron van wantrouwen. Maar AI biedt ook kansen om elkaar beter te leren begrijpen. Zo kan het gebruikt worden om mensen te bevragen op manieren die eerder niet mogelijk waren, stelde Renée van der Nat tijdens het event. Als medewerker van het HU-lectoraat Kwaliteitsjournalistiek in Digitale Transitie demonstreerde zij hoe een met wetenschappelijke prompts gestuurd Large Language Model (LLM) respondenten in staat stelt om open antwoorden te geven op vragen. De LLM-gestuurde chatbot past zijn vervolgvragen steeds aan op de gegeven antwoorden. De verwerking van de resultaten vergt meer aandacht, maar de antwoorden geven veel meer diepgang dan bereikt kan worden met een vooraf opgestelde, vaste vragenlijst, aldus Van der Nat.
Hoopvol
Het is belangrijk dat de maatschappelijke impact van AI hoog op de agenda van mediabedrijven blijft staan, concludeerden de deelnemers van het event. De media hebben de verantwoordelijkheid AI op een transparante, maatschappelijk verantwoorde manier toe te passen en daarbij publieke waarden te borgen. Media moeten gebruikers bovendien leren hoe ze nieuws goed kunnen beoordelen en desinformatie kunnen herkennen. Dat kan onder andere door een Bellingcat- of Wikipedia-achtig platform te bouwen. Ook moeten de media hoognodig alternatieven gaan ontwikkelen voor gebruikers, zodat ze niet te veel afhankelijk zijn van één techbedrijf.
“De resultaten van de bijeenkomst stemmen ons hoopvol”, stelt Frank Visser, programmamanager bij het Kenniscentrum Digital Business and Media van Hogeschool Utrecht. “In de ontwikkelingen voor het gebruik van AI binnen de Nederlandse media wordt intensief nagedacht over Europese waarden als privacy en veiligheid. Er is met deze labs een serieuze groep mensen mee bezig, waaronder mensen van de HU. De bijeenkomst heeft duidelijk gemaakt dat samenwerking tussen kennisinstituten, mediaorganisaties en de overheid essentieel is om AI op een verantwoorde manier te integreren in de media."
De labs
Het deepdive event ‘Media and AI, Current Challenges and Future Perspectives’, werd gehost door het Kenniscentrum Digital Business and Media van Hogeschool Utrecht. De organisatie was in handen van de vier deelnemende ICAI-labs (Innovation Center for Artificial Intelligence) en ELSA-labs (Ethical, Legal and Societal Aspects): het Trustworthy AI Based Systems for Sustainable Growth Lab (TAIM), het Responsible Media Lab (REM), het AI, Digital Culture & Media Lab – waar Hogeschool Utrecht met Universiteit Utrecht in deelneemt – en het AI, Media and Democracy Lab (AIMD). Ook waren enkele vooraanstaande mediaorganisaties aanwezig: NOS, RTL, Beeld & Geluid, DPG Media en PublicSpaces.
Tekst: Mariek Hilhorst