Artificial intelligence

Explainable AI explained

29 Augustus 2024 - 2 minuten leestijd
Artikel door Gerco Koks En Razo Van Berkel

In de snelle wereld van kunstmatige intelligentie (AI) volgen de technologische doorbraken elkaar in rap tempo op. Zelfs voor AI-experts is het lastig alle ontwikkelingen bij te houden. Toch zijn er enkele thema's die niet alleen trending en hip zijn, maar ook fundamenteel belangrijk voor de toekomst van deze technologie. Eén van die thema's is Explainable AI. In dit artikel lees je er meer over.

Wat is Explainable AI?

Een korte en simpele uitleg: Explainable AI verwijst naar processen, technieken of functionaliteiten die ervoor zorgen dat de uitkomsten van AI op een voor mensen begrijpelijke manier interpreteerbaar zijn. De gebruiker krijgt bij het het gebruik van AI als het ware in tekst uitleg hoe het AI-systeem tot een antwoord is gekomen. Deze uitleg is ook begrijpelijk voor de gemiddelde gebruiker die geen verstand heeft van AI.

Waarom is dat belangrijk?

In algemene zin kunnen we zeggen dat het menselijk handelen en de beslissingen die mensen nemen, worden beïnvloed door AI. Zonder Explainable AI kunnen AI-systemen de hoogte van je uitkering bepalen, of bijvoorbeeld medische diagnosses stellen, zonder dat er duidelijk gemaakt wordt hoe een systeem tot resultaat komt. Zaken als de toeslagenaffaire hebben aangetoond dat dit enorm belangrijk is. Het zijn de mensen achter de knoppen die verantwoordelijk zijn voor de keuzes die gemaakt worden. En dan is het wel zo handig om als gebruiker van AI of een algoritme, te begrijpen hoe het systeem aan een bepaald antwoord komt. Dit heeft alles te maken met transparantie, vertrouwen, verantwoordelijkheid en compliance.

INSIGHTS-UPDATE

Ontvang nieuwe Insights maandelijks in je inbox.

Schrijf je in.

'Het zijn de mensen achter de knoppen die verantwoordelijk zijn voor de keuzes die gemaakt worden.'

Welke vormen zijn er van Explainable AI?

Explainable AI is een parapluterm voor allerlei technieken en methoden om AI inzichtelijker te maken. Hierbij zijn meerdere aanvliegroutes mogelijk. Met een technische insteek is het bijvoorbeeld mogelijk moeilijk te begrijpen AI-modellen achteraf inzichtelijk te maken. Bijvoorbeeld door een tweede AI-model te trainen op het gedrag van het eerste model. Deze kan dan het gedrag leren verklaren voor een eindgebruiker. Er zijn ook andere manieren om de uitkomsten van AI inzichtelijk te maken. Vaak is het mogelijk om de algoritmes van een AI-systeem vooraf transparant te maken. Een goed voorbeeld is het Algoritmeregister voor de overheid. Via dit register wordt de transparantie van AI gewaardborgd en de veelgenoemde black box vermeden.

Algoritmeregister: traditioneel vs ML-algoritmes

Een algoritme kun je definiëren als volgt: je hebt invoer, een gedefinieerde berekening en een uitvoer. Dit vormt het algoritme. Bij traditionele algoritmes is de berekening vooraf gedefinieerd, met een lijst regels of andere operaties. In het Algoritmenregister voor de overheid wordt er ook verwezen naar Machine Learning (ML)-algoritmen. Bij deze variant zit een algoritme, vaak aangeduid als model, anders in elkaar. Hoewel je nog steeds een invoer en een uitvoer hebt, zijn de berekeningen niet vooraf door de ontwikkelaar gedefinieerd in regels. Integendeel, met gebruik van veel data kunnen deze berekeningen worden aangeleerd (lees: getraind). Hier wordt het algoritme als het ware zelf opgesteld door de computer.

Hoe maak je een ML-algoritme toch transparant?

Dit maakt de transparantie dan weer lastiger: het ML-algoritme zit dan namelijk ook ingebed in veel losse parameters, vaak miljoenen of miljarden (voetnoot: miljarden zoals bij de bekende open-source AI-modellen van Meta, bijvoorbeeld Meta Llama 3 – 70B). Deze zijn voor mensen eigenlijk niet op schaal te interpreteren, waar regels van een traditioneel algoritme dat wel zijn. Dit roept natuurlijk de vraag op hoe je een ondoorzichtig algoritme toch in een algoritmeregister kunt zetten. Een manier is om allerlei technische details te delen, zowel over het trainingsproces als over de gebruikte databronnen voor training. Hiermee zou het ML-algoritme bijvoorbeeld, repliceerbaar kunnen worden. Ook kan er inzicht worden gegeven in de verificatiestappen die genomen zijn om de correcte werking van het algoritme te meten.

Explainable AI speelt, kortom, een belangrijke rol in het geven van vertrouwen en transparantie, en legt een belangrijke basis voor het verantwoordelijk gebruik van AI-systemen door eindgebruikers. In een tijd waar ingrijpende persoonlijke beslissingen steeds vaker met een AI-systeem gemaakt worden, is het essentieel voor betrokkenen om te begrijpen hoe deze beslissingen tot stand zijn gekomen. Bovendien draagt Explainable AI bij aan het naleven van regelgeving en het toepassen van de juiste ethische standaarden. Essentieel voor een verantwoorde en duurzame inzet van AI in onze samenleving.

Ontdek hoe Centric je hiermee kan helpen.
Onze oplossing.
Gerelateerde artikelen
AI en gebruikersondersteuning: waar liggen kansen?
Artificial intelligence
In dit artikel lees je over de kansen die AI biedt en hoe je die kansen slim kunt benutten.
Hoe detecteer je een deepfake?
Artificial intelligence Digital transformation Finance Public Logistic Retail
In dit artikel ontdek je hoe je deepfakes kunt detecteren.
Een Nederlandse tegenhanger van ChatGPT: goed idee?
Artificial intelligence
TNO werkt aan een open Nederlands AI-model, als transparante tegenhanger van ChatGPT. AI-engineer Razo va ...