Welke vormen zijn er van Explainable AI?
Explainable AI is een parapluterm voor allerlei technieken en methoden om AI inzichtelijker te maken. Hierbij zijn meerdere aanvliegroutes mogelijk. Met een technische insteek is het bijvoorbeeld mogelijk moeilijk te begrijpen AI-modellen achteraf inzichtelijk te maken. Bijvoorbeeld door een tweede AI-model te trainen op het gedrag van het eerste model. Deze kan dan het gedrag leren verklaren voor een eindgebruiker. Er zijn ook andere manieren om de uitkomsten van AI inzichtelijk te maken. Vaak is het mogelijk om de algoritmes van een AI-systeem vooraf transparant te maken. Een goed voorbeeld is het Algoritmeregister voor de overheid. Via dit register wordt de transparantie van AI gewaardborgd en de veelgenoemde black box vermeden.
Algoritmeregister: traditioneel vs ML-algoritmes
Een algoritme kun je definiëren als volgt: je hebt invoer, een gedefinieerde berekening en een uitvoer. Dit vormt het algoritme. Bij traditionele algoritmes is de berekening vooraf gedefinieerd, met een lijst regels of andere operaties. In het Algoritmenregister voor de overheid wordt er ook verwezen naar Machine Learning (ML)-algoritmen. Bij deze variant zit een algoritme, vaak aangeduid als model, anders in elkaar. Hoewel je nog steeds een invoer en een uitvoer hebt, zijn de berekeningen niet vooraf door de ontwikkelaar gedefinieerd in regels. Integendeel, met gebruik van veel data kunnen deze berekeningen worden aangeleerd (lees: getraind). Hier wordt het algoritme als het ware zelf opgesteld door de computer.
Hoe maak je een ML-algoritme toch transparant?
Dit maakt de transparantie dan weer lastiger: het ML-algoritme zit dan namelijk ook ingebed in veel losse parameters, vaak miljoenen of miljarden (voetnoot: miljarden zoals bij de bekende open-source AI-modellen van Meta, bijvoorbeeld Meta Llama 3 – 70B). Deze zijn voor mensen eigenlijk niet op schaal te interpreteren, waar regels van een traditioneel algoritme dat wel zijn. Dit roept natuurlijk de vraag op hoe je een ondoorzichtig algoritme toch in een algoritmeregister kunt zetten. Een manier is om allerlei technische details te delen, zowel over het trainingsproces als over de gebruikte databronnen voor training. Hiermee zou het ML-algoritme bijvoorbeeld, repliceerbaar kunnen worden. Ook kan er inzicht worden gegeven in de verificatiestappen die genomen zijn om de correcte werking van het algoritme te meten.
Explainable AI speelt, kortom, een belangrijke rol in het geven van vertrouwen en transparantie, en legt een belangrijke basis voor het verantwoordelijk gebruik van AI-systemen door eindgebruikers. In een tijd waar ingrijpende persoonlijke beslissingen steeds vaker met een AI-systeem gemaakt worden, is het essentieel voor betrokkenen om te begrijpen hoe deze beslissingen tot stand zijn gekomen. Bovendien draagt Explainable AI bij aan het naleven van regelgeving en het toepassen van de juiste ethische standaarden. Essentieel voor een verantwoorde en duurzame inzet van AI in onze samenleving.