Artificial intelligence

Generatieve AI: het Taker Archetype en EU-regelgeving

25 April 2024 - 4 minuten leestijd
Artikel door Serena De Pater En Razo Van Berkel

In december 2023 zijn het Europees Parlement en de Raad van de EU tot een politieke overeenkomst gekomen over de Artificial Intelligence Act. De tekst is in behandeling om formeel goedgekeurd en vertaald te worden. De nadruk van de AI-act ligt op het waarborgen van Europese waarden en het creëren van een kader voor betrouwbare AI-ontwikkeling en -implementatie.

De AI-act treedt twintig dagen na publicatie in het Publicatieblad van de Europese Unie in werking en is pas twee jaar later volledig van toepassing (enkele uitzonderingen daargelaten).

Met het oog op deze recente belangrijke gebeurtenis, verschijnen er op dit platform drie artikelen die zich richten op de AI-act rondom generatieve AI. Dit is het eerste artikel in die serie.

INSIGHTS-UPDATE

Ontvang nieuwe Insights maandelijks in je inbox.

Schrijf je in.

Generatieve AI

Generatieve AI, kort voor generatieve kunstmatige intelligentie, is een type AI dat nieuwe gegevens, tekst, afbeeldingen, muziek of zelfs computercode kan helpen schrijven. Eenvoudig gezegd kan generatieve AI leren van bestaande inhoud en die kennis gebruiken om geheel nieuwe data te genereren. Voorbeelden van bekende generatieve AI-toepassingen zijn ChatGPT en Midjourney. Organisaties kunnen hun gebruik van generatieve AI optimaliseren door eerst een strategische aanpak te definiëren die is afgestemd op hun specifieke behoeften en vereisten. Dit houdt in dat ze moeten beslissen of ze bestaande AI-modellen willen aanschaffen, vooraf getrainde AI-modellen met enkele aanpassingsopties willen kopen, of hun eigen AI-modellen willen bouwen.

Er zijn drie archetypes bij het bouwen van generatieve AI: Takers (of Nemers), Shapers (of Aanpassers) en Creators (of Makers). De Taker is het meest voorkomende AI-archetype. In softwareontwikkeling ben je een AI Taker als je een kant-en-klare AI-oplossing integreert in je softwaresuite. Kant-en-klare AI-oplossingen zijn meestal compact, goed getest en afkomstig van gerenommeerde bronnen, zoals externe leveranciers of opslagplaatsen voor open-source projecten. Je kunt kiezen tussen commercieel gelicentieerde AI-componenten van betrouwbare leveranciers of gratis open-source opties. Een voorbeeld van een veelgebruikte opensource-component is Mozilla DeepSpeech.

IT-inzichten die je niet mag missen

Als eerste op de hoogte zijn van de laatste IT-ontwikkelingen? Schrijf je in voor onze maandelijkse nieuwsbrief.

Het gebruik van een zogenaamde off-the-shelf AI-component biedt verschillende voordelen. Allereerst vereist het gebruik van kant-en-klare AI-componenten vaak minder diepgaande technische AI-kennis van de ontwikkelaar die ze integreert. Dit komt omdat deze AI-componenten ontworpen zijn als end-to-end oplossingen die toegankelijk zijn via een API (Application Programing Interface).

Ten tweede zorgt het gebruik van off-the-shelf AI-componenten voor een drastische verkorting van de ontwikkelingstijd en -kosten. Omdat de kerntechnologie al ontwikkeld en getest is, hoeven bedrijven de oplossingen niet from scratch op te bouwen. Dit resulteert in een snellere lancering van nieuwe functies en verbeteringen.

Tot slot geeft het gebruik van vooraf gebouwde AI-componenten en -oplossingen toegang tot een gemeenschap van gebruikers en ontwikkelaars. Deze gemeenschap draagt bij aan de voortdurende verbetering van de AI-component door het leveren van waardevolle feedback, bugrapporten en bijdragen aan de codebase.

Een belangrijk nadeel van het gebruik van deze benadering is echter de afhankelijkheid van de externe leverancier(s) voor de AI-componenten. Als een kritieke AI-component verouderd raakt of afwijkt van de vereisten van de integrator, kan dit onvoorziene wijzigingen of de noodzaak voor vervanging met zich meebrengen, waardoor de werking of ontwikkeling van het product mogelijk wordt verstoord.

Mozilla DeepSpeech is een open-source inbedbare spraak-naar-tekst engine (STT). https://github.com/mozilla/DeepSpeech

Taker

Voorbeeld

Een websitebouwer integreert Google Translate in de website van een klant. Google Translate is een AI-oplossing (Machine Learning) en wordt in zijn geheel gebruikt door een ander bedrijf.

De cyberbeveiligingsoverwegingen bij het Taker-archetype

Lees de (technische) documentatie zorgvuldig

Omdat off-the-shelf generatieve AI is gemaakt door een andere organisatie, heb je mogelijk geen volledig inzicht in hoe de generatieve AI is gebouwd, getraind of hoe het werkt. Dit gebrek aan transparantie kan het moeilijk maken om de validiteit van de output van de AI te beoordelen.

Volgens artikel vijftienvan de nieuwe EU AI-wet moeten alle AI-systemen en -toepassingen met een hoog risico echter beschikken over krachtige cyberbeveiligingsmaatregelen om te voorkomen dat hackers de trainingsgegevens, input of interne componenten kunnen manipuleren, zodat de output betrouwbaar is. Toch is het aan te raden om de (technische) documentatie van de AI-component of software grondig te lezen voordat je deze in je organisatie opneemt.

Ga voorzichtig te werk

Om er zeker van te zijn dat de output betrouwbaar is, moet je voorzichtig omgaan met de AI-component en deze gebruiken zoals het bedoeld is. Gebruik de generatieve AI-oplossing niet om phishingmails te ontwerpen of kwaadaardige code te genereren om anderen schade te berokkenen en/of kwetsbaarheden in de beveiliging te zoeken.

Kies een veilige en betrouwbare AI-component of -oplossing

Ook al zijn er wetten en regels van kracht, het generatieve AI-model dat je gebruikt, kan mogelijk ingebouwde malware of backdoors bevatten die zijn geconfigureerd tijdens de ontwikkeling van het model. Deze zwakke plekken of gebreken kunnen per ongeluk of met opzet zijn geconfigureerd. Een voorbeeldscenario is hackers die mensen misleiden door online valse of kwaadaardige generatieve AI-systemen te maken. Het gebruik van een generatief AI-systeem met zwakheden of malware kan leiden tot onbevoegde toegang tot je systemen, diefstal van gegevens of manipulatie van de output van de AI voor kwaadaardige doeleinden.

De volgende keer: de Shaper

De kwaliteit en vooringenomenheid van de trainingsgegevens hebben een grote invloed op de uitvoer van een generatieve AI. Wat als je meer controle wilt hebben over de gebruikte trainingsdata? Misschien moet je een voorgetraind generatief AI-model verfijnen om te voldoen aan je specifieke behoeften. In het volgende artikel belichten we het tweede generatieve AI-type: de Shaper!

Ontdek hoe Centric je hiermee kan helpen.
Onze oplossing.
Gerelateerde artikelen
Artificial intelligence: hoe zit het met wetgeving?
Artificial intelligence
In dit artikel lees je alles over Artificial Intelligence en wetgeving.
Waarom Centric met een eigen AI-model experimenteert
Artificial intelligence
Centric werkt aan een eigen AI-model dat rekening houdt met onder meer privacy en informatieveiligheid. W ...
Een Nederlandse tegenhanger van ChatGPT: goed idee?
Artificial intelligence
TNO werkt aan een open Nederlands AI-model, als transparante tegenhanger van ChatGPT. AI-engineer Razo va ...