Artificial intelligence

Generatieve AI: het Shaper Archetype en EU-regelgeving

8 Mei 2024 - 4 minuten leestijd
Artikel door Serena De Pater En Razo Van Berkel

In maart 2024 heeft het Europees Parlement de Europese AI-wet aangenomen. De tekst is in behandeling om formeel goedgekeurd en vertaald te worden. De nadruk van de AI-act ligt op het waarborgen van Europese waarden en het creëren van een kader voor betrouwbare AI-ontwikkeling en -implementatie.

Houd er rekening mee dat op het moment van publicatie van dit Insights-artikel de EU-AI Act is gepubliceerd, maar nog niet volledig is aangenomen. Op de volgende webpagina kun je een overzicht vinden van de belangrijkste data die relevant zijn voor de implementatie van de AI Act: AI Act Implementatie: Timelines & Next steps | EU Artificial Intelligence Act. Als je op de hoogte wilt blijven van belangrijke updates van de wet en de implementatie ervan, kun je je inschrijven voor de EU AI Act nieuwsbrief.

Op dit platform verschijnen drie artikelen die zich richten op de AI-act rondom generatieve AI. Dit is het tweede artikel in die serie. Het eerste artikel vind je hier.

INSIGHTS-UPDATE

Ontvang nieuwe Insights maandelijks in je inbox.

Schrijf je in.

Generatieve AI

Generatieve AI, kort voor generatieve kunstmatige intelligentie, is een type AI dat nieuwe gegevens, tekst, afbeeldingen, muziek of zelfs computercode kan helpen schrijven. Eenvoudig gezegd kan generatieve AI leren van bestaande inhoud en die kennis gebruiken om geheel nieuwe data te genereren. Voorbeelden van bekende generatieve AI-toepassingen zijn ChatGPT en Midjourney. Organisaties kunnen hun gebruik van generatieve AI optimaliseren door eerst een strategische aanpak te definiëren die is afgestemd op hun specifieke behoeften en vereisten. Dit houdt in dat ze moeten beslissen of ze bestaande AI-modellen willen aanschaffen, vooraf getrainde AI-modellen met enkele aanpassingsopties willen kopen, of hun eigen AI-modellen willen bouwen.

Er zijn drie archetypes bij het bouwen van generatieve AI: Takers (zie het eerste artikel), Shapers en Creators.

ARTIKEL.

Generatieve AI: het Taker Archetype en EU-regelgeving

Lees meer.

Shapers

Stel je voor dat je op zoek bent naar een nieuwe plek om te wonen en je moet snel verhuizen. De kans is groot dat je dan overweegt om een gemeubileerd appartement te huren. Dit is handig, omdat je niet vanaf nul hoeft te beginnen met inrichten; je kunt er meteen gaan wonen! Hoewel hethuis basismeubilair heeft, is  het nog niet echt jouw thuis, dus je besluit om persoonlijke spullen toe te voegen aan je appartement. Je schildert de muren en hangt familiefoto's op, zodat het appartement aanvoelt als jouw eigen plek.

Dit is een analogie voor het Shaper Archetype, waarbij je vooraf gebouwde AI-technologie vormgeeft, zodat het past bij jouw behoeften. Een voorbeeldscenario is wanneer bedrijven bestaande AI-modellen (deels) aanpassen om ze te integreren met hun applicatie. Dit in tegenstelling tot het Taker Archetype, waarbij je het interieur van je nieuwe appartement niet verandert, maar er direct intrekt.

Dus hoe vertalen we deze analogie naar de praktijk? Het shapen van een AI-model kan op vele manieren. In dit artikel belichten we de drie meest voorkomende methodes voor het shapen (of aanpassen) van voorgeprogrammeerde AI-modellen:

  • Finetuning*: Hierbij wordt een vooraf getraind model aangepast om uiteindelijke specifieke taken uit te kunnen voeren. Het model kan worden gefinetuned door te blijven trainen op steeds een kleinere dataset, specifiek voor de beoogde use case.
  • Hyperparameteroptimalisatie**: Bij deze methode worden de fundamentele instellingen van het model aangepast om het beter te laten aansluiten bij de specifieke toepassing.
  • Hypernetwerken: Deze methode gebruiktdynamische parameters om een ander neuraal netwerk aan te sturen. Hierdoor is snelle en efficiënte aanpassing aan nieuwe taken mogelijk.

Om een AI-model optimaal af te stemmen op jouw behoeften, kun je één of een combinatie van deze methodes gebruiken.

*Soms ook wel transfer learning genoemd.

**Een hyperparameter is een configuratievariabele voor het trainen van een AI-model.

Voorbeeld

Scenario

Stel je hebt een AI-model tot je beschikking die getraind is om tekst te begrijpen en te schrijven. Maar nu wil je het model een beetje aanpassen, zodat het model goed wordt in het schrijven van LinkedIn- berichten. Je kunt nu een van de bovenstaande methoden gebruiken om het bestaande model iets aan te passen, zodat het beter aansluit bij jouw wensen.

De cyberbeveiligingsoverwegingen bij het Shaper-archetype

Als je een bestaand AI-model gebruikt en het aanpast aan jouw behoeften, houd dan rekening met de volgende beveiligingsrisico's:

🔐 Wanneer je ervoor kiest om het AI-model zelf te trainen, is het cruciaal om actief op zoek te gaan naar trainingsdata die representatief zijn voor jouw specifieke organisatie of doelstelling. Omdat het AI-model leert van de gegevens waarmee het wordt gevoed, zal het deze vooroordelen weerspiegelen in de uitvoer. Wees waakzaam voor mogelijke (onbedoelde) vooroordelen in de trainingsdata, met name wanneer het gebruik van het AI-model uiteindelijk de gezondheid of veiligheid van mensen kan beïnvloeden. Gebruik ethische beslissingsvaardigheden om te beoordelen of de data eerlijk en representatief is.

🔐 Pas op voor het (per ongeluk) introduceren van nieuwe (technische) kwetsbaarheden. Bij het vormgeven van het AI-model kunnen kwetsbaarheden of zwakheden worden geïntroduceerd. Wanneer je trainingsdata van derden of (onbekende) bronnen gebruikt, moet je oppassen dat je het model niet 'vergiftigt' door trainingsdata te gebruiken die door hackers zijn aangepast of geschreven. Deze zogenaamde model poisoning-attacks zijn gericht op AI-modellen in de ontwikkel- of testfase. Voordat je het AI-model publiceert, moet je het grondig laten controleren en (pen)testen op zwakke plekken en kwetsbaarheden.

🔐 Het wijzigen of aanpassen van een bestaand AI-model kan leiden tot veranderingen in aansprakelijkheid en verantwoordelijkheid. Volgens de EU AI Act en de voorgestelde Artificial Intelligence Liability Directive (AILD) kun je mogelijk aansprakelijk worden gesteld als je een substantiële wijziging aanbrengt in een AI-model dat het doel ervan verandert of de compliance-status ervan beïnvloedt. De kwestie van aansprakelijkheid in de context van AI is echter complex. Het is altijd aan te raden om een juridisch expert te raadplegen voordat je een aangepast of vormgegeven AI-model publiceert.

De volgende keer: de Maker

Dit was het tweede artikel in deze driedelige serie. In het laatste artikel belichten we het derde generatieve AI-type: de maker. Want wat als je volledige controle wilt hebben en je eigen AI-model wilt bouwen?

Ontdek hoe Centric je hiermee kan helpen.
Onze oplossing.
Gerelateerde artikelen
Artificial intelligence: hoe zit het met wetgeving?
Artificial intelligence
In dit artikel lees je alles over Artificial Intelligence en wetgeving.
Waarom Centric met een eigen AI-model experimenteert
Artificial intelligence
Centric werkt aan een eigen AI-model dat rekening houdt met onder meer privacy en informatieveiligheid. W ...
Generatieve AI: het Taker Archetype en EU-regelgeving
Cybersecurity Artificial intelligence
In dit artikel lees je over de Artificial Intelligence Act en de impact ervan op generatieve AI.