Shapers
Stel je voor dat je op zoek bent naar een nieuwe plek om te wonen en je moet snel verhuizen. De kans is groot dat je dan overweegt om een gemeubileerd appartement te huren. Dit is handig, omdat je niet vanaf nul hoeft te beginnen met inrichten; je kunt er meteen gaan wonen! Hoewel hethuis basismeubilair heeft, is het nog niet echt jouw thuis, dus je besluit om persoonlijke spullen toe te voegen aan je appartement. Je schildert de muren en hangt familiefoto's op, zodat het appartement aanvoelt als jouw eigen plek.
Dit is een analogie voor het Shaper Archetype, waarbij je vooraf gebouwde AI-technologie vormgeeft, zodat het past bij jouw behoeften. Een voorbeeldscenario is wanneer bedrijven bestaande AI-modellen (deels) aanpassen om ze te integreren met hun applicatie. Dit in tegenstelling tot het Taker Archetype, waarbij je het interieur van je nieuwe appartement niet verandert, maar er direct intrekt.
Dus hoe vertalen we deze analogie naar de praktijk? Het shapen van een AI-model kan op vele manieren. In dit artikel belichten we de drie meest voorkomende methodes voor het shapen (of aanpassen) van voorgeprogrammeerde AI-modellen:
- Finetuning*: Hierbij wordt een vooraf getraind model aangepast om uiteindelijke specifieke taken uit te kunnen voeren. Het model kan worden gefinetuned door te blijven trainen op steeds een kleinere dataset, specifiek voor de beoogde use case.
- Hyperparameteroptimalisatie**: Bij deze methode worden de fundamentele instellingen van het model aangepast om het beter te laten aansluiten bij de specifieke toepassing.
- Hypernetwerken: Deze methode gebruiktdynamische parameters om een ander neuraal netwerk aan te sturen. Hierdoor is snelle en efficiënte aanpassing aan nieuwe taken mogelijk.
Om een AI-model optimaal af te stemmen op jouw behoeften, kun je één of een combinatie van deze methodes gebruiken.
*Soms ook wel transfer learning genoemd.
**Een hyperparameter is een configuratievariabele voor het trainen van een AI-model.