In een eerder artikel heb ik uiteengezet wat de definitie van een AI-systeem in de zin van de AI-verordening is (zie link). Als blijkt dat een bepaald AI-systeem onder deze erg brede definitie valt, betekent dit niet automatisch dat de aanbieder of gebruiksverantwoordelijke van dit AI-systeem aan de verplichtingen van de AI-verordening moet voldoen. Er zijn namelijk situaties waarin de AI-verordening niet van toepassing is.
Ten eerste vallen AI-systemen voor militaire, defensie- of nationale veiligheidsdoeleinden buiten de reikwijdte van de AI-verordening. Hoewel de AI-verordening deze uitzonderingen expliciet noemt, is dat eigenlijk niet nodig, aangezien de EU-wetgever op grond van de EU-verdragen op deze domeinen geen bevoegdheid heeft om wetgeving te maken voor lidstaten en burgers. Zo lang de nationale wetgever de AI-verordening niet overeenkomstig van toepassing heeft verklaard op AI-systemen voor militaire, defensie- of nationale veiligheidsdoeleinden, vallen dergelijke AI-systemen buiten de reikwijdte van de verordening. Als een AI-systeem zowel voor militaire doeleinden als voor civiele doeleinden wordt gebruikt (ofwel dual use), valt het civiele gebruik wel onder de AI-verordening. Het beschermen van de nationale veiligheid (bijv. het tegengaan van terrorisme, bescherming kritieke infrastructuur en het tegengaan spionage) is overigens niet hetzelfde als het handhaven van het strafrecht, hoewel handelingen die de nationale veiligheid bedreigen natuurlijk ook vaak strafrechtelijk zijn te vervolgen. Er bestaat een grijs gebied tussen beide domeinen. Specifiek op strafrechtelijk gebied kent de AI-verordening wel een heel aantal bepalingen, zoals het verbod op realtime biometrische identificatie in de publieke ruimte dat in een later artikel nog aan bod komt.
De AI-verordening geldt ook niet voor het louter persoonlijke gebruik van AI-systemen of voor onderzoek naar AI dat slechts voor wetenschappelijke doeleinden wordt uitgevoerd. Wanneer iemand een sinterklaasgedicht met behulp van een AI-systeem schrijft of voor zijn promotieonderzoek een wetenschappelijk experiment uitvoert om een nieuw soort taalmodel te ontwikkelen, hoeft hij zich dus geen zorgen te maken om de AI-verordening.
Bovendien valt de ontwikkeling van open source AI-systemen grotendeels buiten de reikwijdte van de verordening. Het gebruik van open source-systemen (al dan niet zelf doorontwikkeld) kan wel onder de verordening vallen, evenals de ontwikkeling van open source General Purpose AI (GPAI). Het gebruik van open source-systemen is dus geen geitenpaadje om de AI-verordening te omzeilen.
Verder is het tijdens de ontwikkelfase van een AI-systeem nog niet verplicht aan de eisen voor hoog risico-systemen of aan transparantieverplichtingen te voldoen. Deze verplichtingen gelden pas wanneer het systeem wordt getest met echte data, op de markt wordt gebracht of in gebruik wordt genomen. In de praktijk is de grens tussen ontwikkeling, testen met echte data en ingebruikname niet altijd scherp. Het is daarom raadzaam om voorzichtig te zijn met de aanname dat een systeem nog in ontwikkeling is en dus buiten de verordening valt.
Volgende keer zullen we ingaan op de vraag wanneer een AI-systeem verboden is en wanneer het als hoog risico-systeem aangemerkt wordt. Verder komt aan bod wanneer een AI-systeem aan transparantieverplichtingen moet voldoen.
Mocht u een specifieke vraag hebben, dan hoor ik het graag via een reply op deze mail!