Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.
Presentatie over AI-verordening
[0:00:00] We gaan van start met deze technische briefing over de AI-verordening.
[0:00:07] Er zijn misschien nog een aantal leden van de Tweede Kamer die binnenkomen rennen, maar
[0:00:10] ik weet ook niet of dat helemaal lukt, want er is ook een pleinair debat bezig en ook
[0:00:14] nog een aantal andere debatten en een andere technische briefing.
[0:00:18] Dat is zeer helaas, want ongelooflijk dank dat u er bent en dat u de tijd heeft genomen
[0:00:23] om dit te doen.
[0:00:24] Heel waardevol en daar zijn we u dankbaar voor.
[0:00:26] en dat zeg ik tegen mevrouw Kewal, afdelingshoofd Directie Digitale Samenleving van BZK,
[0:00:33] mevrouw Vermeer, beleidsmedewerker Directie Digitale Economie, ook van EZK,
[0:00:40] de heer Vos, beleidsmedewerker Directie AI van JNV,
[0:00:45] en de heer Kars, beleidsmedewerker Directie Digitale Samenleving van BZK.
[0:00:51] Fijn dat u er bent, en ik denk dat ik u als eerste het woord kan geven.
[0:00:55] Dank jullie wel dat wij hier ook mogen zijn.
[0:00:58] De staatssecretaris gaf op 17 april alweer een commissiedebat over algoritmes en dataethiek,
[0:01:07] waarin ook het aanbod is gedaan voor een technische briefing over dit onderwerp.
[0:01:10] Dat doe ik samen met de digitale driehoek op digitalisering.
[0:01:15] Dat bestaat uit het ministerie van BZK als coördinerend ministerie op het thema.
[0:01:19] Het ministerie van EZK als tracker van de AI-Act in dit geval en het ministerie van JNV vanwege
[0:01:27] ook haar grote taakuitvoering en het belang voor rechtsbescherming en privacy.
[0:01:33] Dus om die reden zitten wij ook hier met z'n drieën als drie departementen.
[0:01:38] We hebben ook de onderhandelingen met elkaar gedaan, drie jaar om precies te zijn.
[0:01:42] Wij nemen jullie graag mee op dit thema aan de hand van een viertal inhoudelijke blokken met als
[0:01:50] voorstel na elk blokje dan de geregenheid tot het stellen van vragen.
[0:01:54] Is dat een goed voorstel?
[0:01:57] Dan geef ik voor de toelichting graag het woord aan mijn collega naast mij, Lisa.
[0:02:06] Hartelijk dank.
[0:02:09] Mijn naam is Lisa Vermeer.
[0:02:11] Ik werk bij de directie Digitale Economie van het ministerie van Economische Zaken en Klimaat.
[0:02:16] En ik heb vanuit dat ministerie de afgelopen drie jaar
[0:02:19] de onderhandelingen mogen coördineren over de AI-verordening in Brussel
[0:02:23] en de positie daarop vanuit Nederland.
[0:02:26] En ik ga ook door om deze wet te implementeren in Nederland,
[0:02:30] ook waarschijnlijk de komende drie jaar, waarin we daar actief mee bezig zijn.
[0:02:34] Ik werk nu zo'n tien jaar aan AI-beleid namens verschillende ministeries
[0:02:38] en die AI-verordening is wel echt een enorme mijlpaal in die tijd.
[0:02:42] Dus ik ben blij dat ik jullie daar iets over mag vertellen.
[0:02:46] Ik zeg vaak, het is een disruptieve wet voor disruptieve technologie.
[0:02:51] Het is een disruptieve wet omdat deze wet enorm grote gevolgen gaat hebben
[0:02:55] voor de manier waarop de markt en het gebruiken en de ontwikkeling van de AI
[0:03:01] gaat functioneren in Nederland en in de EU,
[0:03:04] doordat er op dit moment geen wetgeving is specifiek voor AI en zometeen wel.
[0:03:09] En een disruptieve technologie, omdat AI dringt door in de haarvaten van de samenleving,
[0:03:16] raakt de levens van mensen, ons allemaal, ondernemerschap, de economie, alles wordt geraakt door AI.
[0:03:22] Dus de technologie heeft een disruptief effect.
[0:03:25] Wel op een positieve manier in mijn opinie.
[0:03:29] We gaan van de situatie van veel denken over artificiële intelligentie en handreikingen,
[0:03:37] zoals de prachtige handreiking non-discriminatie by design,
[0:03:40] die is gemaakt in opdracht van BZK een aantal jaar geleden,
[0:03:43] naar een situatie met de meest strenge Europese rechtsmiddel,
[0:03:47] een Europese verordening, die direct werkt in Nederland
[0:03:51] en ook direct de markt en het gebruik van AI reguleert.
[0:03:54] Dat is een enorme overgang die we met z'n allen zullen gaan moeten maken.
[0:03:59] De implementatie van die wet in Nederland en de naleving ook,
[0:04:02] het voorbereiden op het voldoen aan de eisen,
[0:04:04] zijn op dit moment al volop gestart.
[0:04:10] Wat zijn nou die doelen van de AI-verordening?
[0:04:14] Het allerbelangrijkste, wordt ook vaak door de Europese Commissie gezegd,
[0:04:17] is dat het vertrouwen van Europese burgers in de technologie AI wordt vergroot,
[0:04:22] dat dat vertrouwen wordt versterkt
[0:04:24] en dat daardoor ook het gebruik van AI wordt omarmd
[0:04:27] en dat er steeds meer ruimte voor is voor een betrouwbare AI in de EU.
[0:04:33] Er wordt een gelijkspeelveld gecreëerd voor de ontwikkeling van AI en het gebruik van
[0:04:38] AI in de EU door geharmoniseerde regels die voor iedereen gaan gelden.
[0:04:43] Dus dat kan ervoor zorgen dat die betrouwbare AI ook echt overal in de EU en in Nederland
[0:04:48] kan worden uitgerold, verkocht, gebruikt en dat daar de kansen op goede manier kunnen
[0:04:53] worden gegrepen.
[0:04:56] De bedoeling is dat er alleen maar veilige AI-systemen op de markt komen met waarborgen
[0:05:01] voor bescherming van gezondheid en van fundamentele rechten.
[0:05:04] Dat is de bedoeling van de wet en de hoop is dat deze AI-voordeling
[0:05:08] ook internationaal of kaders schept
[0:05:10] die ook internationaal buiten de EU inspirerend zullen zijn.
[0:05:16] Nou, hoe gaat dit dan gebeuren?
[0:05:17] De aanpak van de AI-voordeling...
[0:05:20] Het zijn allemaal regels die gaan gelden voor het product-AI-systeem.
[0:05:24] Dus het is productregelgeving,
[0:05:26] wat we ook kennen van de CE-markering op apparaten of op andere spullen,
[0:05:32] zoals speelgoed, en dat gaat dus ook over risico's.
[0:05:36] Dus hoe groter het risico van het product, hoe strenger de eisen.
[0:05:40] En die eisen zijn bedoeld om de risico's voor veiligheid,
[0:05:45] gezondheid en fundamentele rechten te voorkomen.
[0:05:48] Dat betekent dat die regels gaan gelden voor alle AI-systemen
[0:05:51] voordat ze op de markt komen of voordat ze in gebruik worden genomen.
[0:05:56] Dus deze wetgeving gaat gelden voor de hele privaatsector
[0:05:59] en voor de hele publieke sector.
[0:06:01] En er is ook geregeld dat er een soort verdeling is van verantwoordelijkheden
[0:06:05] van de verschillende actoren in de keten.
[0:06:07] Degene die het ontwikkelt, het systeem, maar ook de gebruikt
[0:06:10] en die ermee in aanraking komt als het wordt gebruikt in de samenleving.
[0:06:17] Ik ga jullie nu even meenemen door een tijdlijn
[0:06:20] van de inwerkingstraining van die AI-verordening.
[0:06:22] Dat is best wel complex.
[0:06:24] Er zitten een heel aantal risicokategorieën in die AI-verordening
[0:06:28] en die worden op verschillende momenten van kracht.
[0:06:30] Dus we verwachten in juni of juli de publicatie van de wet in het publicatieblad van de EU,
[0:06:37] een soort staatsblad.
[0:06:39] Daarna treedt die in werking.
[0:06:40] Dan na een half jaar worden de verboden AI-systemen, en ik ga zo meteen in op al die risicocategorieën,
[0:06:47] die worden dan verboden, dus die mogen niet meer worden gebruikt.
[0:06:51] Dan vervolgens een half jaar daarna gaan alle eisen gelden voor grote AI-modellen die voor
[0:06:57] allerlei toepassingen kunnen worden toegepast.
[0:07:00] Dus dat zijn de grote modellen waar de laatste tijd veel over wordt geschreven.
[0:07:05] Daar gaan bepaalde eisen voor gelden, die gaan ongeveer over een jaar van start.
[0:07:11] Dan een jaar daarna, dus over twee jaar vanaf nu ongeveer,
[0:07:15] treden alle eisen voor hoogrisico AI-systemen in werking, bijna alle.
[0:07:20] Wij verwachten dat daar eigenlijk het meeste werk uit voortvloeit,
[0:07:24] ook voor overheden en private actoren in Nederland.
[0:07:27] En dan heb je na drie jaar vanaf nu, dus weer een jaar daarna, gaan de eisen gelden voor AI-systemen
[0:07:35] die in andere producten worden ingebouwd, bijvoorbeeld de AI in speelgoed.
[0:07:40] Ik zal nu even al die verschillende categorieën toelichten met een aantal voorbeelden, zodat het ietsje meer gaat leven.
[0:07:46] En deze presentatie wordt ook gedeeld, zodat het ook kan worden teruggekeken.
[0:07:50] Dit is best een lastige tijdlijn waar we mee werken.
[0:07:57] De verboden AI-praktijken, die worden verboden omdat de risico's, de mogelijke risico's onacceptabel zijn.
[0:08:03] De manier waarop ik het hier heb opgeschreven, zijn niet heel erg gedetailleerd de precieze verboden,
[0:08:10] maar met niet alle nuancen zitten erin.
[0:08:13] Ik zie wel dat het een oude presentatie is, maar goed, het maakt voor mij niet uit.
[0:08:18] Waar ik even op wil inzoomen, want ik ga ze niet allemaal noemen,
[0:08:21] in de notities bij deze presentatie staan ook de andere vier.
[0:08:24] Ik wil graag benoemen dat real-time biometrische identificatie op afstand
[0:08:29] voor rechtshandhavingsdoeleinden in publieke ruimte,
[0:08:32] bijvoorbeeld deze bus op straat waar dan de camera's op zitten,
[0:08:36] dat is een technologie die wordt verboden.
[0:08:40] Echter, het is geen totaalverbod.
[0:08:42] Er komen beperkte uitzonderingen om het wel toe te passen.
[0:08:45] Daarvoor is dan een nationale rechtsgrondstak nodig
[0:08:47] en er zijn aanvullende waarborgen opgenomen
[0:08:49] voor die toepassing in de AI-verordening.
[0:08:53] Dan heb je een volgende type risicocategorie en dat is hoog risico.
[0:08:58] Dat is ook weer iets gelaagd.
[0:09:00] Je hebt een hoog risico AI op het moment dat het AI is ingebouwd
[0:09:05] in bestaande producten die al zijn gereguleerd op de Europese markt.
[0:09:09] Denk bijvoorbeeld aan medische hulpmiddelen.
[0:09:11] Als AI wordt gebruikt in het ziekenhuis of in de huisartsenpraktijk,
[0:09:14] dan is het soms een medisch hulpmiddel.
[0:09:17] En dan gaat ook gelden dat als die al hoog risico waren,
[0:09:20] volgens de bestaande wetsgeving is ook die AI hoog risico
[0:09:23] en moet aan alle eisen voldoen.
[0:09:26] En dan een tweede manier waarover wordt nagedacht
[0:09:30] waarop hoog risico geldt, zijn toepassingsgebieden.
[0:09:33] Dus in de wet staan acht risicovolle toepassingsgebieden
[0:09:37] met ongeveer dertig verschillende specifieke toepassingen van AI.
[0:09:42] En als de AI daarvoor is bedoeld, dan geldt dat het hoog risico is
[0:09:46] en moet het aan eisen voldoen.
[0:09:47] Ik noem bijvoorbeeld onderwijs en beroepsopleiding.
[0:09:51] Een AI-systeem dat wordt gebruikt om te bepalen
[0:09:54] of een student een examen heeft gehaald
[0:09:56] of dat een basisschoolleerling naar de volgende klas mag,
[0:09:59] dat is dan een hoogrisico AI-systeem
[0:10:01] vanwege de grote gevolgen die dat systeem heeft.
[0:10:04] Maar er is ook veel AI in het onderwijs die niet hoog risico is,
[0:10:07] die gewoon kan worden gebruikt.
[0:10:11] En een tweede, dit is de eerste slide, dit zijn de tweede toepassingen,
[0:10:14] bijvoorbeeld het gebied van rechtshandhaving, dat heeft veel gevolgen.
[0:10:17] Daar kunt u denken aan die wordt ingezet als een leugendetector
[0:10:21] of om te helpen beoordelen of bewijsmateriaal betrouwbaar is.
[0:10:26] Dus alles wat hier op deze slide staat, daar wordt gezegd
[0:10:29] het heeft dermate grote risico's dat die van tevoren in kaart moet worden gebracht
[0:10:33] en dat er aan andere eisen moet worden voldaan.
[0:10:36] Wat zijn dan die eisen? Die heb ik hier opgezet.
[0:10:39] Belangrijkste eisen of meest ingrijpende eisen
[0:10:42] is dat een heel risicobeheersysteem moet worden ingericht
[0:10:44] waarbij dus alle risico's in kaart worden gebracht,
[0:10:48] mitigerende maatregelen worden getroffen
[0:10:49] om die risico's zo veel mogelijk te voorkomen.
[0:10:52] En ook de data moet van goede kwaliteit zijn
[0:10:54] en het databeheersysteem moet goed op orde zijn.
[0:10:58] En voor al deze eisen, als je daar aan voldoet,
[0:11:00] dan ben je conform de wet, mag je een CE-markering voeren
[0:11:04] als aanbieder op de markt en dan het product aanbieden of in gebruik nemen.
[0:11:09] En hier komen allemaal Europese standaarden voor,
[0:11:12] waar we ook momenteel hard aan werken.
[0:11:15] Dan heb je voor hoog risico AI-systemen verplichtingen die ervoor zorgen dat de hele keten in de
[0:11:22] markt eigenlijk wordt geadresseerd.
[0:11:25] Dus de aanbieder van het AI-systeem is een provider in het Engels, die moet zorgen dat
[0:11:30] aan alle eisen wordt voldaan en die mag de CE-markering, het keurmerk, zoals het ook
[0:11:34] weleens wordt genoemd, hanteren en dan vervolgens is de gebruiksverantwoordelijke, is bijvoorbeeld
[0:11:38] een ministerie, een bank, een ziekenhuis, die neemt dat systeem in gebruik en die moet het
[0:11:45] gebruiken volgens de handleiding en die moet dan ook risico's in kaart brengen
[0:11:49] die misschien voortkomen uit de specifieke gebruik
[0:11:51] in die specifieke context, dus in dat ziekenhuis.
[0:11:54] En die risico's moeten dan ook worden aangepakt.
[0:11:59] En ook nog een eis van de gebruiksverantwoordelijke
[0:12:01] is dat mensen moeten worden gemeld door die gebruiker
[0:12:04] als het systeem wordt gebruikt om een besluit te nemen over die persoon.
[0:12:10] Dan heb je vervolgens de mensen die natuurlijk in aanraking komen
[0:12:13] met dat AI-systeem, de patiënten of de rekeninghouders.
[0:12:17] En hier hebben wij als Nederland tijdens de onderhandelingen ontzettend stevig voor ingezet
[0:12:23] om dit in de wet te krijgen.
[0:12:24] Dat stapt er eigenlijk bijna niet in aan het begin, omdat het echt ging over die eerste deel van de keten.
[0:12:29] Maar wat er nu in staat is dat consumenten en burgers hebben het recht om een klacht in te dienen
[0:12:33] bij een toezichthouder als ze denken dat ze zijn benadeeld door het gebruik van een hoogrisico-AI-systeem.
[0:12:40] En ze hebben het recht op uitleg bij besluiten door die hoogrisico-AI-systemen.
[0:12:44] Dus dat zijn hele goede toevoegingen aan de wet, volgens ons.
[0:12:49] Dan heb je weer een volgende risicokategorie.
[0:12:52] Dat zijn transparantie-eisen.
[0:12:54] Dus je moet erbij denken aan systemen waar je als mens direct mee in aanraking komt.
[0:12:59] En tot de verbeelding sprekend is de chatbot op de website van de verzekeraar
[0:13:03] of een huisartsenassistent die wordt geholpen door een chatbot.
[0:13:06] Daarbij is het altijd nodig om te weten dat je met een AI-systeem interacteert
[0:13:12] en niet met een mens.
[0:13:13] En dit geldt ook voor generatieve AI.
[0:13:18] Dus de aanbieders van AI die audio, beeld, video of tekst kunnen maken,
[0:13:22] die moeten altijd zorgen dat dat kan worden gemarkeerd als gemanipuleerd of als gegenereerde content.
[0:13:32] Dan heb je nog een risicokategorie.
[0:13:35] Dat zijn AI-modellen voor algemene doeleinden.
[0:13:38] In het Engels zijn dat general purpose AI-modellen.
[0:13:42] En dat noemen we eigenlijk ook altijd GP-modellen.
[0:13:44] Ik vermoed dat dat ook nog wel zou blijven, want voor algemene doeleinden is het een beetje onslachtig.
[0:13:49] Dus GP-modellen, daar heb je er meerdere van, namelijk er is bepaald dat er GP-modellen zijn
[0:13:56] die je op zoveel manieren kan inzetten voor allerlei doeleinden en die zo krachtig zijn
[0:14:02] dat als daar bijvoorbeeld bias in zit, dat dat op zoveel manieren wordt doorgezet.
[0:14:07] Dat is een systeemrisico.
[0:14:09] Dus je hebt AI-modellen, GP-modellen die kunnen worden aangewezen als systeemrisico.
[0:14:13] Primair op basis van rekenkracht van het model, dat staat ook in de wet,
[0:14:17] maar ook een aantal andere criteria waar de Europese Commissie op toeziet.
[0:14:22] Die modellen met systeemrisico's
[0:14:23] hebben een heel aantal veiligheidseisen waaraan moet voldaan,
[0:14:26] waaronder het in kaart brengen van de risico's en het mitigeren van die risico's.
[0:14:31] En voor alle andere GP-modellen, dus zonder systeemrisico's,
[0:14:35] maar wel modellen die overal kunnen worden ingebouwd
[0:14:37] voor allerlei toepassingen, vertalingen, consultancyadvies, noem het allemaal maar op,
[0:14:42] Daar geldt voor dat er meer transparantie-eisen gelden.
[0:14:46] Dus er moet een gedetailleerde samenvatting komen van trainingsdata.
[0:14:50] En de aanbieder van zo'n model moet ook weten
[0:14:52] dat alle andere partijen, aanbieders die aan de slag gaan met dat model,
[0:14:58] dat ze ook aan de eisen kunnen voldoen.
[0:15:00] Dus dan wordt die keten daarmee transparanter.
[0:15:05] Dan tot slot, hoe krijgt dit allemaal tanden?
[0:15:08] Dat is het toezicht op deze wet.
[0:15:10] Dat is een best gelaagd systeem.
[0:15:13] Er wordt een Europese AI-bureau ingericht, de AI-Office.
[0:15:17] Er is net duidelijk geworden hoe dat eruit gaat zien.
[0:15:20] Dat is bij de Europese Commissie.
[0:15:22] En deze AI-Office heeft het exclusieve bevoegdheid
[0:15:25] voor alle eisen rond GP-modellen.
[0:15:27] Dus die grote modellen, die nu nog niet op de markt zijn,
[0:15:31] maar ook modellen met systeemrisico's,
[0:15:34] daarop wordt toegezien dat die aan de eisen wordt voldaan
[0:15:37] op Europees niveau voor de hele EU.
[0:15:39] Dan heb je een AI-board en dat is de plek waar alle nationale toezichthouders samenkomen
[0:15:46] om tot geharmoniseerde uitleg van de AI-voordeling te komen, om richtsnoren op te stellen met
[0:15:51] elkaar zodat het toezicht in de hele EU vergelijkbaar wordt.
[0:15:56] En op nationaal niveau hebben alle lidstaten vanuit de AI-voordeling de verplichting om
[0:16:00] één of meer markttoezichthouders te benoemen.
[0:16:03] We hebben er hard voor gestreden dat het er meer konden zijn dan één en die hebben competenties
[0:16:08] om toezicht te houden, dus echte inspecties houden en dat uitvoeren
[0:16:13] op de verboden AI-praktijken, alle hoogrisico AI-systemen
[0:16:16] en de transparantie verhijsten.
[0:16:18] En dit is het einde van blokje één.
[0:16:24] Dan dank ik u in ieder geval heel erg van harte voor de presentatie
[0:16:28] en geef ik het woord aan de heer Verliesen om een vraag te stellen.
[0:16:31] Ik denk dat we het heel even bij één moeten laten
[0:16:33] en dan wachten we aan het einde van de hele presentatie wel even af
[0:16:36] of er dan nog ruimte is voor extra vragen.
[0:16:39] En dan inventariseren we, denk ik, in één keer even alle vragen en dan gaan we over tot de beantwoording.
[0:16:44] Ja, voorzitter, dank voor het woord. Ik had eigenlijk twee vraagjes, maar ja, dan zal ik één vraag laten,
[0:16:49] tenzij ik nog even tot tussendoor mag schuizen, want de CM-markering is altijd een beetje problematisch.
[0:16:53] Maar de ketenafhankelijkheid maakt eigenlijk dat ook kleinere organisaties, die wellicht later in de traject verplicht worden gesteld,
[0:17:04] eigenlijk op voorhand ook al verplicht worden gesteld. Dus de werkdruk of in ieder geval de
[0:17:10] administratieve regeldruk die komt dan ook weer op lasten van de kleine ondernemers is daar al
[0:17:14] over nagedacht. Dan het woord aan mevrouw Rijkowski van de VVD. Ja dank en dank dat jullie hier vandaag
[0:17:24] zitten om ons even door de AI-act heen te helpen. En dat ruist bij mij meteen de vraag als wij als
[0:17:31] wetgever het al wel nodig hebben om dan nog een technische briefing, nog een technische briefing
[0:17:35] Hoe zit het dan met de samenleving en ondernemers die uiteindelijk aan deze eisen moeten voldoen?
[0:17:42] Zijn dan oplossingen als AI-factories, zijn dat dan bijvoorbeeld vehicles die daarbij kunnen helpen?
[0:17:49] Dan het woord aan mevrouw Zeedijk van NSC.
[0:17:52] Voor mij ook dank en excuses dat ik vijf minuten te laat binnen kwam lopen.
[0:17:58] Dus misschien is deze vraag al beantwoord, maar dan hoor ik dat ook graag.
[0:18:02] Ik heb twee vragen over definities.
[0:18:04] Hoe is de definitie van AI zelf afgebakend en ook van het woord product?
[0:18:11] En dan heb ik een vraag als lid van de fractie GroenLinks Partij van de Arbeid.
[0:18:17] U gaf aan dat dus zeg maar die real time gezichtsherkenning dat dat verboden is.
[0:18:23] Maar klopt het dat als je die bijvoorbeeld maar met één, twee of drie seconden vertraagt,
[0:18:27] dat het dan wel weer mag?
[0:18:29] Of het zeg maar zo soepel geregeld is?
[0:18:35] Dank u wel voor de vragen. Ik zal de eerste twee vragen beantwoorden
[0:18:40] en dan voor de laatste twee overgeven aan mijn collega's.
[0:18:45] Administratieve lasten voor kleine ondernemers
[0:18:47] is een heel belangrijk aandachtspunt voor ons geweest tijdens de onderhandelingen.
[0:18:53] Er zitten in het eisenpakket een aantal uitzonderingen,
[0:18:55] zoals de technische documentatie.
[0:18:57] Daarvoor komt een versimpelde manier waarop je aan de eisen kan voldoen voor MKB.
[0:19:01] En zo is er eigenlijk in de hele AI-voordeling, zijn er ook nog andere toegemoetkomingen eigenlijk
[0:19:08] om te zorgen dat het MKB niet helemaal onder wordt gesneeuwd door deze lasten.
[0:19:15] Wat ook in deze AI-voordeling heel duidelijk zit, is dat de meeste lasten liggen wel bij
[0:19:20] de aanbieder op de markt.
[0:19:22] Dat kunnen ook kleine partijen zijn, die kunnen overigens ook hele impactvolle AI-systemen
[0:19:29] maken.
[0:19:29] Dus dan zou je kunnen zeggen dat de eisen uit de wet wel proportioneel zijn voor de risico van het product.
[0:19:38] Maar kleinere bedrijven die bijvoorbeeld later in de keten zitten,
[0:19:41] worden hopelijk, werkt het zo, dat ze zo veel mogelijk worden ondersteund
[0:19:45] doordat ze kunnen vertrouwen op de CE-markering, dat het dan voldoende op orde is.
[0:19:49] En dat ze daarmee dus niet meer al die tutsen zelf hoefden doen of nog een keer over hoeven doen.
[0:19:57] Wat ik ook graag nog wil noemen, dat zit ook in de presentatie aan het eind,
[0:20:01] dus daar kunt u nog later naar kijken,
[0:20:02] is dat er een zogenaamde regulatory sandbox wordt ingericht.
[0:20:06] En dat is eigenlijk een omgeving waarin innovatieve AI-aanbieders,
[0:20:11] ondernemers met toezichthouders kunnen kijken
[0:20:13] hoe ze richting compliance aan de AI-wet kunnen gaan.
[0:20:18] Ze hebben een idee, ze hebben een product
[0:20:19] en voordat ze het op de markt gaan brengen,
[0:20:22] kan er met toezichthouders een soort adviesrol
[0:20:24] over hoe dat product zich verhoudt tot de AI-wet.
[0:20:28] En die sandbox wordt toegankelijker voor mkb.
[0:20:32] Volgens mij staat in de wet dat die ook gratis kan worden gemaakt,
[0:20:35] maar er komt in ieder geval differentiatie in
[0:20:37] om de drempel voor kleine ondernemers te verkleinen
[0:20:40] en ook voor kleine publieke organisaties, overigens.
[0:20:44] Dus ik hoop dat dat een antwoord geeft op uw vraag.
[0:20:49] Dan de samenleving. Dit heeft zeker heel veel aandacht van ons.
[0:20:56] Ik denk dat dat het beste naar voren komt in het denken over communiceren en voorlichting over deze wet,
[0:21:02] wat een heel belangrijk onderdeel is van het implementatietraject.
[0:21:07] Zo spreken wij heel vaak bij congressen, bij de VEG, maar ook bij de VNO-NCW
[0:21:12] en zorgen heel veel voor kennisoverdracht. Dat zal gewoon doorgaan de komende tijd.
[0:21:17] U noemt AI-factories. Ik kan niet direct zeggen of dat echt het juiste vehikel is,
[0:21:24] maar ik denk dat allerlei plekken waar ook AI-ondernemers samenkomen,
[0:21:29] of bijvoorbeeld de AI-hubs heb je ook in Nederland,
[0:21:31] en allerlei plekken, de Nederlandse AI-coalitie,
[0:21:35] dat dat allemaal ankerpunten zijn waar we ook kunnen zorgen met elkaar
[0:21:38] voor meer begrip over deze AI-verordening.
[0:21:41] En we merken wel dat het enorm leeft,
[0:21:43] dus dat er steeds meer informatie beschikbaar is
[0:21:46] die ook steeds beter en toegankelijker wordt voor iedereen.
[0:21:51] Voor de vraag van mevrouw Zeedijk geef ik hem over naar de heer Kars.
[0:21:58] Ja, dat is een hele terechte vraag.
[0:22:00] En daar kom ik straks in mijn gedeelte van de presentatie nog uitgebreid op terug,
[0:22:03] op de definitie van AI-systeem in de AI-Act.
[0:22:06] Dus als u het goed vindt, dan parkeer ik die nog heel even.
[0:22:11] En misschien de definitie van product.
[0:22:13] Het is een productveiligheidsrichtverordening
[0:22:16] en er bestaat ook een algemene verordening over productveiligheid.
[0:22:21] En daarin staat ook de definitie van product.
[0:22:23] Dus de productregelgeving is eigenlijk best wel duidelijk uitgewerkt
[0:22:27] al een hele tijd in het Europese recht.
[0:22:30] Daar staat heel veel in over wat zijn dan risico's en wat zijn producten
[0:22:33] en hoe moet daarmee omgehoordigd gaan.
[0:22:35] Maar de definitie van AI-systeem en de AI-Act specifieert dit product.
[0:22:41] Dan de laatste.
[0:22:43] Ja, en dan een vraag over de vertraging bij real-time biometrische identificatie.
[0:22:47] Die is in de wet geprobeerd en ik denk dat het goed gelukt is om ervoor te zorgen dat
[0:22:52] er duidelijk gemaakt wordt dat het echt om een significante vertraging moet gaan om het
[0:22:57] niet real time te laten zijn.
[0:23:00] Op meerdere plekken in de wet is dat omschreven.
[0:23:03] Dus daarmee wordt gedragd om inderdaad vertragingen van enkele seconden waar je eigenlijk niet
[0:23:08] kan spreken over vertraging, maar waarbij het eigenlijk gewoon real time is, om dat er buiten
[0:23:12] te laten vallen.
[0:23:15] Nou, dank alvast voor de beantwoording.
[0:23:19] En misschien dat we zo nog tijd hebben voor extra vragen, hoor.
[0:23:21] Maar dan gaan we eerst even naar het volgende deel van de presentatie.
[0:23:27] Ja, daarover neem ik opnieuw het woord.
[0:23:29] Dat gaat over de implementatie van de AIV-oordening.
[0:23:33] Dit is een project waar we met z'n allen mee zijn begonnen.
[0:23:37] Eigenlijk met dezelfde groep mensen die de onderhandelingen hebben gedaan.
[0:23:41] En daarvan is het ook goed om nog te zeggen
[0:23:43] dat naast de digitale driehoek die hier zit,
[0:23:45] zijn eigenlijk alle ministeries betrokken, omdat de AIV-oordeling alle domeinen van de
[0:23:50] samenleving raakt.
[0:23:51] Dus echt allemaal zijn ze ook betrokken bij het implementatieproces.
[0:23:54] Twee hele belangrijke elementen van het implementeren van zo'n wet, wat eigenlijk betekent dat je
[0:23:59] gaat doen wat er in de wet staat, wat de lidstaten moeten doen, wij moeten namelijk toezichten
[0:24:04] inrichten.
[0:24:04] We moeten zorgen dat in Nederland de toezicht op de wet goed wordt gedaan.
[0:24:08] We moeten een toezichthouder benoemen, daar zal mijn collega nog wat over vertellen zo.
[0:24:12] We moeten een uitvoeringswet maken die ook langs het parlement gaat, waarin al die verschillende
[0:24:18] eisen invulling krijgen, zoals de toezicht, maar ook allerlei andere elementen.
[0:24:22] Ik had het net al even over het voorlichten van alle betrokkenen, iedereen die te maken
[0:24:26] krijgt met de AI-verordening, lokale overheden, MKB, daar zijn we mee bezig om hen eigenlijk
[0:24:33] te voorzien van toegankelijke informatie.
[0:24:36] We zijn een regulatory sandbox aan het inrichten, er draait nu een pilot om te kijken hoe dat
[0:24:41] werkt, is er interesse in en we moeten straks ook vanuit de wet echt een sandbox in Nederland hebben.
[0:24:47] We werken mee aan de standaarden, dus er komen European standards, dat noem je normen, worden
[0:24:53] op Europees niveau gemaakt en daar kan iedereen aan bijdragen. Daar zitten wij ook vanuit de
[0:24:57] overheid aan om bijvoorbeeld te bepalen wat is dat risicomanagement nou, hoe moet je dat doen.
[0:25:03] En de EI-verordening heeft ook nog een heleboel lagere wetgeving, dus dat zijn
[0:25:08] en uitvoeringswetten die er nog komen.
[0:25:11] Het zijn er ongeveer twintig en we willen ook graag dat die een Nederlands tempel dragen.
[0:25:16] Dus daar zetten we de komende jaren ook nog heel hard op in.
[0:25:23] Dank, Lisa, voor de toelichting.
[0:25:26] Dan, als u nog even terug mag naar de vorige slide.
[0:25:28] Ja, dank je wel. Ik zal nog even wat kort toelichten over toezicht in Nederland
[0:25:32] en het vraagstuk rondom het inrichten van de toezichtsstructuur op die AI-vormeling.
[0:25:38] Ik denk dat het belangrijk is om daar nog even bij stil te staan,
[0:25:40] Want als we het hebben over het toezicht op AI en algoritmes,
[0:25:43] dan zien we dat op dit moment meer dan twintig verschillende toezichthouders
[0:25:47] in meer of mindere mate al toezicht houden,
[0:25:50] vaak binnen hun eigen domein of sector, op AI of algoritmes.
[0:25:54] Nou goed, dat reist dan gelijk de vraag vanuit het oogpunt voor coördinatie.
[0:26:00] Op dit moment is er een werkgroep AI-toezicht.
[0:26:03] Die wordt voorgezeten door de Rijksinsectie Digitale Infrastructuur
[0:26:06] en ook de directie-coördinatie algoritmes bij de autoriteit persoonsgegevens
[0:26:11] heeft een coördinerende rol op algoritmes en AI.
[0:26:15] En aan deze twee toezichthouders is ook gevraagd,
[0:26:18] met het idee dat het een complexe opgave is,
[0:26:20] wat veel domeinoverstijgende aspecten met zich meebrengt,
[0:26:25] om richting het kabinet met een advies te komen
[0:26:28] over de inrichting van het toezicht op die AI-verordening.
[0:26:31] En op dit moment is het tweede tussenadvies net gedeeld met de betrokken bewindspersonen.
[0:26:38] We verwachten rond de zomer een eindadvies te krijgen.
[0:26:42] En ik denk de kern van dat advies is ook dat de AI-verordening raakt ontzettend veel domeinen en sectoren.
[0:26:48] En dat vergt goede afstemming tussen toezichthouders.
[0:26:51] Aan de ene kant op de productveiligheid, dus de bijlage 1.
[0:26:55] Waarbij je toezichthouders, echte marktoezichthouders die er al zijn, wil hebben.
[0:26:59] die toezicht houden op productveiligheid.
[0:27:03] Dan zou de RDI vanuit die coördinerende rol op productveiligheid een rol kunnen spelen.
[0:27:09] En aan de andere kant meer op de bijlage drie,
[0:27:11] dus laten we zeggen de publieke waarden, de toepassingsgebieden.
[0:27:15] Daar ligt mogelijk een coördinerende rol voor de autoriteit persoonlijke gegevens
[0:27:19] in samenwerking dus met heel veel sectorale en domeinggerichte toezichthouders.
[0:27:25] Want we moeten niet vergeten dat het goed kunnen beoordelen
[0:27:28] van AI-systeem of algoritmes vergt echt vaak heel veel kennis van de context.
[0:27:32] Dus dat kunnen we ook niet loszien.
[0:27:34] Dus dat is denk ik even belangrijk om mee te geven over het
[0:27:37] inrichtingsvraagstuk van het toezicht op de AI-verordening in Nederland.
[0:27:47] Dan hebben we nu weer even tijd na het tweede blok om vragen te stellen.
[0:27:50] En dan is het woord als eerste aan de heer Valise van de PVV.
[0:27:55] Ja, voorzitter, dank voor het woord.
[0:27:56] Van dit stuk heb ik eigenlijk meer de vraag hoe dat dadelijk
[0:28:04] naar de Kamer gecommuniceerd gaat worden.
[0:28:07] Er komt dus al een advies richting de staatssecretaris of de minister.
[0:28:14] Voor de zomer gaan wij nog voor de zomer ook daar terugkoppeling op krijgen.
[0:28:21] Dan mevrouw Rijkowski van de VVD.
[0:28:26] Ja, dank.
[0:28:27] Meer dan 20% toezichthouders, dat is inderdaad een hoop.
[0:28:30] Ik dacht meteen, arme ondernemers.
[0:28:32] of je zou maar een toko runnen die iets met dit doet en over verschillende beleidsterreinen gaat.
[0:28:38] Dus fijn dat ook gekeken wordt naar die coördinerende rol.
[0:28:41] Dat is dan de AP, wat ik ook begrijp, want op het moment dat de spanning zit,
[0:28:47] juist als het over persoonsgeefs, over mensen gaat, et cetera.
[0:28:51] En hoe gaan we het dan zodanig inrichten op het moment dat het dat niet raakt?
[0:28:57] Om dan te voorkomen dat de AP dan een soort doorzettingsmacht heeft,
[0:29:01] ook over sectoren waar ze geen, wat minder verstand van hebben.
[0:29:05] Want bij de bloemenveiling bijvoorbeeld, daar worden ook algoritme NAI gebruikt
[0:29:09] om die karretjes met bloemen automatisch van de ene naar de andere plek.
[0:29:13] Ja, dan mag de AP van mij meekijken.
[0:29:15] Maar ik denk dat dat niet het meest spannende is.
[0:29:17] Maar dat soort sectoren vinden het wel spannend.
[0:29:19] Van oeh, die AP staat wel als heel streng te boek.
[0:29:21] Gaan die nou ineens iets vinden terwijl wij toch niks met mensen doen?
[0:29:24] Dus hoe gaat dat zich dan tot verhouden tot dat soort sectoren?
[0:29:29] Mevrouw Zeedijk van NSC.
[0:29:31] Mijn vraag is inderdaad over de implementatie.
[0:29:37] Er moet best wel veel worden opgetuigd.
[0:29:39] Niet alleen toezicht, maar ook veel CE-certificeringen, denk ik.
[0:29:44] Dat is al op een vrij krappe arbeidsmarkt.
[0:29:47] Dat betreft AI.
[0:29:49] Is de verwachting dat we al deze mensen wel uit de markt kunnen halen om dat werk te doen?
[0:29:56] Dan heb ik zelf nog een vraag als lid van de fractie GroenLinks Partij van de Arbeid.
[0:29:59] En mevrouw Enrijk Kofsky gaf het net ook even aan van die arme ondernemers.
[0:30:04] Zien ze nou door het boom bos nog wel dadelijk?
[0:30:06] Want dat zie je zelfs al bij de bij de DSA, waar we laatst over over toezicht
[0:30:12] spraken van weet iedereen nou wel de juiste ingang te vinden?
[0:30:16] En dan worden we gerustgesteld met ja, als ze bij de verkeerde ingang komen, gaan wij
[0:30:21] wel achter de schermen zorgen dat dat goed komt.
[0:30:28] Is het ook zo dat in dat advies zou kunnen zitten dat er gewoon totaal een hele nieuwe
[0:30:33] toezichthouder wordt opgericht, speciaal hiervoor, en dat dat er dan één is, in plaats van dat
[0:30:39] er uit het advies komt dat er een samenwerkingsverband komt achter de schermen, zodat nu is er bijvoorbeeld
[0:30:46] ook voor de DSA zijn DSA-kamer en is er inderdaad ook een loket waar zeker private partijen in
[0:30:55] kunnen met een toezichthouder, maar zou het ook gewoon zo kunnen zijn dat we gewoon een hele
[0:30:59] nieuwe toezichthouder krijgen die gewoon hierop toeziet? Of kan dat niet? Of zou dat niet wenselijk zijn?
[0:31:10] Misschien is die laatste vraag wel iets te politiek, dat maak ik erbij op.
[0:31:14] Ja, dat was niet de bedoeling, maar het was meer omdat er al iets gezegd wordt over dat het complex
[0:31:18] is en dat je sectorkennis moet hebben en noem maar op. Dus misschien zit daarin al het antwoord
[0:31:24] Ik stel voor, Jasper, dat je de Kamer hierin in dit verband even noemt, de algoritmekamer.
[0:31:33] Super, bedankt voor de vragen.
[0:31:36] Het advies van de toezichthouders wordt gepubliceerd.
[0:31:39] De tussenadviezen worden waarschijnlijk één deze dag gepubliceerd en het eindadvies ook voor de zomer.
[0:31:45] Dus dat is beschikbaar.
[0:31:47] Het is een advies aan het kabinet, dus het is aan ons om vervolgens een besluit te nemen over hoe we
[0:31:53] dat advies waarderen en meenemen en inrichten via de uitvoeringswet.
[0:32:00] Dus dat is het proces en die uitvoeringswet,
[0:32:02] met de keuze over hoe het is ingericht,
[0:32:04] die komt dan na de consultatieronde naar de Kamer.
[0:32:08] Dus dat is het proces wat is voorzien.
[0:32:10] In de tussentijd staat het natuurlijk iedereen vrij
[0:32:12] om iets te vinden van die adviezen als die openbaar zijn,
[0:32:16] maar het is een advies aan ons waar wij vervolgens de wet op gaan baseren.
[0:32:23] Dan een interessant voorbeeld, ook over de bloemenveiling.
[0:32:26] Ik zou zelf, maar zonder adviseren te willen zijn,
[0:32:31] denken dat dat niet hoog risico is.
[0:32:32] Er zijn natuurlijk heel veel terreinen
[0:32:34] waar ook heel veel kleine ondernemers actief zijn,
[0:32:37] maar ook lokale overheden waar de AI-systemen niet hoog risico zijn
[0:32:41] en waar mensen ook niet mee in aanraking komen.
[0:32:45] En dan heb je eigenlijk niet te maken met de verplichting uit de AI-act.
[0:32:48] Dus het draakt niet alles. Eigenlijk alleen ondernemers die de toepassingen maken, die in die bijlagen staan.
[0:32:56] Dus om bijvoorbeeld bewijsmateriaal te checken of om in het onderwijs te gebruiken voor specifiek die beoordeling.
[0:33:03] Die zijn aangemerkt als hoog risico en die aanbieders, die ondernemers moeten dat ook maken.
[0:33:10] En onze gedachte was eigenlijk dat op het moment dat je bezig bent met een heel slimme tool voor in het onderwijs,
[0:33:16] bij een universiteit, om te gebruiken bij examens, dat het dan eigenlijk...
[0:33:21] Als je wilt weten of dat aan de eisen valt,
[0:33:23] doet je het bijna eerder bij het terechtkomen bij de onderwijsinspectie,
[0:33:25] dat dat een logische gesprekspartner is dan bijvoorbeeld AP of een andere.
[0:33:29] Dus daarom is ook een sectorale inrichting,
[0:33:32] met niet... Met verschillende partijen waar je terecht kan,
[0:33:35] die eigenlijk past bij het domein waar een ondernemer toegeactief is,
[0:33:39] dat dat misschien zelfs beter past bij de belevingswereld van ondernemers,
[0:33:43] omdat AI zit overal.
[0:33:44] En er zijn alle inspecties in het domein van rechtshandhaving, rechtsbescherming,
[0:33:51] zullen mensen snel kijken naar de inspectie JNV, en zo geldt de gezondheidszorg inspectie,
[0:33:56] gezondheidszorg en jeugd. Dus zo zijn eigenlijk die inspecties voor dat domein bekend.
[0:34:00] En lijkt het ook logisch dat je daar terecht kan als het gaat over de AI-verordening.
[0:34:08] En deze inspecties zullen dus ook allemaal met die coördinerende toezichthouders
[0:34:14] samenwerken om zowel het toezicht rond algoritme en AI
[0:34:18] als het toezicht van die context goed aan elkaar te verbinden,
[0:34:22] zodat er kan worden bekeken of de risico's daadwerkelijk zijn geadresseerd.
[0:34:27] Dit is echt heel uitdagend. Dus dat zien we ook wel.
[0:34:31] Dat zal niet morgen al helemaal op orde zijn,
[0:34:34] maar het lijkt nu wel zo dat alles wordt klaargemaakt om dit te doen.
[0:34:38] En het engagement en de dedication is er om dat echt te gaan doen.
[0:34:41] Dus ik denk dat het zo zal werken.
[0:34:45] De CE-certificering is een hele interessante vraag ook.
[0:34:50] Het is ook een beetje complex, alle producten,
[0:34:53] waarvoor nu al een CE-markering nodig is waar AI wordt ingebouwd.
[0:34:57] Daarbij wordt eigenlijk de eisen van AI gecheckt door de huidige partijen
[0:35:02] die al checken of het conform de eisen is.
[0:35:05] Daar ligt wel een uitdaging om ook AI daarin mee te nemen,
[0:35:08] Maar we denken dat dat moet op een gegeven moment toch wel door de markt worden opgeveurd.
[0:35:13] Als je kijkt naar alle toepassingsgebieden,
[0:35:16] dan zullen die ondernemers allemaal zelf en ook de organisaties,
[0:35:21] de publieke organisaties, moeten zelf zorgen dat ze conform zijn.
[0:35:25] Er komt geen derde partij bij die checkt,
[0:35:27] behalve als het biometrische identificatie betreft, biometrische systemen.
[0:35:32] Dus dit wordt een uitdaging voor alle organisaties
[0:35:35] om zelf die conformiteit te controleren.
[0:35:37] En er moet een ecosysteem komen van partijen die eigenlijk die check kunnen doen als derde partij.
[0:35:46] De AI-kennis is gaars, maar misschien biedt het ook wel weer allerlei kansen voor werkgelegenheid.
[0:35:52] Ik denk dat ik het daar even bij laat voor deze vragen.
[0:35:57] En dan misschien nog toelichting op de vraag van mevrouw Kapman, de technische vraag.
[0:36:04] Wat ik denk dat van belang is, is wel om te noemen dat die, inderdaad wat u ook aangeeft, die context, specifieke kennis bij het beoordelen van een algoritme of een AI-systeem blijft gewoon enorm van belang.
[0:36:15] Maar je wil ook, en daarvoor is bijvoorbeeld de directie-coördinatie algoritmes bij de Autoriteit Persoonsgezien als een van de doelen ook meegegeven.
[0:36:22] Zorg nou dat je aan sector-overstijgende risicosignalering doet, aan trends, aan samenwerking, zodat een specifieke toezichthouder in een domein,
[0:36:32] die heeft zijn handen waarschijnlijk vol aan allerlei uitdagingen daarbinnen,
[0:36:36] maar dat je wel kan delen, technische ontwikkeling en andere zaken
[0:36:39] die belangrijk zijn om op een goede manier toezicht te kunnen houden
[0:36:42] op AI en algoritmes.
[0:36:43] Verder is er een samenwerkingsplatform, dat heet het SDT,
[0:36:48] samenwerkingsplatform Digitale Toezichthouders,
[0:36:50] en daar is naast de DSA-kamer ook een algoritme- en AI-kamer ingericht
[0:36:54] om ook afstemming te hebben over allerlei vraagstukken
[0:36:56] die raken aan het toezicht op AI.
[0:36:59] Dank je wel. Kort ter aanvulling is dat de toezichthouders
[0:37:03] ook hebben aangegeven zelf, juist de wisselwerking met een DSA, een NIS2 en allerlei andere verordeningen
[0:37:09] zelf ook beter in kaart te willen brengen, juist om die interacties te borgen en niet
[0:37:17] dat we al dit lasten met elkaar onnodig gaan verhogen met elkaar.
[0:37:20] Dus daar zijn ze ook zelf mee gekomen, daar wilde ik nog aanvullen.
[0:37:23] Ik wil ook nog richting de heer Falize aangeven, want er werd net nogal technisch gereageerd
[0:37:28] op uw vraag, dat de appreciatie op het adviesrapport van de digitale
[0:37:33] toezichthouders uiteraard wordt meegenomen in de uitvoeringswet.
[0:37:37] Maar dat is natuurlijk ook een debat met uw Kamer uiteindelijk,
[0:37:40] welke kant u op wilt.
[0:37:41] Dus dan is het aan u zelf in de procedurevergadering als Kamer die
[0:37:44] kan besluiten om het rapport, waarschijnlijk ook voorzien met een
[0:37:49] kabinetsreactie, op te voeren als agendapunt bij een debat.
[0:37:52] Dus dat zit erbij.
[0:37:56] Dank u wel weer voor deze beantwoording.
[0:37:58] Dan gaan we naar deel drie van de presentatie.
[0:38:01] Ja, dank.
[0:38:04] Laat ik beginnen met aangeven dat de AI-verordening als een van de eerste kaders ter wereld
[0:38:11] een horizontale wetgevend kader schept voor AI-systemen,
[0:38:14] voor zowel private als publieke partijen.
[0:38:17] Maar u moet ook niet vergeten dat het reguleren of de wettelijke kaders op algoritmes en AI,
[0:38:23] dat het op dit moment een juridisch vacuüm is.
[0:38:26] Er zijn namelijk al voor de overheid of breder wetgevende kaders die van toepassing zijn op
[0:38:32] algoritme en naaisystemen.
[0:38:34] Neem bijvoorbeeld de AVG als het gaat om algoritmes die persoonsgegevens verwerken, de Algemene
[0:38:41] Wet Bestuursrecht als het gaat om algoritmes die worden ingezet bij het nemen van een besluit
[0:38:46] door een bestuursorgaan of de Algemene Wet Gelijke Behandeling waarbij je onder meer
[0:38:52] bij het college voor de rechten van de mens als iemand die mogelijk is geraakt, discriminatie
[0:38:59] of ongelijke behandeling een klacht kan indienen bij de toezichthouder. Dat is denk ik even
[0:39:03] belangrijk om mee te geven. Die AI-verordening schept wel een horizontaal kader daar bovenop.
[0:39:12] Qua beleid hebben we natuurlijk de afgelopen jaren niet stilgezeten. Er zijn verschillende
[0:39:18] instrumenten, daar ga ik straks nog wat nader bij stilstaan,
[0:39:21] en initiatieven genomen om ook ervoor te zorgen dat AI en algoritmes op een
[0:39:26] verantwoorde manier kunnen worden ingezet.
[0:39:28] Ik denk een goed voorbeeld daarvan is de overheidsbrede visie op generatieve AI,
[0:39:32] die in januari van dit jaar is gepubliceerd.
[0:39:36] Dat was ook op basis van een motie van lid Rijkovski en dekker Abdelaziz uit 2023.
[0:39:42] En die visie sluit ook heel goed aan op die AI-verordening,
[0:39:46] Namelijk, aan de ene kant zeggen we we willen als samenleving de vruchten plukken van deze technologie,
[0:39:52] maar dat moet wel in lijn zijn met belangrijke publieke waarden als veiligheid en rechtvaardigheid.
[0:39:58] Verder maken we natuurlijk duidelijk ook de link uit het juridisch kader voor generatieve AI.
[0:40:04] Daar is die AI-verordening ook erg belangrijk.
[0:40:06] Nou, collega Lisa raakte net natuurlijk al aan de GPAI-modellen.
[0:40:10] Dus in dat opzicht naast de al bestaande juridische kaders,
[0:40:13] bijvoorbeeld de ACG of het auteursrecht, betekent die AI-verordening daarvoor ook een
[0:40:18] boel en hebben we ook een aantal acties die raken aan het implementatietraject ook opgenomen
[0:40:22] in deze visie.
[0:40:25] Dan de definitie waar net ook naar werd gevraagd door het lid Zeedijk Raven, de AI-systeem,
[0:40:34] dus artikel 3 lid 1 van de AI-act, die heeft een definitie van AI-systeem, dat is een definitie
[0:40:41] die voor een groot deel ook aansluit op de definitie die de OESO heeft opgesteld eind vorig jaar.
[0:40:48] En de OESO heeft die opgesteld ook met het oog op nieuwe technologische ontwikkelingen,
[0:40:53] bijvoorbeeld op het bied van generatieve AI.
[0:40:55] Ik zal niet de hele definitie hier herhalen.
[0:40:59] Ik denk een paar belangrijke elementen wil ik er graag uitlichten.
[0:41:03] En daarnaast ook even aangeven waarom het de komende tijd een uitdaging gaat zijn.
[0:41:08] Een vraagstuk ook voor bijvoorbeeld toezichthouders via de AI-office en AI-board, maar ook partijen
[0:41:14] die in de praktijk met deze wet moeten werken om inderdaad te bepalen of algoritmes, AI-systemen
[0:41:20] onder deze rij kwijt te vallen.
[0:41:22] Ik denk interessante elementen zijn bijvoorbeeld dat het een machinaal systeem is dat is ontworpen
[0:41:27] met verschillende niveaus van autonomie.
[0:41:30] Daarnaast een ander belangrijk element is het vertonen van aanpassingsvermogen naar
[0:41:36] de uithoel en tot slot het van invloed kunnen zijn op fysieke of virtuele omgevingen.
[0:41:43] Nou, zonder specifiek op type AI-systemen of algoritmes in te zoomen wat er wel of niet
[0:41:50] onder valt, want dat moet echt de komende tijd verder worden uitgewerkt, ook op basis
[0:41:53] van handreikingen en guidance vanuit Europa, vind ik het wel belangrijk om even aan te
[0:41:59] geven, nou, systemen die een zelflerende component of een zelflerend karakter hebben, lijkt me
[0:42:04] vrij logisch dat deze onder die definitie vallen. Aan de andere kant,
[0:42:09] zeg maar, simpelere rule-based systemen die van tevoren regels meekrijgen
[0:42:15] die ze volgen en geen aanpassingsvermogen vertonen,
[0:42:18] die daarvan zou je kunnen stellen, kijkende naar deze definitie,
[0:42:22] dat die hier niet ondervalt. Maar nogmaals, ik vind het lastig ook
[0:42:26] omdat daar nog guidance over moet komen om op specifieke casussen in te gaan.
[0:42:29] Maar het is een beetje om een idee te geven dat zelflerende componenten
[0:42:33] denk ik belangrijk. En simpele rule-based systemen die van tevoren duidelijke regels
[0:42:40] volgen en geen aanpassingsvermogen volgen, dat die mogelijk niet in scope zijn. Dan nog
[0:42:46] is het denk ik belangrijk om even aan te geven dat het onderscheid of AI en algoritmes, want
[0:42:55] misschien bleek dat ook wel uit mijn verhaal van net, alle AI systemen werken op grond
[0:43:01] van algoritmes en data als bouwsteen, maar niet alle algoritmes zijn AI.
[0:43:06] Dat is denk ik ook een belangrijk onderscheid.
[0:43:08] Maar als we nou kijken naar in de dagdagelijkse praktijk,
[0:43:11] in het leven van mensen, wat heeft nou impact?
[0:43:14] Nou, dan wil dat niet per se zeggen hoe complex het algoritme is.
[0:43:17] Dat kan ook een, laten we zeggen, een simpeler algoritme zijn,
[0:43:20] wat een enorme impact heeft op het leven van burgers.
[0:43:23] Nou goed, wat wij in het nationale beleid de afgelopen jaren gedaan hebben,
[0:43:26] ook in het algoritmeregister, is ook kijken naar die impactvolle algoritmes.
[0:43:30] Dus dat zijn algoritmes.
[0:43:32] Aan de ene kant, die zouden kunnen voldoen aan de definitie artikel 3 lid 1 van de AI-verordening
[0:43:38] en wanneer die toepassingsgebieden van bijlage 3 vallen.
[0:43:41] Maar ook aan de andere kant, kijken we naar bijvoorbeeld, als het niet binnen die definitie valt,
[0:43:48] simpelere algoritmes die in een proces worden ingezet wat directe rechtsgevolgen heeft voor burgers.
[0:43:55] Dus met andere woorden een simpel algoritme wat bijvoorbeeld bepaalt of iemand een regeling krijgt of niet.
[0:44:00] En dat soort algoritmes zijn wel in scope van het algoritme register.
[0:44:04] Daar is ook een handreiking voor opgesteld om ook duidelijk te maken wat zijn nou die afwegingen en wat is nou een impactvol algoritme.
[0:44:11] Dat is dus wat anders dan een hoog risico AI systeem conform de AI act.
[0:44:18] Nou goed, ook even de link te maken met de instrumenten die we de afgelopen jaren hebben opgetuigd
[0:44:24] om ook tot verantwoorde inzet van algoritmes te komen.
[0:44:28] Deze kwamen ook denk ik allemaal voorbij in het debat dataethiek en algoritmeinzet van 17 april.
[0:44:35] Het is misschien goed om die nog even erbij te pakken en ook de relatie met de AI-Act te schetsen.
[0:44:40] Ten eerste het algoritmeregister, net al even genoemd.
[0:44:43] De focus van dat algoritmeregister is die impactvolle algoritmes.
[0:44:47] En het doel is om transparantie bij de inzet van algoritmes bij de overheid te borgen en
[0:44:52] te stimuleren.
[0:44:54] Op dit moment is er de afspraak om binnen het Rijk ook 2025 tot echt de vulling te komen
[0:45:00] van dit algoritmeregister.
[0:45:03] Verder denk ik goed om te noemen is dat er natuurlijk vanuit Europa een EU-database is
[0:45:09] voor hoogrisico AI-systemen, aan de ene kant voor ontwikkelaars, maar aan de andere kant
[0:45:14] ook voor gebruikers aan de overheidskant, waarbij we de komende tijd denk ik belangrijk
[0:45:21] is om ervoor te zorgen dat aan de ene kant de ontwikkeling bij het algoritmeregister
[0:45:24] die koppeling goed te houden met de database en vice versa in Europa ook kijken of we daar
[0:45:30] de lessen die we de afgelopen tijd geleerd hebben in Nederland te delen om die koppeling
[0:45:34] goed te houden.
[0:45:35] En daarbij mag ik ook wel zeggen dat Nederland wat dat betreft voorop loopt met zo'n algoritmeregister
[0:45:40] voor de overheid.
[0:45:41] Het tweede instrument is het algoritme kader.
[0:45:46] Het algoritme kader biedt een overzicht van de belangrijkste eisen, normen en maatregelen
[0:45:52] waaraan voldaan moet worden om te komen tot een verantwoorde inzet van algoritmes.
[0:45:58] En even om duidelijk te maken, dit kader op zichzelf is niet verplicht, maar veel van
[0:46:03] de eisen en normen zijn dat wel.
[0:46:05] Dus met andere woorden, als jij als overheidsorganisatie dit kader volgt,
[0:46:12] dan ben je aan heel eind ook met het volgen van de stappen die nodig zijn
[0:46:14] om tot verantwoorde inzet van algoritmes te komen,
[0:46:17] waarbij natuurlijk ook hard gewerkt gaat worden de komende tijd
[0:46:20] om die vereiste uit de AI-verordening ook op te nemen in het kader.
[0:46:25] Daarbij goed om te vermelden is dat eind dit jaar
[0:46:28] ook een nieuwe gedragen versie van het kader opgeleverd gaat worden.
[0:46:32] En dan tot slot, dat is de impact assessment
[0:46:34] voor mensenrechten bij de inzet van algoritmes. De Zorgette Iyama, die is in opdracht van BZK
[0:46:41] ontwikkeld door de Universiteit Utrecht in 2021. Dit is een instrument dat partijen helpt om een
[0:46:48] afgewogen discussie te voeren rondom algoritmes. Met eigenlijk het idee dat voorheen het gesprek
[0:46:56] rondom algoritmes binnen een organisatie veel werd gevoerd door technische experts. Uiteraard
[0:47:01] goed om die te betrekken, maar als het gaat om algoritmes en de inzet daarvan raakt dat
[0:47:06] ook andere mensen. Dus is het een instrument om ook een breder, een interdisciplinair gesprek
[0:47:12] te voeren binnen de organisatie om tot verantwoorde algoritmische toepassing te komen. Er zijn
[0:47:19] de afgelopen tijd bij 18 overheidsorganisaties ook pilots gedaan. Verder bevat de AI-act
[0:47:27] een zogeheten Fundamental Rights Impact Assessment die door bepaalde organisaties
[0:47:33] aan de gebruikerskant moet worden uitgevoerd, waaronder ook overheidspartijen.
[0:47:38] Maar dat is dus niet één op één hetzelfde.
[0:47:40] Maar ook hier geldt weer voor dat Nederland voorop loopt
[0:47:43] en dus het werken met het instrument en het eraan wennen
[0:47:46] kan ook helpen bij het straks het moeten werken
[0:47:51] met zo'n Fundamental Rights Impact Assessment.
[0:47:58] Dat was het derde deel van de presentatie.
[0:48:01] Dan gaan we naar de heer Verliesen van de PVV.
[0:48:06] Dank voor het woord.
[0:48:07] Even een korte vraag.
[0:48:09] We lopen zo ver vooruit.
[0:48:10] Hoe staat het met de nationale koppen?
[0:48:13] Kunnen we stellen dat er geen nationale koppen komen?
[0:48:16] Dat vind ik toch wel een belangrijk punt.
[0:48:17] Dank u.
[0:48:18] Mevrouw Rijkhofsky van de VVD.
[0:48:21] Is het algoritme gisteren dan zo'n nationale kop?
[0:48:26] Het is eigenlijk een soort aanvulling.
[0:48:28] Zijn we daar dan anders in dan andere landen?
[0:48:34] Ik heb een vraag over de nationale veiligheid, want er zou eerst sprake zijn dat als de nationale
[0:48:42] veiligheid in het geding is, is het dan zo dat bijvoorbeeld deze instrumenten niet meer
[0:48:47] gebruikt hoeven worden?
[0:48:48] Of is het zo dat de instrumenten wel gebruikt moeten worden, maar dat die niet meer openbaar
[0:48:53] toegankelijk zijn?
[0:49:08] Dat betrekt de vraag over die nationale kop en het register.
[0:49:11] Ik denk dat het belangrijk is om te illustreren dat het register op dit moment natuurlijk voor de overheid een instrument is,
[0:49:16] dus niet voor de private sector.
[0:49:20] En dat het vooral ook een instrument is binnen het Rijk om transparantie te geven op het gebied van algoritmes.
[0:49:26] Er is op dit moment ook nog geen wettelijke verplichting, dus die geldt niet.
[0:49:32] Verder denk ik dat we in de verzamelbrief moeten terugkomen op al dan niet een wetgevingstraject,
[0:49:38] Want dan is inderdaad de vraag, wil je het wel verplicht maken?
[0:49:41] Ja, dan zal er een wetgevingstraject moeten volgen.
[0:49:43] Maar daar willen we graag, denk ik, even op terugkomen aan de hand van de
[0:49:46] eerstvolgende verzameldrieven voor deze zomer.
[0:49:54] Ja, wat betreft de vraag over nationale veiligheid.
[0:49:57] Als het over nationale veiligheid gaat in de AI-verordening,
[0:50:00] gaat het dus over bijvoorbeeld het werk van de inrichtingendiensten en dus niet
[0:50:04] bijvoorbeeld over de rechtshanthavingsactiviteit van bijvoorbeeld de politie.
[0:50:08] Dus de laatste categorie, dat valt gewoon onder de regels van de AI-verordening.
[0:50:12] Hier en daar gelden wel wat uitzonderingen waar die bijvoorbeeld te maken met vertrouwelijkheid
[0:50:16] van informatie of omdat bijvoorbeeld lopende onderzoeken zwaar naar het geding kunnen komen.
[0:50:23] Nationale veiligheid is uitgezonderd van de AI-verordening omdat dat ook volgens het verdrag
[0:50:29] voor de werking van de Europese Unie een exclusieve nationale bevoegdheid is en kan dus op die
[0:50:34] manier ook niet door Europese wetgeving worden gereguleerd.
[0:50:37] Dus dat is niet een keuze die expliciet gemaakt is, alhoewel staat erin.
[0:50:41] Maar dat is eigenlijk hoe we de Europese Unie met elkaar hebben gemaakt.
[0:50:45] En voor deze instrumenten die nationaal zijn.
[0:50:48] Het zijn nog geen wettelijke instrumenten.
[0:50:50] Alzinder zijn nog niet wettelijk gewaarborgd.
[0:50:53] Pas als dat gebeurt, dan is het natuurlijk een discussie die ik kan ontstaan over wat daar dan wel of niet onder valt.
[0:51:01] Dank voor de beantwoording en dan gaan we naar deel vier van de presentatie.
[0:51:05] Nog één korte aanvulling over de vraag over de nationale kop.
[0:51:09] Het is wel goed om even de ondertiteling erbij.
[0:51:14] Wij zijn geen voorstander van de nationale kop bovenop de AI-Act.
[0:51:18] Dat is het uitgangspunt, want de AI-Act regelt al best wel heel veel goede dingen.
[0:51:22] De vraag of het algoritme registerwettelijk moet worden verplicht, hebben wij vanuit uw Kamer als
[0:51:27] motie meegekregen om te onderzoeken.
[0:51:31] Dat nemen wij mee binnen alles wat we ook doen met de AI-Act.
[0:51:34] van is het nou echt nuttig en noodzakelijk versus wat doen we eigenlijk ook al vanuit
[0:51:38] Europees verband. Dus dat is daar het verhaal bij.
[0:51:45] Dan de laatste vijf minuten nog even een korte stand van zaken op het gebied van de aangenomen
[0:51:50] moties en toezeggingen die ook raken aan de AI-verordening. Met een disclaimer dat het
[0:51:55] dus gaat om stand van zaken aangenomen moties en toezeggingen op het gebied van de AI-verordening
[0:51:59] of die daaraan raken. Dat er natuurlijk een breder palet is aan moties op het gebied van
[0:52:03] AI en daar zullen we later ook in die verzamelbrief op terugkomen. Dus het gaat echt over
[0:52:07] moties die raken aan de AI-Act. Het algoritme register, net ook al even benoemd, daar hebben
[0:52:14] we de motie Dekker Abdul Aziz uit 2023 en die roept op om alle nieuwe hoogrisico algoritmes
[0:52:20] bij het Rijk verplicht op te nemen in het register en het uitvoeren van een impactassess met
[0:52:26] mensenrechten en algoritmes. Hoe we deze lezen is dat we stimuleren om hoogrisico AI-systemen
[0:52:37] conform de AI-verordening definitie op te nemen met het algoritme en register.
[0:52:41] Er wordt op die manier uitvoering aangegeven.
[0:52:44] Dan de mensenrechtentoetstoezeggingen en moties.
[0:52:48] Eigenlijk twee om hier uit te lichten.
[0:52:51] Eentje gaat over het opnemen van een mensenrechtentoets in die AI-verordening.
[0:52:56] En de andere van de leden Boucher-Leake en Dekker-Abdoulaziz,
[0:53:00] die verplicht om een impact assessment te doen voorafgaand aan algoritmegebruik
[0:53:04] wanneer deze worden ingezet om evaluaties van of beslissingen over mensen te maken.
[0:53:11] Enerzijds is dat natuurlijk geregeld via die Fundamental Rights Impact Assessment,
[0:53:16] waar ik net al aan raakte, de FRIA, die in de AI-verordening is opgenomen.
[0:53:20] En aan de andere kant gebeurt dat ook aan het feit dat mitigatie van risico's
[0:53:26] en fundamentele rechten ook een eis is voor hoogrisicosystemen in die AI-act.
[0:53:31] En dat betekent dus dat je daarmee ook aan de voorkant, dus die vria is wat meer,
[0:53:39] laten we zeggen, later in het traject en aan de voorkant zit je dan ook goed.
[0:53:45] Dus dat is denk ik een manier hoe we op die mensenrechtentoets moties en toezeggingen
[0:53:49] via de Weg van de AI-verordening invulling hebben gegeven.
[0:53:53] Dan nog een drietal moties, of twee moties en een verzoek eigenlijk
[0:53:59] over het versterken van de rechtspositie van burgers bij algorithmische besluitvorming.
[0:54:05] Aan de ene kant de motie van het lid Leijten dat opriep om in de AI-verordening op te nemen
[0:54:13] dat een genomen besluit altijd begrijpelijk kenbaar moet worden gemaakt.
[0:54:16] Dat wordt dus geregeld via de al eerder genoemde notificatieplicht in die AI-verordening.
[0:54:21] Dan hebben we nog de motie van het lid Slootweg.
[0:54:24] Dat vraagt om het versterken van de positie van burgers in het bestuursrecht bij fouten
[0:54:30] rondom algoritme gebruik bij de overheid.
[0:54:33] Er wordt in het kader van de Algemene Bestuursrecht
[0:54:37] lopen een aantal dingen, maar een van de dingen rondom die algoritmische besluitvorming
[0:54:40] is dat er recent een reflectiedocument in consultatie is geweest.
[0:54:46] En de vraag die daar ook opgeworpen wordt, of een van de vragen is ook
[0:54:51] wat is de meerwaarde van normen
[0:54:54] specifiek voor die algoritmische besluitvorming in die AWB.
[0:54:59] En dan tot slot het meest recente is het verzoek van het lid Itzinga.
[0:55:03] Dat vraagt om een inventarisatie van mogelijk illegale geautomatiseerde selectietechnieken.
[0:55:09] Onder meer raakt dit ook aan de Shufa uitspraken van het hof van justitie van de Europese Unie.
[0:55:17] En daar is de autoriteit persoonsgegevens gevraagd om met een advies te komen.
[0:55:21] En dat advies zal ook snel volgen, nog in Q2.
[0:55:25] En verder wordt er ook gewerkt aan een plan van aanpak om ook die inventarisatie op een grondige wijze uit te kunnen voeren.
[0:55:33] En dan hebben we nog twee moties die raken aan het verplicht waarborgen om discriminatie te voorkomen, beide van het lid van Baarle.
[0:55:43] En ik denk dat het daar ook goed is om te benoemen dat, eigenlijk waar collega Lisa al een aantal keer ook aan heeft geraakt,
[0:55:51] Die conferentijsbeoordeling, dus het kunnen aanbrengen van CE-markering, waar ook specifieke
[0:55:57] eisen op dit gebied in zijn verwerkt en dus het, noem het CE-markering of een keurmerk
[0:56:03] ook wel eens teruggekomen in het debat en verder aan de gebruikerskant het inregelen
[0:56:08] van menselijk toezicht en dus het uitvoeren van een FRIA, Fundamental Rights Impact Assessment,
[0:56:14] voor bepaalde gebruikers zoals bijvoorbeeld overheden.
[0:56:18] En dan als laatste een motie van de leden Rijkhofsky en Dekker-Abdelaziz.
[0:56:25] Een deel daarvan raakt ook aan, denk ik, de vraag met organisaties in gesprek te gaan.
[0:56:32] Van vooruitloop ook op die AI-verordening van hoe kun je nou verantwoordelijkheid nemen om de risico's van AI te verkleinen.
[0:56:38] En voor overheden is denk ik belangrijk om te noemen dat het algoritme kader daarvoor een heel goed instrument is.
[0:56:43] en waar die normen en vereisten de komende tijd ook verder in zullen worden opgenomen.
[0:56:52] Dan zijn we rond voor dit blokje en als de tijd er nog toe staat kunnen we denk ik nog wel een paar algemene vragen of gewoon op blokje 4 toch?
[0:57:02] Heel veel dank voor deze uitnodiging, want vaak wordt hier bij de handen aangrepen.
[0:57:07] Zijn er nog leden met vragen?
[0:57:12] Mevrouw Rijkowski van de VVD.
[0:57:14] Als we dan toch tijd hebben dan is wel fijn.
[0:57:17] Wat zien jullie als de grootste uitdaging op het gebied van de AI-Act?
[0:57:22] Of is dat uiteindelijk de communicatie met de samenleving?
[0:57:26] Is dat meer een toezichthouderstelsel?
[0:57:29] Is dat meer, daar waar het deepfakes en andere...
[0:57:33] ...meer risico voor veiligheid van mensen betreft?
[0:57:35] Wat denken jullie dat de grootste...
[0:57:38] Ik kan me namelijk zo voorstellen dat het er best wat zijn.
[0:57:40] De techniek ontwikkelt zich ook, dus daar zullen wij gewoon ook...
[0:57:43] samen elkaar ervan na moeten denken.
[0:57:45] Maar hoe zien jullie dat?
[0:57:50] Ik heb een vraag over de toepassingsgebieden.
[0:57:53] AI krijgt natuurlijk een enorme vlucht nemen.
[0:57:56] Dat doet het al.
[0:57:57] Die toepassingsgebieden zullen wel gaan uitbreiden.
[0:58:01] Dus hoe gaan we zorgen dat we dat niet telkens moeten aanpassen?
[0:58:06] Dan gaan we naar de beantwoording.
[0:58:10] Bedankt voor deze vragen.
[0:58:14] Misschien nog één aanvulling op de laatste sluiting over de motie.
[0:58:16] is dat de motie die vroeg om in gesprek te gaan.
[0:58:19] Daarvan kan ik ook aangeven dat we naar aanleiding van die motie
[0:58:22] meerdere gesprekken hebben gepland, ook met grote ondernemers,
[0:58:25] met MKB, en dat eigenlijk blijven doen in het hele traject, continu.
[0:58:30] De grootste uitdaging, zonder verder afgestemd te hebben,
[0:58:34] is volgens mij tweeledig.
[0:58:37] Eén is om tot goed begrip te komen bij alle partijen
[0:58:41] die worden geraakt door de AI-verordening
[0:58:44] en dus niet een paniek van, niks mag meer, maar wel van,
[0:58:48] oh, wat is eigenlijk het risico van mijn product,
[0:58:51] van datgene wat ik ga gebruiken?
[0:58:53] En dan ook begrijpen hoe je dat kan oplossen, eigenlijk,
[0:58:57] zodat mensen echt kunnen vertrouwen in AI,
[0:58:59] want dat gaat er komen, dat het echt betrouwbaar wordt.
[0:59:02] Ik denk dat dat voor de hele privaatsector en de publieke sector
[0:59:05] een hele grote uitdaging is.
[0:59:07] En het tweede element is het inrichten van de toezicht.
[0:59:09] Het zorgen dat toezichthouders een manier vinden met elkaar
[0:59:12] om die concrete inspecties te checken of het ook echt werkt zoals de bedoeling is
[0:59:18] om dat te gaan doen en dan daar genoeg mensen voor te vinden.
[0:59:22] Want je werkt toch als AI-expert liever bij een bedrijf
[0:59:25] dan bij een toezichthouder op dit moment, maar misschien kan dan wel veranderen.
[0:59:29] En het toepassingsgebied, dat is een van de onderdelen van de AI-voordeling
[0:59:33] waarvan echt is geprobeerd om het toekomstbestendig te maken,
[0:59:36] voor zover dat kan bij EU-wetgeving, dat is nog wel spannend.
[0:59:40] Hij is aanpasbaar, die bijlagen. Het is een bijlage van de wet.
[0:59:44] Dat is iets makkelijker aanpasbaar dan de wetstek zelf.
[0:59:47] Bijlage drie is aanpasbaar aan de hand van criteria die in een artikel staan.
[0:59:52] En zowel toepassingsgebieden kunnen eraf als erbij.
[0:59:55] En er is sowieso... Er is een wetenschappelijk panel
[0:59:58] wat daarover kan adviseren, formeel.
[1:00:00] En een adviesraad, een advisory forum van allerlei stakeholders.
[1:00:04] Dus ook maatschappelijke organisaties, MKB, die komen daarin
[1:00:07] en die hebben allebei een adviserende rol richting de commissie over die aanpasbaarheid
[1:00:12] van onder andere dit deel.
[1:00:14] Dus we verwachten wel dat die toepassingsgebieden aangepast zullen worden
[1:00:17] en dat kan dan op basis van fact-based analyse.
[1:00:20] Wij hopen dat zelf ook via de sandbox bijvoorbeeld op te halen en dan te kunnen delen.
[1:00:27] Aanvullingen?
[1:00:28] Ja, als we kijken bijvoorbeeld naar het terrein van het ministerie waar ik werk,
[1:00:36] heel veel van die toepassingsgebieden raken aan het domein.
[1:00:42] De inwerktredingstermijnen die hebben jullie in het begin gezien,
[1:00:44] die zijn redelijk kort.
[1:00:46] Eerder zijn ook de standaarden genoemd.
[1:00:48] Heel veel van die vereisten voor hoog risico AI-systeem,
[1:00:51] die worden dadelijk uitgewerkt in standaarden.
[1:00:53] Dat is hoeveel ook wat nieuwere wetgeving in de EU werkt.
[1:00:56] Dat komt zodat die wet dus niet zo specifiek mogelijk hoeft te zijn.
[1:01:00] Zodat die ook toekomstbestendig is,
[1:01:02] omdat we ook een regelingsobject hebben, namelijk AI, wat heel snel ontwikkelt.
[1:01:08] Die standaarden die worden ontwikkeld, alleen die zijn er dus nog niet.
[1:01:11] En die zijn er ook niet op kort termijn.
[1:01:14] Terwijl dat over twee jaar, als het volgende maand gepubliceerd wordt,
[1:01:18] of in juli gepubliceerd wordt, moet men daaraan gaan voldoen.
[1:01:22] En wat wij zien, is ook veel uitvoeringsorganisaties bij de overheid,
[1:01:25] en ik denk dat ik dat niet alleen spreek voor het domein van de ministerie van Justitie en Veiligheid,
[1:01:30] hebben ook te maken met dezelfde uitdagingen die kleinere bedrijven hebben, namelijk beperkte capaciteit.
[1:01:37] En er zijn ook heel veel andere wetten op het gebied van digitalisering die daar impact op hebben.
[1:01:41] Dus dat is een grote uitdaging.
[1:01:48] Dan wil ik hem ook even aanvullen, puur persoonlijk ook, wat zie ik als de grootste uitdaging de komende tijd.
[1:01:53] Ik heb zelf ook het thema digitale inclusie in portefeuille.
[1:01:56] Het gaat ook over de vraag hoe neem je mensen op een verantwoorde en veilige manier mee op de digitale snelweg.
[1:02:01] Ik zie wel echt op die portefeuille dat dit wel een grote klus gaat worden.
[1:02:05] We hebben nu al moeite met het herkennen van phishing, van deepfakes, met het laten staan
[1:02:11] met gen A, I of AI, dus daar zie ik een enorme uitdaging in hoe we dat op een verantwoorde
[1:02:16] manier naar de samenleving brengen en welke rol wij als overheid samen met de markt hebben
[1:02:22] om daar echt die kades voor te gaan scheppen, zodat mensen echt met vertrouwen gebruik kunnen
[1:02:26] maken van deze techniek.
[1:02:28] Dat is de afsluiting.
[1:02:32] Dan dank ik u van harte voor de beantwoording, maar ook gewoon voor de volledige toelichting op die AI-verordening.
[1:02:39] Dat is echt ongelooflijk waardevol.
[1:02:41] En ontzettend dank voor uw tijd.
[1:02:45] Ik wil het bijna zeggen tot de volgende keer, maar hopelijk is dat niet nodig.
[1:02:48] Dat we nu goed gaan doorronden met z'n allen.
[1:02:51] Maar ongelooflijk veel dank.
[1:02:53] En dan sluit ik deze technische briefing.