Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Normuitleg en toezicht Artificiële Intelligentie

[0:00:00] Welkom voor onze gasten in het huis van de Tweede Kamer.

[0:00:04] Ook speciaal welkom voor onze leden, voor de mensen op de tribune...

[0:00:09] en mensen die via de livestream meekijken.

[0:00:12] Van harte welkom bij de Commissie Digitale Zaken...

[0:00:15] bij het rond de tafelgesprek over normuitleg en toezicht.

[0:00:19] AI, artificial intelligentie. Een heel mooi onderwerp.

[0:00:24] We gaan zo meteen beginnen en dan vragen wij onze gasten...

[0:00:28] om ongeveer twee minuten een statement te maken.

[0:00:33] We zullen proberen scherp op de tijd te letten.

[0:00:36] En daarna kunnen de leden vragen stellen.

[0:00:38] En mijn voorstel daarbij zou zijn om per lid een vraag te stellen

[0:00:43] en direct te beantwoorden, zodat er ook een gesprek tot stand kan komen,

[0:00:47] als iedereen zich daarin kan vinden. Ik zie instemmend geknik.

[0:00:50] Dus dan ga ik u nu het woord geven aan meneer Wolffsen.

[0:00:56] Dank u wel, mevrouw de voorzitter, en dank u ook voor de uitnodiging.

[0:00:59] is het alweer een genoegen om hier bij u te zijn

[0:01:00] om te kunnen vertellen over ons werk en waar we mee bezig zijn.

[0:01:04] En ook speciaal dank vandaag om in gesprek te kunnen gaan over normering en over AI.

[0:01:10] U heeft ons paper allemaal ontvangen, neem ik aan.

[0:01:12] Ik heb nog een paar kleine inleidende opmerkingen,

[0:01:14] want het is misschien inmiddels een cliché om te zeggen

[0:01:17] dat de AI grote kansen met zich meebrengt,

[0:01:19] waar de samenleving als geheel van kan profiteren,

[0:01:21] maar ook grote risico's waarbij veiligheid, gezondheid

[0:01:25] en grondrechten in de geding komen of kunnen komen.

[0:01:28] De voorbeelden zijn bekend.

[0:01:29] In een democratische rechtsstaat met vrijheid van ondernemerschap

[0:01:32] is het universele antwoord op dit soort uitdagingen

[0:01:34] om te komen tot goede, duidelijke en werkbare regulering.

[0:01:40] Onderdeel daarvan is een stelsel, ook een stelsel,

[0:01:42] waarbij verschillende partijen, waaronder toezithouders,

[0:01:45] goed in staat worden gesteld om bij te kunnen dragen aan de uitvoering.

[0:01:49] Dit vergt betrokkenheid en inzet van veel partijen.

[0:01:52] Iedereen in hun eigen rol.

[0:01:54] Ik ben daarom verheugd met de samenstelling van dit rond-de-tafelgesprek.

[0:01:57] Als coördinerend AI- en algoritme-toezichthouders werken we vanuit de AP met alle aanwezigen,

[0:02:02] ook hier vandaag aan tafel, goed en intensief samen.

[0:02:07] Samen met de RDI nemen we het voortouw in het uitdenken van een werkbaar toezichtsraam

[0:02:11] op de AI-verordening.

[0:02:13] De uitdaging daarbij is dat AI vrijwel alle sectoren in Nederland raakt en onderlinge

[0:02:17] samenwerking en kennisdeling tussen de toezichthouders van groot belang is.

[0:02:22] Samen met het College voor de Rechten van de Mens hebben we een nadrukkelijk oog voor

[0:02:25] voor de grondrechtenrisico's die aanwezig kunnen zijn bij AI-systemen.

[0:02:28] Het gaat hier immers om mensen, om burgers en hun grondrechten.

[0:02:33] Terecht dat het kabinet en u ook hier veel aandacht voor hebben.

[0:02:37] In het kader van de AI-act is de AP ook lid van de normcommissie van NEN

[0:02:41] over AI-systemen.

[0:02:43] En we dragen ook bij in Europese technische werkgroepen

[0:02:46] waarin standaarden worden uitgewerkt.

[0:02:50] Het is dit technische niveau dat uiteindelijk cruciaal is

[0:02:53] voor de effectiviteit en uitvoerbaarheid van de AI-verhoudening.

[0:02:55] En ook de VNO-NCW weten we goed te vinden op AI-terrein.

[0:02:59] Het is goed om te zien dat de VNO-NCW het voortouw neemt

[0:03:03] in het voorlichten van Nederlandse bedrijfsleven over de AI-veroudering.

[0:03:06] En we dragen graag bij aan symposia en bijeenkomsten op dit vlak.

[0:03:10] In het verleden hebben we ook met de introductie van de AVG

[0:03:13] samen met de VNO zelfs een roadshow in Nederland gehouden over de AVG.

[0:03:19] Dat zouden we nu met alle plezier weer doen.

[0:03:21] Concreet zijn we samen met de RDI en andere toezichthouders ook druk bezig

[0:03:24] we de pilot voor zogenaamde regulatory sandboxes voor AI,

[0:03:28] zodat er een omgeving is waarin start-ups, bijvoorbeeld uit het MKB,

[0:03:32] goed in contact kunnen staan met toezichthouders

[0:03:34] om compliance-vraagstukken op AI-terrein te verkennen.

[0:03:37] In ons position paper pleiten we voor een deltaplan voor AI.

[0:03:40] En we hebben ook al eerder een aanzet gedaan

[0:03:42] voor de onderdelen van zo'n deltaplan.

[0:03:45] AI is een systeemtechnologie

[0:03:47] en als samenleving moeten we ons daarop nog steeds verder voorbereiden.

[0:03:50] Dat vraagt investeringen in mensen, in educatie, jong en oud,

[0:03:54] in kenniscentra, in fundamenteel onderzoek, in testorganisaties

[0:03:58] en natuurlijk ook in interne, externe en publieke toezithouders.

[0:04:02] Zo ontstaat een ecosysteem voor waardegedreven AI-toepassingen

[0:04:06] die zo ingezet worden dat veiligheid, gezondheid en grondrechten

[0:04:09] goed zijn beschermd.

[0:04:11] Uw commissie vroeg ook welke rol u als Kamer kunt pakken

[0:04:14] in het controle op AI.

[0:04:16] Laat ik duidelijk zijn.

[0:04:18] Die rol is van groot belang, vanzelfsprekend.

[0:04:21] In onze afgelopen rapportage AI en algoritmerisico's in Nederland

[0:04:25] zijn we ingegaan op de democratische controlecyclus van AI-systemen.

[0:04:29] En de controle en beheersing van AI is breder en meer dan alleen de AI-act.

[0:04:34] Zeker voor publieke organisaties die een kernwaarde zijn,

[0:04:36] en doet het alleen even in steek worden nu,

[0:04:38] maar ik kan me laten vragen of we beantwoorden het vanzelfsprekend.

[0:04:40] In governance is duidelijk wie binnen welke overheidsorganisatie

[0:04:44] verantwoordelijk is voor de AI en voor de inzetten van twee strategie.

[0:04:48] Heeft de overheidsorganisatie een meerjarenplan

[0:04:51] hoe ze AI willen inzetten?

[0:04:54] Drie, transparantie en proactieve betrokkenheid.

[0:04:57] Krijgt u van tevoren te horen en te weten

[0:05:01] welke AI-systemen de overheid inzet en wanneer die worden ingezet?

[0:05:06] Vier, periodieke controle.

[0:05:08] Worden de AI-systemen periodiek gecontroleerd

[0:05:10] bijvoorbeeld door een ouderdienst of de rekenkamer

[0:05:12] en krijgt u die resultaten ook te zien en vraagt u daar ook om?

[0:05:15] En vijf, en daar sluit ik ook mee af, opvolging van tekortkomingen.

[0:05:20] Gaat de organisatie aan de slag met verbeterpunten?

[0:05:23] En dat is ook eigenlijk, zou je kunnen zeggen, onderdeel,

[0:05:25] of moet ik natuurlijk onderdeel zijn van de controlerende taak van het parlement.

[0:05:30] Deze democratische controlecyclus vraagt financiële capaciteit, mankracht en tijd

[0:05:35] en het vraagt om actieve en bewuste politieke keuzes.

[0:05:40] We kijken uit naar het vervolg en straks naar uw vragen.

[0:05:43] Dit was mijn inleiding, mevrouw de voorzitter.

[0:05:46] Ja, dank u wel.

[0:05:48] Ja, we kennen meneer Wolff natuurlijk altijd als voorzitter

[0:05:50] van de autoriteitenpersoonsgegevens, dus dank u wel voor uw inbreng.

[0:05:55] En ik geef graag het woord over aan mevrouw Van Dijk.

[0:05:58] Zij is inspecteur-generaal bij de Rijksinspectie Digitale Infrastructuur.

[0:06:03] Gaat uw gang.

[0:06:04] Dank u wel. Dank u wel voor de uitnodiging en fijn om hier weer te mogen zijn.

[0:06:08] Dat is... Mijn collega is ook hier.

[0:06:11] AI, de mogelijkheid van een machine om menselijke vaardigheden na te boodsen,

[0:06:17] worden daar dagelijks mee geconfronteerd in de maatschappij.

[0:06:21] Dat vraagt om wetgeving en dat vraagt om regulering.

[0:06:26] Daarvoor zitten we hier ook bijeen vandaag.

[0:06:30] Voor onze veiligheid, welzijn, welbevinden, voor fundamentele rechten.

[0:06:37] Wat ik wel denk dat belangrijk is, is dat er een balans is, als je het over AI hebt,

[0:06:43] tussen de wetgeving, tussen de mate van standardisatie die mogelijk is op Europese niveau,

[0:06:51] en dat er een innovatief klimaat is waarin ook geëxperimenteerd kan worden.

[0:06:58] Dus innovatie is ook belangrijk.

[0:07:00] Een balans tussen die drie is in mijn optiek van belang.

[0:07:07] Voor het toezicht groeit het besef dat we het hier hebben, ook in de AI-voordeling,

[0:07:13] over producttoezicht.

[0:07:15] Een AI komt voor in een systeem, in een product.

[0:07:19] Dat vraagt ook iets van ons allen, om dat te beseffen.

[0:07:23] Producttoezicht betekent namelijk dat degene die het ontwikkelt, degene die het aanbiedt,

[0:07:30] maar ook de eindverantwoordelijke gebruiker, dat daar toezicht op gehouden dient te worden.

[0:07:37] Dat is een heel systeem, dat is een heel stelsel.

[0:07:41] Ik kan ook meteen zeggen, dat is nooit afdoende.

[0:07:43] En dat betekent ook meteen het vraagstuk voor ons allemaal, hoe je risicogestuurd toezicht gaat inrichten.

[0:07:50] Niet alles is beheersbaar, maar hoe gaan we die risico's detecteren?

[0:07:55] Het is voor ons allemaal een nieuw gebied, een nieuw terrein.

[0:07:59] Dus dat betekent ook de komende periode, ook voor toezichthouders,

[0:08:05] om de dialoog met elkaar aan te gaan, om proactief te zijn.

[0:08:12] Nou, de heer Wolfsen noemde het al, in de regulatory sandboxes,

[0:08:15] waarin je met de toezichthouder, de wetgever, beleid en ook met ondernemers aan de slag gaat

[0:08:21] om te verkennen wat zijn de mogelijkheden en waar zitten die risico's.

[0:08:26] Die dialoog is ongelooflijk belangrijk.

[0:08:28] Maar ook, als ik kijk bij mijn eigen inspectie in ons AI Safety & Security Lab,

[0:08:35] om ook te ontdekken en te verkennen wat de mogelijkheden zijn en de risico's.

[0:08:41] Dus proactief toezicht, risicogestuurd toezicht, is hierin van belang.

[0:08:47] En het besef dus dat het over producttoezicht gaat.

[0:08:51] En dat vraagt nog ook het aanwijzen van markttoezichthouders daarin.

[0:08:55] Voor het inrichten van de toezichtstructuur zijn wij beiden aan zet en hebben wij een advies,

[0:09:03] leggen wij neer, het is een advies, maar in ieder geval om zoveel mogelijk aan te sluiten,

[0:09:08] of zoveel mogelijk, eigenlijk kan ik het wel stelliger zeggen, om gewoon eigenlijk aan te

[0:09:11] sluiten bij de bestaande rollen, taken, mandaten en bevoegdheden die de huidige toezichthouders,

[0:09:18] domein- en ook sectorale toezichthouders hebben.

[0:09:23] En daarmee winnen we, denk ik, ook met z'n allen aan kracht.

[0:09:26] U kunt dit niet op één plek neerleggen.

[0:09:29] Ik geloof wel in mate van coördinatie.

[0:09:32] Die kun je beleggen.

[0:09:34] Wij pakken die rollen inmiddels ook op, die coördinatierollen.

[0:09:40] Maar de kracht zit erin om ook juist die sectorale toezichthouders de kans te geven om zich hierop

[0:09:47] te ontwikkelen.

[0:09:48] Kennis en expertise verzamelen met elkaar, ja, heel goed.

[0:09:52] Maar als voorbeeld, als het een medisch apparaat betreft, is het goed als de IG Gezondheidszorg

[0:10:00] en Jeugd daar wat van kan vinden.

[0:10:03] Gaat het over de financiële markt, is de Nederlandse Bank, AZ en de AVM.

[0:10:08] Het is belangrijk altijd de AI in zijn context ook te kunnen beoordelen.

[0:10:14] Ten aanzien van de Kamer. Het is een onderwerp dat zich dus leent uitwerking in een sector,

[0:10:21] maar ook horizontaal, rijksbreed. En in de position paper ook al neergeschreven dat u ook

[0:10:27] via het budgetrecht en via ook de financiering ook kunt helpen om te zorgen dat dit ook rijksbreed

[0:10:34] gefinancierd kan worden. Dus dat is tot slot nog de oproep die ik wil doen.

[0:10:39] Dank u wel.

[0:10:41] Dank u wel, mevrouw Van Dijk.

[0:10:43] Naast mevrouw Van Dijk zit de heer Hoegen Dijkhoff, verbonden aan het college voor de rechten van

[0:10:50] de mens.

[0:10:51] Ik geef u graag het woord.

[0:10:54] Dank u wel.

[0:10:56] Ook namens het college voor de rechten van de mens hartelijk dank voor deze uitnodiging.

[0:11:00] De kern van onze inbreng vandaag is dat AI ontegenzeggelijk impact heeft op grondrechten,

[0:11:05] op fundamentele rechten en dat het effectieve toezicht vereist, zoals ook de heer Vos al

[0:11:09] aanstipte.

[0:11:10] En zoals dat ook wordt erkend door de Europese Commissie en de AI-verordening.

[0:11:14] En ook al is er gezegd, die impact van AI op grondrechten, fundamentele rechten, die kan

[0:11:19] positief zijn, zoals AI ter ondersteuning bij medische toepassingen, maar AI en ook andere

[0:11:26] algoritmes die kunnen een negatief impact hebben, zoals we in Nederland inmiddels al

[0:11:29] vaker hebben ervaren.

[0:11:31] Het kan zijn dat niet iedereen op gelijke wijze kan profiteren van AI.

[0:11:34] waardoor AI bepaalde groepen mensen buiten de boot dreigen te vallen,

[0:11:38] of juist overmatig en onrechtmatig worden gecontroleerd.

[0:11:42] De beursbepaalde besluiten die overheengenomen worden niet meer kunnen begrijpen

[0:11:46] en eventueel nog aanvechten omdat ze door een AI-systeem niet goed uit te leggen zijn.

[0:11:51] Dus hoe zetten we nog verantwoord AI in?

[0:11:53] En u vraagt terecht om normuitleg.

[0:11:56] De AI-verordening biedt hiervoor in principe aanknopingspunten.

[0:12:00] De verordening vraagt om verschillende vormen van toezicht,

[0:12:03] waaronder van autoriteiten die fundamentele rechten beschermen.

[0:12:06] En dan het specifieke artikel 77 voor de liefhebber.

[0:12:10] En voor deze, nou ja, zogenaamde grondrechtentoezichthouder

[0:12:12] is dus reeds vanuit de werkgroep Toezicht AI het voorstel gedaan

[0:12:17] dat het college voor de rechten van de mens en de AP worden aangewezen

[0:12:20] bij het college dan zijn optreden als toezichthouder

[0:12:23] van op de fundamentele rechten in brede zin en de AP als toezichthouder

[0:12:27] op het specifieke terrein van gegevensbeschermingsrecht.

[0:12:31] En zoals wij stellen, zou effectief grondrecht toezicht niet alleen zijn het reactief wachten

[0:12:35] op een melding over de volgende algoritmeaffaire, zoals mevrouw Van Dijk net ook al aanstipte,

[0:12:42] maar ook productief toezicht vereisen, dus voorlichting, risico-signalering, onderzoek

[0:12:46] en advisering moeten ontvatten.

[0:12:48] En dit draagt bij aan normen uitleggen in de praktijk.

[0:12:51] En de rol van de Tweede Kamer, de Tweede Kamer is net ook al gezegd, die kan faciliteren

[0:12:56] dat toezicht in Nederland ordentelijk wordt ingericht.

[0:13:00] En de Kamer speelt daarnaast een essentiële rol om te controleren...

[0:13:03] dat de overheid je verantwoord inzet...

[0:13:05] en de risico's op grondrechten schendingen worden ingeperkt.

[0:13:08] Dat is immers niet iets wat je op zijn beloop wil laten.

[0:13:12] Dank u wel.

[0:13:13] En Veroek, ook voor u heel hartelijk dank voor uw bijdrage.

[0:13:18] En dan geef ik zometeen het woord aan mevrouw Stroeve Korteland.

[0:13:22] Zij is werkzaam voor de stichting Koninklijk Nederlands Normalisatie Instituut.

[0:13:27] Een hele mond vol, dus ik ben erg benieuwd.

[0:13:30] Dank u wel, gaat u verder.

[0:13:31] Dank u wel, ook voor de uitnodiging om vandaag hier aanwezig te zijn.

[0:13:35] Ik vertegenwoordig inderdaad NEN, het Nederlands Normalisatie Instituut.

[0:13:38] Wat wij doen, is dat wij belanghebbende partijen begeleiden bij het maken van vrijwillige afspraken

[0:13:44] over in dit geval de ontwikkeling en toepassing van AI-systemen.

[0:13:48] NEN is daarbij de toegangspoort naar het maken van normen op Europees en mondiaal niveau.

[0:13:54] Dat betekent concreet dat Nederlandse inhoudelijke experts op het gebied van AI, vanuit de overheid,

[0:14:00] vanuit het bedrijfsleven, vanuit de wetenschap, een actieve bijdrage leveren aan een nadere

[0:14:05] invulling van de AI-verordening.

[0:14:08] Dat heet dan harmonized standards.

[0:14:11] Zij maken die harmonized standards op verzoek van de Europese Commissie.

[0:14:14] Dat komt omdat normalisatie steeds vaker door de overheid wordt gebruikt, in combinatie met beleid

[0:14:20] en wet- en regelgeving, en op die manier wordt aangesloten bij het zelfregulerende karakter

[0:14:26] van de markt.

[0:14:28] Bekend is ook wel het European New Legislative Framework waar dit bij past.

[0:14:34] Dit betekent dus dat harmonised standards worden opgesteld en die beschrijven dan hoe

[0:14:39] aan de vereisten in de AI-verordening kan worden voldaan.

[0:14:42] Door deze normen te gebruiken, zorgen ontwikkelaars, leveranciers en gebruikers dat een AI-systeem

[0:14:50] voldoet aan de wettelijke eisen, zoals die door de Europese Commissie worden gesteld.

[0:14:54] Daarmee zijn de normen die nu ontwikkeld worden cruciaal voor de implementatie van de AI-verordening

[0:15:00] bij hoogrisico-AI-toepassingen.

[0:15:03] Vanuit de rol als procesbegeleider, wat NEN is, wil ik namens NEN oproepen om met een

[0:15:08] integrale aanpak te komen wat betreft de interpretatie en ook de implementatie van de AI-verordening

[0:15:14] en ook normalisatie rondom AI in het algemeen.

[0:15:18] Dit om fragmentatie te voorkomen, zoals AP ook terecht schreef, een wild groei aan allerlei

[0:15:23] initiatieven, zijn heel goed bedoeld, maar die zorgen ook mogelijk voor inconsistenties.

[0:15:28] Dat kan niet de bedoeling zijn.

[0:15:29] NEN wil graag een bijdrage leveren aan die integrale aanpak, haar rol pakken, maar heeft

[0:15:35] daarbij dus wel de steun van de Kamer en de politiek nodig.

[0:15:38] Dus vandaar onze oproep om voor die integrale aanpak te gaan.

[0:15:43] Wij leveren graag onze bijdrage daaraan.

[0:15:46] Dank u wel.

[0:15:47] Dank u wel, mevrouw Stroefer.

[0:15:49] Naast u zit mevrouw Tempelman.

[0:15:51] Zij is Senior Strategisch Adviseur Privacy bij VNO-NCW.

[0:15:56] Ik geef u graag het woord.

[0:15:58] Dank u wel.

[0:15:59] En ook nog verantwoordelijk voor de regeling van de digitalisering.

[0:16:01] Dus in die zin is een mooie raakvlakke.

[0:16:03] Dank voor de uitnodiging.

[0:16:04] Wij vinden dat de inrichting van toezicht op AI natuurlijk essentieel is

[0:16:09] voor het behalen van onze ambities op verantwoorde AI.

[0:16:12] En dat daar de inrichting van de toezicht, net zoals Angelien net al aanhaalde,

[0:16:17] het heel belangrijk is dat de toepassingscontext goed wordt meegenomen.

[0:16:21] Nou, er ligt echt een rol

[0:16:23] voor de sector- en domeinspecifieke toezichthouders.

[0:16:27] Uiteraard de samenwerking met toezichthouders

[0:16:30] die meer op de algemene regels toezicht houden, zoals de AP.

[0:16:33] Maar dan binnen het huidige mandaat, zoals net ook al werd aangehaald.

[0:16:37] Daar wil ik ook graag nog even bij benadrukken dat we heel blij zijn dat het College voor Recht van de Mens

[0:16:41] hier ook aan tafel zit, die natuurlijk de ervaring heeft met mensenrechten in den brede en dat

[0:16:47] inderdaad bij de AP ligt de persoonsgegevens.

[0:16:52] Als een toezicht op een goede manier wordt ingericht, dan kan het een positief effect hebben op onze

[0:16:56] innovatie, het vestigingsklimaat, maar ook de samenleving qua bescherming van de rechten,

[0:17:02] maatschappelijk doelen en brede welvaart, maar ook het concurrentievermogen.

[0:17:05] Ik herhaal hier even het Draghi-rapport aan, wat jullie ongetwijfeld zelf ook al hebben bestudeerd.

[0:17:11] AI is een beleidsprioriteit binnen de werkagenda DOSA, Digitale Open Strategische Autonomie.

[0:17:17] Ik denk dat dat ook goed is te noemen.

[0:17:19] Dus als we onze ambities op verantwoorde AI willen behalen, dan zullen we ook iets op AI moeten doen,

[0:17:25] binnen uiteraard de wettelijke kaders die er zijn en de rechtelijke uitleg daarvan.

[0:17:32] De normuitleg is voor ons ook superbelangrijk, en vooral dat die geharmoniseerd is, net zoals

[0:17:36] de minister hier net aanhaalde, geharmoniseerd, een gelijkspeelveld binnen Europa en ook tussen

[0:17:43] de verschillende toezichthouders in de verschillende lidstaten, maar ook vooral een praktische

[0:17:47] normuitleg.

[0:17:48] Daarom ondersteunen we ook de standardisatieprocessen van NEN heel erg, want dat is een praktische

[0:17:53] vertaalslag, noem ik het altijd, van de complexe juridische regels, ik ben zelf een jurist,

[0:17:57] Maar dan nog zie ik heel vaak dat het een complexe materie is.

[0:18:00] En juist die praktische vertaalslag, en met name voor het MKB, is dat natuurlijk onontbeerlijk.

[0:18:05] Maar er ligt ook een rol voor de toezichthouders.

[0:18:08] Want een reactieve en restrictieve uitleg van de normen of een uitleg die buiten de wettelijke

[0:18:13] kaders gaat, of de rechtelijke uitleg, die geeft te veel onrust, te veel onduidelijkheid in de markt.

[0:18:20] Ik verwijs hier even naar de recente uitspraak van de KNTB en de AP ten aanzien van gerechtvaardig

[0:18:28] Dus wat wij vervragen, en dat is hier net ook aan tafel aan bod gekomen, is inderdaad een

[0:18:32] proactieve houding, een houding die openstaat voor de samenleving, voor wat er gebeurt in

[0:18:38] de maatschappij.

[0:18:40] Geen aapje die horen zien en zwijgen, maar juist een hele agile houding, een leerende

[0:18:47] houding.

[0:18:48] Met elkaar zullen we moeten kijken en een balans moeten vinden tussen enerzijds de risico'sbeheer

[0:18:53] mitigeren en de kansen pakken.

[0:18:56] Beide zijn ze van belang.

[0:18:58] Dan wil ik nog heel kort benoemen dat wij ook zijn voor een onafhankelijke coördinatielaag.

[0:19:03] Wij zien dat het team van Sven Stevenson heel mooi en heel belangrijk werk doet om die samenwerking

[0:19:11] te bevorderen tussen de verschillende toezichthouders en ook een overkoepelende signaleringsfunctie heeft.

[0:19:16] Dat is onvermijdelijk, ook die kennisoverdracht waar we het net over hadden.

[0:19:20] Samen zullen we de kennis moeten delen om op een agile manier ermee om te gaan.

[0:19:25] Maar wij zien wel dat het noodzakelijk is om een onafhankelijke laag te hebben en met name

[0:19:30] om te verhogen van de democratische legitimiteit en controle daarop.

[0:19:36] Want bij een ZBO natuurlijk is er geen munitiele verantwoordelijkheid en ook de kaderwet is

[0:19:41] niet altijd van toepassing.

[0:19:43] Dus vanuit dat oogpunt willen we dat nog even aanstippen.

[0:19:45] Ik dank u.

[0:19:48] Ook dank u wel mevrouw Tempelman voor ook uw bijdrage.

[0:19:52] Dan wil ik de leden de gelegenheid geven om een vraag te stellen.

[0:19:55] Ik zal de volgorde van zitten aanhouden.

[0:19:59] Het zou fijn zijn als u even aangeeft aan wie u specifiek de vraag wil stellen.

[0:20:04] Dan geef ik nu het woord aan meneer Van Houwelingen, lid van Forum voor Democratie.

[0:20:08] Dank voor de presentatie, dank voor de komst, ook voor de precision papers.

[0:20:11] Ontzettend interessant, ontzettend belangrijk.

[0:20:13] Ik heb een vraag, dat hoorde ik niet zozeer in uw presentatie, ook niet in de precision papers zag ik het staan.

[0:20:19] Maar ik denk dat er, en daar maak ik me zorgen over, dat er nogal een spanning is bij sommige AI-systemen tussen wat je aan de ene kant maar noemt waarheid,

[0:20:25] richting op waarheid, en aan de andere kant politieke correctheid.

[0:20:28] Er zijn voorbeelden bekend, je bent dan gevraagd van wat zou je liever willen?

[0:20:32] Dat iemand gemisgenderd wordt of de derde wereldoorlog, antwoord derde wereldoorlog.

[0:20:36] Of zo'n plaatjesgenerator gevraagd, maak een typische Duits soldaat in de tweede wereldoorlog, krijg je een vrouw of iemand uit Afrika.

[0:20:41] Ik denk dat dat gevaarlijk is.

[0:20:43] En nou is mijn vraag, wordt daar in die normenstelling waar we het over hebben, wordt daar ook rekening mee gehouden?

[0:20:48] Ik ben helemaal tegen verbieden.

[0:20:49] Als mensen graag een politiek correct antwoord willen,

[0:20:50] dan moet het ook kunnen met AI.

[0:20:52] Maar dat je in ieder geval als gebruiker,

[0:20:53] dat lees ik bijvoorbeeld in de paper van de heer Wolfsen,

[0:20:55] menselijke regie.

[0:20:56] Ik zou het wel fijn vinden dat je,

[0:20:57] als je de AI gebruikt,

[0:20:58] dat je het zeg maar kunt instellen van,

[0:21:00] wil je graag een waarheidsgetal antwoord

[0:21:02] of een politiek correct antwoord?

[0:21:03] Dat het mogelijk is om dat als gebruiker ook in te stellen.

[0:21:06] Want nu doet dat systeem het volgens mij voor.

[0:21:08] Dus misschien kan ik die vraag maar misschien het best stellen aan de heer Wolfsen,

[0:21:11] aangezien het onderwerp menselijke regie in zijn positionpaper zat.

[0:21:14] Maar als iemand anders zich geroepen voelt,

[0:21:15] Graag natuurlijk.

[0:21:17] Dank u wel. Dan geef ik het woord aan meneer Wolfsen.

[0:21:20] Oe, dat is gelijk een hele grote en moeilijke vraag om het spits mee af te bijten.

[0:21:25] Ik prijs me onmiddellijk gelukkig dat we het samenwerkingsverband hebben...

[0:21:29] ...van digitale toezichthouders, toezichthouders in de digitale wereld...

[0:21:32] ...ook de RDI'er meedoet, maar ook de commissariat van de media.

[0:21:36] Dus die zit met name op dat vlak wat u net beschrijft.

[0:21:41] En ik moet u een beetje... Moet ik even hard bedenken.

[0:21:45] een antwoord schuldig blijven over hoe je dat precies in de reguleringen kunt gaan reguleren,

[0:21:52] zeg maar. Daar moet ik even over piekeren, eigenlijk. Want ik zit hiermee af te vragen,

[0:21:58] ik kan hier een wedervraag maar stellen, maar zou u daar via wetgeving meer op willen gaan sturen,

[0:22:02] of... Nou ja, u noemt mensen, heel kort, u noemt menselijke regie in uw paper, dus ik heb ze helemaal

[0:22:09] vervrijd. Dus u moet niks regelen. Maar ik zou het zelf als gebruiker in ieder geval fijn vinden als

[0:22:14] Als ik dan die AI kan instellen van ik wil dan liever een waarheidsgetrouw antwoord dan een politiek correct antwoord.

[0:22:20] Maar er zijn misschien mensen die dat kwetsend vinden, die liever een politiek correct antwoord.

[0:22:23] Ik vind het allemaal best, maar dat ik in ieder geval regie daarover kan houden en dat ik niet een politiek correct antwoord...

[0:22:28] Kijk, bijvoorbeeld een Duitse soldaat die dan een Afrikaanse vrouw...

[0:22:30] Dat vind ik ook niet goed voor de samenleving.

[0:22:32] In mijn uitgaanspunt is dat bij alle AI en alles wat met geautomatisering te maken heeft...

[0:22:39] de mens moet de regie houden over wat hij wil.

[0:22:41] Het systeem dient de mens er niet anders om.

[0:22:44] Op een hoger niveau de politiek moet de regie houden.

[0:22:47] Daar waar u zegt, we willen dat via wetgeving reguleren, is het aan u.

[0:22:50] Waar u dat vrijlaat, moet de mens zoveel mogelijk vrij zijn,

[0:22:54] en organisaties ook, om zelf de regie te houden

[0:22:57] over hoe het systeem hen moet bedienen.

[0:23:01] En dan zit het weer in de aanbieders, wat zij programmeren,

[0:23:05] hoe je het kunt bedienen.

[0:23:06] En dan is het weer bij AI met hoog risico, verboden risico,

[0:23:09] dus moet je weer aan allerlei voorwaarden voldoen

[0:23:12] voordat het in gebruik kan worden genomen.

[0:23:14] Maar dit ligt ook wel een beetje aan de aanbiederskant,

[0:23:17] van hoe ruim wil je aanbieders bedienen in het maken van keuzes?

[0:23:22] En wij zijn er zeer voor dat die vrijheid zo groot mogelijk moet zijn,

[0:23:26] want de buitengrens is de wet en de buitengrens is

[0:23:28] dat systemen niet mogen discrimineren, niet mensen mogen uitsluiten, noem maar op.

[0:23:33] Dat zijn meer de buitengrenzen.

[0:23:34] En daarbinnen moeten systemen zo werken dat je zelf als mens

[0:23:37] of als organisatie de regie houdt over hoe dat systeem jou bedient.

[0:23:41] Als die keuzes die u noemt daarin zitten, dan zou dat op zich wel mooi zijn.

[0:23:47] Dan geef ik het woord aan de heer...

[0:23:49] Misschien nog een kleine aanvulling?

[0:23:51] Ik denk bekend, social sourcing is meteen al een verboden systeem.

[0:23:56] Om dat gewoon even te noemen.

[0:23:58] Dat gaat al imper 2 februari 2025, social sourcing, dat mag niet.

[0:24:05] hetzelfde bijvoorbeeld speelgoed wat aan kan zetten tot gevaarlijk gedrag, wat kan schieten of

[0:24:14] en wat ook een bepaald persoon kan identificeren. Dus dat soort zijn dingen die zitten al in die

[0:24:21] verboden AI-systemen en ook denk ik wel enige antwoord geven ook op uw vragen daar hierin.

[0:24:30] Misschien...

[0:24:31] Ja, het heet aanvullend, ik wil dat bekend veronderstellen, maar inderdaad, wat mevrouw Van Dijk terecht aanvult,

[0:24:36] in het AI-verhouding zitten er niet voor niks de verboden.

[0:24:39] Maar ik neem maar dat u redeneert binnen de verboden die er zijn.

[0:24:42] En dus, ik noem maar even, dat heet dan subliminale beïnvloeding, ik noem het zelf stiekem een beïnvloeding,

[0:24:48] dat is verboden.

[0:24:49] Malicious gedrag.

[0:24:50] Dus het systeem, de AI echt verbiedt bepaald gedrag, een bepaalde manier van verwerking of beïnvloeding,

[0:24:57] Maar daarbinnen, en wat mag, en wat legaal is,

[0:25:03] daar moet de gebruiker van het bedrijf maximale vrijheid houden en maximale vrijheid krijgen.

[0:25:11] Nou, dan ga ik het woord geven aan de heer Van Liesen van BVV voor zijn vraag.

[0:25:17] Ja, voorzitter, dank voor het woord.

[0:25:18] Ik had een vraag aan mevrouw Stroeve Kortland van DNN.

[0:25:29] Met betrekking tot, nou ja, het komt eigenlijk, het heeft een raakvlak,

[0:25:33] namelijk het is het zogenaamd hallucineren van die AI-systemen waar je dan dat soort antwoorden uit krijgt.

[0:25:38] En ter verduidelijking, die social sourcing waar aan gerefereerd werd,

[0:25:43] dat interpreteer ik als zijnde, het wordt gevoed op basis, die large language models,

[0:25:46] die worden dan gevoed op basis van wat er in de social media wordt geuit,

[0:25:50] en dat zal dan niet meer mogen.

[0:25:52] Ik neem aan dat dat de juiste interpretatie is, maar als dat niet is, dan corrigeer me gewoon.

[0:25:57] Maar de vraag die ik wil stellen is...

[0:25:59] er werd al wat genoemd over toepassingscontent.

[0:26:02] En daar komt een ander aan even bij kijken.

[0:26:03] Zou het dan wellicht handig zijn wanneer wordt gezegd...

[0:26:06] nou, weet je wat, wanneer men gebruik wil maken van AI...

[0:26:08] dan is het van belang, van cruciaal belang, eigenlijk van vitaal belang...

[0:26:12] om eerst te kijken, wat is de toepassing?

[0:26:15] En op basis daarvan te kijken...

[0:26:17] hoe gaan we dit large language model vullen met content?

[0:26:20] Om daar in ieder geval...

[0:26:21] want anders krijg je inderdaad dat je systeem gaat hallucineren.

[0:26:24] En ja, nou, ik kan me voorstellen tot fomentische toepassingen

[0:26:28] dat niet handig zou zijn.

[0:26:31] Mevrouw Stoffer, Kato.

[0:26:34] Nou, laat ik beginnen met te zeggen dat de verschillende toepassingen

[0:26:38] die worden genoemd in de AI-verordeningen in bijlage drie

[0:26:42] en zeg maar al die toepassingen die dan zouden kunnen gelden,

[0:26:45] daarvoor geldt hoog risico AI.

[0:26:47] En daar zijn dus ook die normen die nu ontwikkeld worden op Europees niveau,

[0:26:50] die gaan daarover.

[0:26:52] En daar zitten verschillende onderdelen in,

[0:26:54] waaronder dus risicomanagement, maar ook human oversight,

[0:26:59] logging, wat doet het systeem, wanneer en hoe wordt dat dan vastgelegd.

[0:27:03] Dus er zitten wel allerlei soorten van checks in,

[0:27:06] zodat je eigenlijk wil proberen dat die systemen

[0:27:08] en zo waarheidsgetrouw zo goed mogelijk antwoord geven.

[0:27:12] En ik heb begrepen, maar ik ben dus geen inhoudelijk expert,

[0:27:15] dat hallucinaties bijna niet uit te roeien vallen.

[0:27:18] Maar daar kunnen inhoudelijke AI-experts meer over zeggen.

[0:27:24] Dan geef ik het woord aan de heer Siks Dijkstra van Nieuw Sociaal Contract.

[0:27:28] Dank u wel voorzitter en ook dank aan iedereen voor hun komst.

[0:27:31] Ik heb een vraag aan de heer Wolfsen.

[0:27:34] Dat gaat over risicoprofileringsalgoritmes.

[0:27:40] In het verleden is meermaals voorgekomen dat die algoritmes bij de overheid werden ingezet...

[0:27:44] en dat ze achteraf bleken te discrimineren.

[0:27:46] Ook een citaat van de heer Wolfsen zelf.

[0:27:48] Afgelopen zomer bij zo'n beetje elke tegel die we lichten...

[0:27:51] we discriminerende algoritme bij de overheid.

[0:27:55] En nu specifiek als het gaat om de AI-verordening.

[0:27:58] Klopt het ten eerste dat de klassieke, meer regelgebaseerde algoritmes,

[0:28:06] zoals bijvoorbeeld het duo-algoritme, niet onder de AI-verordening vallen?

[0:28:10] En daarmee ook niet op die manier gereguleerd kunnen worden?

[0:28:13] En zo ja, wat zouden we met dat hijaat moeten doen?

[0:28:17] De heer Wolsen.

[0:28:19] Ik kijk even naar de hulptroepen op de tribune.

[0:28:22] Ja, precies. Daarom doe ik het ook precies, inderdaad.

[0:28:26] Dat ligt eraan. Dat is makkelijk als een beetje...

[0:28:29] En ik denk uit mijn hoofd, maar ik kijk gelijk even naar de assistenten op de tribune...

[0:28:33] dat een puur regel gebaseerd zoals DUO, dat is heel simpel wel of niet...

[0:28:38] er zitten gewoon criteria en geprogrammeerd, mbo-student, hoog risico...

[0:28:42] en dan, u kent de criteria waarschijnlijk.

[0:28:44] Dat is een heel relatief simpel algoritme.

[0:28:50] Dat valt sowieso niet onder hoog risico, denk ik.

[0:28:53] Op grensgeval, ik denk dat je moet gaan kijken hoe het werkt, of het kwalificeert als hoog risico.

[0:28:58] Laat ik de handen dan iets meer vrijhouden.

[0:29:02] Maar het kan wel zo zijn, dat ook al gebruik je een algoritme en design je een algoritme,

[0:29:07] wat helemaal AI-approved is, dat het in de praktijk, als het ingezet wordt,

[0:29:13] dat 100 procent tot onrechtmatige verwerkingen kan leiden.

[0:29:19] Dus als iets AI-act-proof is, wil het niet zeggen,

[0:29:23] zodra het in de grondrechtensfeer komt,

[0:29:25] dat er niet onrechtmatig of discriminatorisch mee kan worden verwerken.

[0:29:30] Daarom zijn het zo onlosmakelijk met elkaar verbonden gebieden.

[0:29:36] Dat het ook daarom goed is dat we onderling afstemmen.

[0:29:38] Nou, er werd ook gevraagd van normen uitleg, past dat op dezelfde manier toe?

[0:29:43] Dat je van tevoren ook ondernemers of instellingen niet voor de gek houdt en zegt...

[0:29:46] ...nou, dat is een fantastisch AI-product, koop het, want AI-approve.

[0:29:51] Maar ga je het inzetten, dan leidt het toch tot onrechtmatigheid.

[0:29:54] Dan zeg je, ja, maar ik heb het toch getest.

[0:29:56] En dat moeten wij als toezethouders heel goed onderling afstemmen, is het AI-approve.

[0:30:02] Maar vervolgens, hoe ga je het inzetten en kun je het dan ook zo inzetten?

[0:30:05] En die sandbox bijvoorbeeld kan er ook wurfzaam bij zijn.

[0:30:10] Want dan kun je in de praktijk zo'n algoritme testen van wat doet het,

[0:30:13] hoe werkt het, wat bent u er mee van plan

[0:30:16] en kan het ook in de feitelijk inzet goed worden gebruikt.

[0:30:19] Dus het zijn algemene open normen en daarom is het ontzettend goed.

[0:30:23] En dat begrijpen we ook heel goed van de VNO en van andere partijen die zeggen,

[0:30:26] als toezichthouder stem goed af, maar daar hebben we het SIT juist voor

[0:30:28] en die Kamers om dezelfde niet alleen te coördineren,

[0:30:32] geen gaten, geen overlap, maar ook die normen het leg uniform te doen.

[0:30:35] Dat is ontzettend belangrijk.

[0:30:38] Dank u wel. Mag ik daar iets kleins aan toevoegen?

[0:30:43] Het is niet zo dat de AI-act de enige regelgeving is die het reguleert.

[0:30:48] Het klopt, het valt buiten de definitie.

[0:30:50] Als het puur door mensen, dus de if-then-else, waar we vroeger ooit zelf ook mee hebben geredeld.

[0:30:56] Die vallen dan buiten de AI-act, maar dan valt het nog onder heel veel andere bestaande wet- en regelgeving.

[0:31:02] Er is ook een juridische verkenning van de Universiteit Utrecht die dat destijds ook helemaal heeft onderzocht.

[0:31:06] welke gaps er zijn. En er waren eigenlijk heel weinig gaps, maar met EIAJKT hebben we de hoog

[0:31:10] risico systemen nog wat extra gewaarborgd. Dus het valt niet in een zwart gat, dat wilde ik alleen

[0:31:15] maar even zeggen. Dank u wel voor uw aanvulling. Dan geef ik het woord aan mevrouw Kapman van GroenLinks

[0:31:21] PvdA voor haar vraag. Ja, dank u voorzitter. Ik heb een vraag aan het College voor de Rechten van de

[0:31:26] Mensen, heer Hoege Dijkhoff, en ook eigenlijk wel aan de AP, de heer Wolfsen, want beide geven eigenlijk

[0:31:32] aan dat er voor adequaat toezicht te weinig budget is.

[0:31:36] Mijn vraag is wat daar de consequenties van zijn.

[0:31:40] Vaak betekent dat, we hebben dat namelijk ook op andere terreinen, dat er geprioriteerd

[0:31:44] zal moeten worden.

[0:31:45] Dat vraag ik me af, wat zijn de consequenties en hoe gaat u prioriteren?

[0:31:51] Wat moeten we ervoor uittrekken om adequaat toezicht te organiseren?

[0:31:57] Dank u wel, de heer Hoegendijkhoff.

[0:32:03] Ja, die vraag begrijp ik heel goed.

[0:32:05] Dat is ook een grote zorg die bij ons leeft op dit moment.

[0:32:08] Ik denk wat ik hier met name zou willen zeggen...

[0:32:10] is dat de nieuwe taken die onder AI-voeding dan erbij komen...

[0:32:14] voor alle partijen hier aan tafel niet licht moeten worden opgevat.

[0:32:18] Het is niet iets wat je er even bij doet...

[0:32:20] omdat AI zoveel verschillende verschijningsvorming heeft...

[0:32:23] zoveel verschillende risico's die erbij spelen...

[0:32:27] naast alle voordelen die het straks kan bieden.

[0:32:33] Een deel van het risico is bijvoorbeeld als wij vraagstukken rondom AI-algoritmes slechts

[0:32:41] gaan reduceren tot vraagstukken over gegevensbescherming en privacy, of over vraagstukken over gelijke

[0:32:47] behandeling en discriminatie, omdat het om veel meer fundamentele rechten kan gaan.

[0:32:53] Daarnaast zijn die twee wel de belangrijkste, omdat ze een voorportale zijn voor ook het

[0:32:58] kunnen genieten van sociale en economische rechten, bijvoorbeeld.

[0:33:01] Dus op het moment dat dat niet afdoende kan worden ingericht bij de toestandhouder, zitten

[0:33:05] wij in feite met een niet-uitvoerbare taak.

[0:33:10] En ik denk dat het verleden wel heeft uitgewezen dat die verantwoordelijkheid neerleggen bij

[0:33:15] de samenleving en alleen bij de bedrijven zelf, of organisaties, niet afdoende is gebleken.

[0:33:23] Een individuele burger zijn rechten probeert te laten halen aan de hand van meldingen bij onze instituten.

[0:33:28] Het heeft niet doelvoorkomen dat er zaken zijn geweest zoals toeslagenaffaire of duo.

[0:33:32] Dat zijn toch ook met name onder andere maatschappelijk middenveldorganisaties geweest en andere toeschithouders.

[0:33:37] De wetenschap, die heb je daarbij nodig.

[0:33:40] Dus ik onderschrijf graag het pleidooi voor een heel integraal samenwerksverband.

[0:33:46] En ook dat kost inderdaad de nodige middelen helaas.

[0:33:52] Ja, voldoende middelen is fundamenteel.

[0:33:55] We hebben het ook in de paper benoemd, maar daar gaan we niet vandaag gelijk over het geld beginnen.

[0:33:58] Want eerlijk is eerlijk, op dit moment de gesprekken met economische zaken, dat loopt goed.

[0:34:02] We hebben dit jaar ook met de RDI dat denkboek dat ze zo mooi gezamenlijk optrekken.

[0:34:07] En we beiden zijn versterkt om voldoende voorbereidingen te kunnen treffen.

[0:34:11] Om nu zelfs al te kunnen beginnen met uitvragen bij bedrijven met twee verboden in de AIX.

[0:34:16] van, nou ja, we willen jullie graag guidance gaan geven, denk mee, hoe moeten we de wet uitleggen.

[0:34:22] Nou, zo'n deal, kwalificeer dat wel of niet onder die AI-acten, dat kunnen ze ons voorleggen.

[0:34:26] Dus we beginnen nu al met die normuitleg, nu al, daar krijgen we voldoende geld voor.

[0:34:31] Het lijkt erop, kijk nog weer naar de tribune, het lijkt erop dat het voor volgend jaar ook met EZK

[0:34:36] ook wel goed loopt, dat we voldoende allebei versterkt worden om die taken goed te kunnen opvullen.

[0:34:42] Maar we moeten allemaal goed worden versterkt om juist dat goed te kunnen genoemen.

[0:34:45] Maar het is ook daarom zo ontzettend belangrijk...

[0:34:47] Nou, u noemde net al de affaires die er in het verleden zijn geweest.

[0:34:52] Nu DUO toch is genoemd, de toeslagenaffaire, was één klacht.

[0:34:55] Iemand die aan de bel trok bij ons.

[0:34:57] DUO heeft tien, twaalf jaar algoritme gezoend.

[0:35:01] Het onderzoek van ons moet nog openbaar worden, maar ik durf hier wat te zeggen...

[0:35:04] ...omdat de minister er nodig over heeft gezegd, honderd procent discriminator.

[0:35:08] Niet één klacht, maar niet één klacht.

[0:35:11] En ook naar goedkijken is van DUO zelfs, er is nog niks aan de hand.

[0:35:14] Dus als je dan je laat sturen alleen maar door klachten of mensen die bij je komen,

[0:35:17] dan gaat het heel lang door.

[0:35:19] Dus we moeten veel meer aan de voorkant samenwerken, normen uitleg geven.

[0:35:25] Voorkomen is beter dan genezen.

[0:35:27] En als het ingezet wordt, dat we dan wat wij dan noemen Amtshalve,

[0:35:31] spontaan gaan kijken ook, werkt het goed?

[0:35:34] Want klachten zul je niet of nauwelijks over krijgen.

[0:35:36] Mensen weten gewoon niet wat daar gebeurt.

[0:35:38] En dat is ook heel belangrijk in de AI-actes, AI-geletterdheid.

[0:35:42] Dat kunt u ook het departement ook bevragen.

[0:35:45] Hoe zit het met uw AI-gelederdheid op departementen?

[0:35:48] Dat voorkomt ook dat we dat later moeten gaan ontdekken.

[0:35:51] En als we te weinig middelen hebben en we alleen maar reactief kunnen reageren,

[0:35:58] ja, dat is een bron van serieuze rampen.

[0:36:04] Dank u wel. Dan hebben we tijd voor een volgende ronde.

[0:36:07] Dan geef ik meneer Van Houwelingen weer het woord.

[0:36:11] Veel dank voor de antwoorden.

[0:36:12] Ja, ik zou graag, omdat het een grote zorg van mij is,

[0:36:14] ook een vervolgvraag op mijn eerste vraag willen stellen.

[0:36:17] Begrijp ik het nou goed, dat in principe die systemen volgens Europese richtlijnen,

[0:36:21] straks die AI-vordering, niet bewust misleidend mogen zijn?

[0:36:24] Dus als je die systemen hebt, en volgens mij zijn die daar al bijvoorbeeld van Google,

[0:36:27] die dus een correctie toevoegen om een antwoord politiek correct te maken,

[0:36:30] om bijvoorbeeld, als je dan moet kiezen einde van de wereld of misgenderen,

[0:36:33] dat je dat ding dan bewust kiest misgenderen,

[0:36:36] of ik heb het bijvoorbeeld van die Duitse soldaten al gegeven,

[0:36:37] wat een Afrikaanse vrouw wordt, dat dat eigenlijk dus straks niet mag.

[0:36:41] Zie ik het goed dat AI-systemen, bijvoorbeeld van Google, die dat dan doen, die correctie toepassen,

[0:36:46] dat die verboden gaan worden, omdat ze misleidend zijn?

[0:36:54] Om te beginnen, die systemen moeten transparant zijn, zodat je kunt zien wat er gebeurt.

[0:37:00] En ze mogen u niet stiekem, ik weet niet of dat een subliminale zegt, maar stiekem beïnvloeden.

[0:37:10] En wat er aan data en gegevens, in mijn terrein, wat er aan data en gegevens in zit,

[0:37:14] Dat moet ook eerlijk zijn, persoonsgegevens over mensen moeten juist zijn.

[0:37:19] Dus dat moet allemaal kloppen.

[0:37:22] En voor de rest, ja, waar u zelf toestemming voor geeft

[0:37:25] wat met uw dader gebeurt, dat gaat u zelf over.

[0:37:28] En dat manipulatieve, dat zit hem, denk ik, met name in dat wat mij...

[0:37:34] Dus het stiekem beïnvloeden, dat is verboden.

[0:37:37] En dan is er weer een volgende vraag.

[0:37:39] Vraag één is natuurlijk altijd, valt iets onder een AI-verordening of niet?

[0:37:44] Daar begint alles mee.

[0:37:45] En als het niet onder de AI-verordening vraagt,

[0:37:47] heb je allerlei andere wetten natuurlijk,

[0:37:48] wat de collega's ook al net zeiden,

[0:37:50] allerlei andere wetten waar je je natuurlijk ook aan moet houden.

[0:37:53] Een van de wetten is natuurlijk

[0:37:54] dat je niet mag discrimineren,

[0:37:56] geen onderscheid mag maken.

[0:37:58] Dus er zitten wel heel veel normen in,

[0:38:00] maar ik kom later bij u

[0:38:04] terug op hoe dat

[0:38:06] precies uitpakt in de praktijk.

[0:38:08] Ja? Ja, dank u.

[0:38:15] Nou, wat wel interessant is om te noemen,

[0:38:16] ...is dat dus juist het genereren van transparantie en informatie geven aan de gebruikers van AI-systemen...

[0:38:23] ...dat dat dus ook één van de normen is, dus de formele standardisatie waar nu aan gewerkt wordt.

[0:38:28] Dus één van de vertalingen in de praktijk is...

[0:38:30] ...als je die eisen hebt in de AI-Act, even ervan uitgaan dat het systeem daar onder valt...

[0:38:34] ...hoe kan ik dan als ontwikkelaar van zo'n systeem of als leverancier...

[0:38:39] ...gewoon zorgen dat het transparant is en dat het duidelijk is welke stappen er genomen worden?

[0:38:43] En aan die normen wordt dus momenteel gewerkt, op Europees niveau.

[0:38:48] En dat biedt hopelijk handvaten om dus de AI-act te vertalen naar de dagelijks praktijk.

[0:38:54] En ik zie ook mevrouw Tempelman.

[0:38:56] Als ik dat nog even toevoeg.

[0:38:58] Ja, er zijn heel veel verschillende wet- en regelgevingen zijn er van toepassing.

[0:39:00] En dat is voor jullie, denk ik, en voor mij ook al heel complex.

[0:39:04] Maar dus ook voor het bedrijfsleven.

[0:39:06] Dus daarom kan ik het niet beter nadrukken dan dat er eigenlijk wel een mapping gemaakt moet worden

[0:39:11] op een aantal use cases van welke wet en regelgeving is van toepassing

[0:39:14] en hoe ga je dat op een goede manier vormgeven in de praktijk.

[0:39:17] Waar we het nu net over hebben dark patterns,

[0:39:19] nou dat komt al in vijf verschillende soorten wet en regelgeving voor met verschillende definities.

[0:39:23] Nou vind ik die van de AI-act nog het meest prettig,

[0:39:25] omdat daar dan harm aangekoppeld is, dus dat maakt het al meteen duidelijk.

[0:39:28] Dus dan is de scheiding tussen wat is gewone reclame die we al kennen,

[0:39:32] dat is ook onbewuste beïnvloeding en het serie Mindfuck, om bijvoorbeeld maar iets te noemen,

[0:39:36] en het verschil tussen wat vinden we echt ontoelaadbaar.

[0:39:39] Dus ik denk dat dit heel erg goed benadrukt.

[0:39:42] Er zijn heel veel regels van toepassing, vaak op dezelfde dingen die we noemen.

[0:39:48] Misleiding bijvoorbeeld, consumentenmisleiding, daarvoor heb je de hele consumentenwetgeving

[0:39:52] ook al nog van toepassing.

[0:39:54] Om daar het begrijpelijk te maken van organisaties, niet alleen bedrijven, van hoe ga ik dit nu

[0:40:00] praktisch verdisconteren in mijn praktijk, daar zullen we wel met z'n allen handen in

[0:40:07] moeten slaan en ook de overheid voor nodig hebben om dat te doen.

[0:40:12] Dank u wel. Dan geef ik nu het woord aan de heer Fallies voor zijn vraag.

[0:40:18] Ja, voorzitter, dank voor het woord.

[0:40:21] Ik zit nog even de broeder op te vragen.

[0:40:22] Ik weet niet hoe ik hem precies het beste kan stellen.

[0:40:24] Het is wel aan de heer Wolfsen gegeefd, maar ongetwijfeld op Tempelmandag ook

[0:40:27] een mening overheeft, want het betreft natuurlijk wel MKB.

[0:40:30] Dat heeft meer te maken met die regulatory sandboxes.

[0:40:34] Of u daar een beetje een toelichting kunt geven?

[0:40:35] Wat wij voor beeld erbij moeten hebben?

[0:40:37] Heeft u daar het idee van, we creëren een large language model,

[0:40:41] we zitten gewoon echt alles in en kunnen bedrijven onbeperkt mee

[0:40:45] binnen die sandbox mee stoeien en kijken of wat zij willen bereiken,

[0:40:48] of dat daar uitgehaald kan worden?

[0:40:50] Of is het meer iets van, ja, we willen eigenlijk alleen de algoritme

[0:40:53] die men wil gaan inzetten, toetsen op basis van wat is toegestaan,

[0:40:57] al dan niet?

[0:40:59] Meneer Wolsen.

[0:41:01] Even los van techniek, wat de huidselijke samenvatting zegt, maar even,

[0:41:05] Stel je voor, een bedrijf heeft een nieuwe programmeur ontwikkeld

[0:41:08] en wil het gaan inzetten voor een bepaald doel,

[0:41:09] door risicotaxatie of productontwikkeling, het maakt niet uit wat.

[0:41:13] Dan kun je je afvragen, ja, kwalificeert het onder de AI?

[0:41:18] Zou dit mogen, zeg ik even voor het huiselijk?

[0:41:20] En dan is het mogelijk dat je zegt, nou, oké, kom dan bij ons

[0:41:25] en laten we het in de praktijk gaan testen.

[0:41:27] Wat wil je ermee gaan doen? We gaan het bekijken, laat het werken.

[0:41:31] Het is niet zo, om misverstanden te voorkomen,

[0:41:33] omdat je zo'n sandbox kunt gebruiken om de wet te ontduiken.

[0:41:37] Of om te zeggen, nou, hoe kunnen we in strijd met de wet

[0:41:41] toch dit soort dingen gaan inzetten? Nee, je test eigenlijk in de praktijk

[0:41:44] of dit systeem in het feitelijke gebruik rechtmatig gebruikt kan worden

[0:41:51] voordat het daadwerkelijk in gebruik wordt genomen.

[0:41:54] Dus er is eigenlijk een soort voorfase,

[0:41:56] en in de financiële wereld zit die hier vandaag niet bij,

[0:41:58] maar die is er wel gebruikelijk,

[0:41:59] dat je dan ook met toezichthouders, schoonhouders gaat kijken,

[0:42:02] nou, laat eens zien hoe het werkt.

[0:42:03] Je stopt de data in, je bekijkt het, je beoordeelt dat

[0:42:06] en je kijkt of het straks ook rechtmatig gebruikt kan worden

[0:42:10] en dus ook rechtmatig verkocht kan worden.

[0:42:12] Dat creëert enorm een rechtszekerheid voor bedrijven,

[0:42:14] want dan weet je, het komt op de markt

[0:42:16] en zoals ik er wil gaan inzetten, dat klopt ook.

[0:42:18] En dan kom je met de vraag van de six days, waarbij ik al zei,

[0:42:22] ja, iets kan in de praktijk rechtmatig zijn onder de AI-act,

[0:42:25] maar in feitelijke gebruik toch leiden tot onrechtmatigheid.

[0:42:29] En dat kun je in zo'n omgeving ook samen testen.

[0:42:32] Maar het kan niet leiden tot illegaliteiten of tot het opzij zetten van de wet.

[0:42:40] Ja, mevrouw Thelm.

[0:42:45] Ik wil een kleine nuanceering aanbrengen.

[0:42:47] Zoals die nu is ingeregeld, inderdaad, is die mogelijkheid er niet.

[0:42:50] Wij hebben er wel voor geroet, moet ik eerlijk zeggen.

[0:42:53] Maar niet om iets te mogen doen wat niet mag.

[0:42:55] Maar om te kijken of de AI-act in tijd, dat is de agility die ik net al noemde.

[0:42:59] Want de ontwikkelingen gaan snel, dat hebben we natuurlijk al gezien.

[0:43:01] En uberhaupt met dat hele proces bij de EIA-act, opeens kwamen die large language models en

[0:43:05] toen kon het Europees Parlement er nog van alles mee doen en de rest stond al zo'n beetje

[0:43:09] vast.

[0:43:09] Nou, dat hele proces.

[0:43:11] Maar om die agility erin te houden, zou je af en toe wel moeten kunnen kijken van, klopt

[0:43:15] het nog wat in de regelgeving staat?

[0:43:17] Alleen al om, want we hebben er wel gelukkig op Europees niveau voor kunnen zorgen dat er

[0:43:22] veel in bijlagen staat die je makkelijker kan aanpassen dan de wettex zelf.

[0:43:27] Bijvoorbeeld, wat hoog risico is, is dat nog hoog risico?

[0:43:30] Of zijn er al risicosystemen die we nog niet hebben benoemd?

[0:43:33] Nou, daar hadden we wel voor geroet, zeg maar, die ruimte.

[0:43:38] Klopt, en dat is natuurlijk ook meteen het vraagstuk.

[0:43:41] Het is een dynamische ontwikkeling, dat zal ook blijven.

[0:43:43] Dus daar zullen we ook iedere keer, juist ook in die sandboxes,

[0:43:46] we moeten ook gaan verkennen, waar zitten die grenzen,

[0:43:49] en weer aanpassingen doen, ook wellicht op normen.

[0:43:54] Dus dat zijn ontwikkelingen die zullen blijven.

[0:43:57] Het is toch een soort van ronde tafel.

[0:43:59] Dat is ook het mooie van die sandbox, denken wij althans.

[0:44:02] Omdat daar kun je op dingen stuiten waarvan je zegt, ja, formule is verboden.

[0:44:06] Maar het is eigenlijk niet heel gevaarlijk wat hier gebeurt.

[0:44:09] Dus laten we de wetgever voorstellen om wetgeving te tweaken,

[0:44:12] zodanig te tweaken dat dit wel, of aan te passen als excuus,

[0:44:15] dat het hier wel binnenvalt, zeg maar.

[0:44:17] Dus dat kan ook weer inspirerend zijn voor u.

[0:44:20] Of dat u veel bewuster toch een streep kunt zetten en zeggen,

[0:44:23] nou, dat willen we toch echt niet.

[0:44:25] Dus het is een mooie samenverkenning, tot misschien ook tot aanpassing van normen.

[0:44:31] Ja, dank u wel. Dan geef ik het woord aan de heer Siks-Dijstra.

[0:44:34] Wederom dank, voorzitter. Ik heb een vraag aan de toezichthouders.

[0:44:38] Dan moet mevrouw Van Dijk of meneer Wolfsen zelf maar even kijken wie zich het meest genegen voelt om te antwoorden.

[0:44:43] Want dat gaat over de transparantieverplichting die in de AI-Act is vastgelegd voor specifiek trainingsdata.

[0:44:50] Veel traditionele nieuwsmedia in Nederland hebben er best wel veel last van dat de artikelen

[0:44:55] die zij publiceren in het verleden illegaal zijn gescraped door large language models

[0:45:01] uit Amerika, zoals bijvoorbeeld ChatGPT, en die dan vaak weer in onbetrouwbare vorm worden

[0:45:07] teruggestuwd aan gebruikers, waar zij dan ook geen enkele vergoeding voor ontvangen,

[0:45:13] op geen enkele manier toestemming voor hebben gegeven dat die data op die manier gebruikt

[0:45:16] mag worden.

[0:45:17] Maar dat gebeurt wel en er is tot de AI-Act ook nooit serieuze handhaving op geweest.

[0:45:24] Dus eigenlijk mijn vraag is, hoe zien de toezichthouders die transparantieverplichting in de praktijk?

[0:45:31] Ik ga verwijzen, want we hebben in ons toezichtstructuur bedacht dat de transparantieverplichting,

[0:45:39] ik heb net iets gezegd over domein en sector specifiek, dat daar ook het toezicht neergelegd moet worden.

[0:45:46] Maar ten aanzien van de transparantieverplichting

[0:45:48] hebben we eigenlijk met elkaar geconcludeerd

[0:45:51] dat het goed is om daar een coördinerende toezichthouder op te hebben.

[0:45:55] Dat geeft ook rechtszekerheid aan een ieder.

[0:45:59] En die hebben we in ieder geval in ons advies,

[0:46:02] daar moeten de ministers en staatssecretaris van Middellandse Zaken

[0:46:06] natuurlijk ook nog wat van vinden, hebben we dat neergelegd bij AP.

[0:46:10] Dus ik denk, Alijt, dat het goed is als jij deze dan ontpakt.

[0:46:13] Ja. En daarvan is de bedoeling, omdat Jan in dat SIT-verband,

[0:46:19] waar ook de commissariaat van de media bijvoorbeeld in zit,

[0:46:22] om dat samen daar te bespreken, en de ACM ook,

[0:46:24] want het kan gaan om persoonsgegevens, maar het kan ook gaan op intellectueel eigendom.

[0:46:30] Dus ja, dan moet je daar afstemmen wanneer voldoen je wel of niet voldoende,

[0:46:36] op basis van de normen voor de afzonderlijke sector, aan die transparantie.

[0:46:40] Maar de transparantie, dat is, denk ik, een van de mooie dingen

[0:46:44] uit de nieuwe wetgeving ook, dat alles begint met transparantie.

[0:46:47] Je weet hoe wordt het verwerkt.

[0:46:49] En als het transparant is, kun je ook zien waar het vandaan komt.

[0:46:53] Kun je ook zien of er intellectuele eigendom mee wordt geschonden, ja of nee.

[0:46:57] En dan is het niet onmiddellijk, denk ik, aan ons weer

[0:46:59] bij journalistieke producten om te handhaven,

[0:47:02] want het zit weer buiten onze scoop als coördinerend toezithouder.

[0:47:06] Maar wij vinden het wel samen onze taak

[0:47:08] dan één van de toezichthouders dat daar dan oppakt.

[0:47:11] Vandaar ons credo ook altijd geen gaten, geen overlap.

[0:47:15] En dat als die toezichthouder daar naartoe gaat

[0:47:16] en met die bedrijven in gesprek gaat, dat hij ook de normen hanteert

[0:47:20] zoals wij die gezamenlijk uitleggen.

[0:47:23] En dat creëert ook weer transparantie omgekeerd naar die bedrijven toe,

[0:47:26] omdat ze weten wat kan en wat kan niet.

[0:47:28] GESPREKSLEIDERAAR. Ik zie dat meneer Hoegendijk op.

[0:47:36] Ja, dus de AI-verordening heeft het met name over technische transparantie.

[0:47:42] Dat wil ik gaan benadrukken.

[0:47:43] Dus in feite de vermelding is het aan een i-systeem of niet.

[0:47:47] Wij hebben afgelopen jaar ook een advies gegeven in het kader van transparantie en uitlegbaarheid.

[0:47:53] Want er in feite gewoon verschillende begrippen zijn.

[0:47:54] Dus technische transparantie, er zal gewoon een burger bijvoorbeeld natuurlijk mee geholpen zijn.

[0:47:58] De wetenschapsjournalist daarentegen wel.

[0:48:00] Die kan misschien wel iets met een bronkolen.

[0:48:02] Maar het vereist in feite ook goed kunnen uitleggen wat het systeem doet.

[0:48:06] En ik denk dat dat nog steeds wel, nou ja, het is eerlijk gezegd al aangehaald door mijn buurvrouw over dat er verschillende vormen van risicobeheer zijn waaronder het menselijk toezicht.

[0:48:16] Dus dat er iemand bij het systeem mee kan kijken, het systeem er kan uitleggen.

[0:48:20] Nou ja, dat zijn ook vereisten die erin zitten, maar dat is wel een hele andere vorm van transparantie.

[0:48:25] Dus in Nederland op dit moment, ik meen voor de zomer, ik durf de laatste stand van zaken niet te zeggen,

[0:48:29] maar is er een herziening van de AWB in consultatie gegaan.

[0:48:33] Daar heeft het college voor het recht van de mens eerder ook input voor gegeven.

[0:48:36] En een deel van de herziening zag dus ook op die adviezen die wij hierover hebben gegeven.

[0:48:42] Onder andere ook de argumentatie die kan worden gebruikt, intellectueel eigendom werd genoemd.

[0:48:48] Nou ja, dat bijvoorbeeld overheidsorganisaties zich niet zomaar kunnen schuilen achter de AI systeem aanbieder.

[0:48:55] Kan zijn bronco niet openbaar maken, dus wij kunnen dat niet doen.

[0:48:59] Dan moet een overheidsinstantie niet mee in zee willen gaan, neem ik aan met zo'n partij.

[0:49:01] En gaming the system is een ander argument dat vaak wordt gebruikt.

[0:49:05] Als ik teveel uitleg hoe het systeem werkt, dus mensen die kwaad willen of die willen frauderen,

[0:49:10] die kunnen dan daar misbruik van maken.

[0:49:12] Dat is een iets valider argument, maar daar kun je nog steeds wel tot een bepaalde hoogte uitleg geven

[0:49:18] met wat voor e-systeem je te maken hebt en wat je hebt.

[0:49:20] En dat zou een aanvulling zijn, of in ieder geval laat ik het anders zeggen,

[0:49:23] dat zou iets zijn waar Ivor niet per se een heel duidelijke handvat voor geeft.

[0:49:27] Maar ik denk dat we dat in Nederland wel kunnen regelen.

[0:49:32] Ik mag een kleine toevoeging doen over de copyright.

[0:49:35] Ten aanzien van die LLM-systeem is op het laatste moment wel toegevoegd dat er transparantie

[0:49:39] in de keten moet zijn, bijvoorbeeld over copyright die je hebt gebruikt en dergelijke.

[0:49:44] Alleen, daar hangt heel goed, en dat hoorde ik Alijt ook zeggen, heel nauw mee samen, hoe

[0:49:48] de IP-rechten zijn geregeld.

[0:49:50] Dat zijn niet eens op Europees niveau, maar zelfs op internationaal niveau geregeld.

[0:49:55] Op de Europese richtlijn heb je de tax and data mining.

[0:49:58] Daar is de doctrine nog niet over uit hoe dat precies ingevuld moet worden.

[0:50:03] Dus dat hangt er heel nauw mee samen waar je dan vervolgens op welke manier transparant moet zijn.

[0:50:09] Omdat dat in de hele discussie gaat over op welke elektronische manier je je rechten moet voorbehouden.

[0:50:17] En moet je het al hebben voorbehouden in het verleden.

[0:50:19] Nou goed, als die discussie is geslecht, dan kunnen we de transparantie ook veel meer over zeggen.

[0:50:25] Maar dat zijn dingen die heel nauw aanschurken tegen IP-rechten, ja.

[0:50:28] Dus daar heb je die samenwerking al heel hard nodig.

[0:50:32] Ja, dank u wel. Dan geef ik het woord aan mevrouw Katman.

[0:50:35] Dank u, voorzitter. Ik heb eigenlijk een vervolgvraag...

[0:50:37] op de vraag van de heer Siks-Dijkstra aan de toezichthouders.

[0:50:40] En ik hoop eigenlijk dat zij optimistischer zijn dan ik.

[0:50:43] Want bij mij ging het een beetje de pet te boven...

[0:50:46] van hoe we nou op die trainingsdata goed toezicht zouden kunnen organiseren.

[0:50:53] Want los van dat je die transparantie hebt...

[0:50:55] Kan het soms ook gewoon helemaal onwenselijk zijn dat het erin is, dat het gebruikt is?

[0:51:00] Nou, we weten allemaal, je knipt het er niet zo uit.

[0:51:02] Nou, dan halen we die trainingsdata eventjes los.

[0:51:06] Hoe doen we dat? Hoe gaan we daar dan mee om?

[0:51:09] Hebben we er, hebben we genoeg handvatten om dat toezicht echt goed te doen?

[0:51:14] En welke sancties horen daarbij? En hoe gaat dat er in de praktijk uitzien?

[0:51:20] De heer Wolffsen.

[0:51:21] Ja, u ziet mij voorzichtig naar de microfoon gaan, inderdaad.

[0:51:23] Want we zijn op Europees niveau met de toezichthouders bezig om...

[0:51:27] Scraping is daar bijvoorbeeld, hè? Scraping, is dat rechtmatig?

[0:51:31] Ja of nee? Ik laat het antwoord nog even in het midden,

[0:51:33] omdat we op Europees niveau met de toezichthouders mee bezig zijn

[0:51:36] wanneer zou het wel en wanneer zou het niet kunnen.

[0:51:38] Dat is één.

[0:51:40] En ten tweede moet je natuurlijk altijd, als je zo'n systeem ontwikkelt,

[0:51:43] moet je ook daar transparant over zijn.

[0:51:46] Hoe is het getraind?

[0:51:49] Dat moet ook helder zijn.

[0:51:51] Anders kun je zo'n systeem ook niet goed beoordelen,

[0:51:54] want het kan getraind zijn met data die leiden,

[0:51:56] ik ben nu ook weer even somber als u misschien,

[0:51:59] tot allerlei discriminatore uitkomsten.

[0:52:01] Dat moet niet kunnen.

[0:52:04] En het toezicht, dat is één van de grote opgaven voor ons,

[0:52:07] omdat vanaf het begin van de training tot het eind goed te kunnen beoordelen.

[0:52:11] Maar daarom zijn ook die eisen best wel stevig,

[0:52:13] dat voordat je dit soort systemen in gebruik kunt gaan nemen,

[0:52:16] je aan allerlei voorwaarden moet gaan voldoen

[0:52:18] en er intern ook toezicht op moet worden gehouden.

[0:52:21] En u, ik zeg het even als Kamerleden,

[0:52:23] hoe als het op departementen gebruikt gaat worden,

[0:52:25] door kunt vragen hoe is het getraind.

[0:52:28] En geen inzage geven is natuurlijk geen antwoord.

[0:52:32] Of kunnen we niet, of ze het intellect willen eigenen om op...

[0:52:34] Dat zijn natuurlijk geen antwoorden.

[0:52:35] U kunt alles weten en u kunt overal bij,

[0:52:38] desnoods in de beslotenheid, in een soort gesloten vorm.

[0:52:41] U moet dat goed kunnen controleren.

[0:52:43] Als het in het overheidsland wordt gebruikt,

[0:52:45] moet u kraakhelder uitgelegd krijgen hoe het getraind is en waar het vandaan komt.

[0:52:50] En als dat niet aan voldaan kan worden, maar dan haal ik het even terug naar de AVG,

[0:52:55] dan voldoe je dus niet aan je trans...

[0:52:59] Aan je openbaarheidsverplichting, zeg maar, aan je verantwoordingsplicht.

[0:53:02] Dat zocht ik, aan je verantwoordingsplicht.

[0:53:04] Als je daar niet aan kunt voldoen, van hoe werkt het,

[0:53:08] dan wordt het in zichzelf al onrechtmatig.

[0:53:13] Dus maak het niet makkelijker.

[0:53:18] Maar theoretisch is het goed geregeld.

[0:53:21] Maar in de praktijk... Ik moet niet even somber zijn als u, denk ik.

[0:53:24] Ik moet als toezichthouder optimistisch blijven.

[0:53:26] Maar het is wel een grote klus, denk ik, voor ons samen.

[0:53:29] Ik geef het woord even aan mevrouw Tempelman.

[0:53:31] Ja. Nee, het is zeker een grote klus.

[0:53:32] Maar ik denk dat we ook de fine-tuningfase hier niet bij over het hoofd moeten zien.

[0:53:35] Bij de UvA, bijvoorbeeld, wordt er heel veel onderzoek gedaan...

[0:53:38] om de betrouwbaarheid te verhogen.

[0:53:40] Toen ik de presentatie kreeg, zaten ze al op 80 procent.

[0:53:45] Dus die ontwikkelingen gaan ook steeds maar door.

[0:53:47] En dat is ook een manier om databases waar mogelijkerwijs dingen in zitten die toch niet

[0:53:53] correct blijken te zijn, want daar moet je ook achter zien te komen, om dat te corrigeren.

[0:53:57] Dus ik denk dat daar ook een hele goede slag zit om dat samen met elkaar, en dan ook zeker

[0:54:01] in allerlei testomgevingen, het liefst nog wat uitgebreider dan de mogelijkheden die

[0:54:05] er nu zijn, om daarmee aan de slag te gaan.

[0:54:08] En ook zeker geldt voor dat soort toegepast wetenschap beschikbaar te stellen als we het

[0:54:12] toch over middelen hebben.

[0:54:13] Dan wou ik die vraag ook nog eventjes neerleggen.

[0:54:18] Dus eens met al wat is gezegd, maar juist denk ik ook dat toezicht op die trainingsdata...

[0:54:23] Misschien heb je ook wel even nodig dat je even met verkeerde data leert werken.

[0:54:28] Wat doet dat dan?

[0:54:29] Maar dat moet je wel in een gereguleerde omgeving kunnen doen en daar moet je ook weer van leren.

[0:54:34] Dus dat is even toezicht.

[0:54:37] Het is natuurlijk wel zo dat op het moment dat iets op de markt gaat komen, we afspraken met elkaar hebben

[0:54:43] over standaardisering of over normen, dat het dient te voldoen.

[0:54:48] Maar ergens zullen we ook in dit veld een omgeving moeten hebben

[0:54:52] waarin je juist ook kan oefenen met data.

[0:54:57] En als je dat dan toepast, wat gebeurt er dan uiteindelijk

[0:54:59] en wat is dan een uitkomst om daarvan te leren?

[0:55:03] Dus dat pleid ik ook voor, om dat ook gezamenlijk te doen

[0:55:07] We doen het daarom ook in sandboxes, maar ook in dialoog met elkaar,

[0:55:14] met ingesprek, oefenen, data daarop delen,

[0:55:19] uitkomsten, wetenschap daarbij betrekken,

[0:55:22] om dat ook goed te kunnen volgen, dus...

[0:55:24] GESPREKSLEIDER DE JONGEREN DOOR ELKAAR

[0:55:25] Misschien een kleine geruststelling, en ook nog,

[0:55:29] zo moet het gaan werken, zoals we net beschrijven,

[0:55:33] maar mocht het in de sfeer komen dat het gebruikt wordt

[0:55:36] ...voor risicoselectie, waar de heer Siks-Dijkstra net naar vroeger...

[0:55:38] ...dat er systemen in worden gezet om mensen te selecteren...

[0:55:41] ...wie ga ik controleren en wie niet.

[0:55:44] En je zet daarvoor AI in, dan is er op dit moment de norm...

[0:55:48] ...als je niet goed kunt traceren, ik zeg het even weer met huiselijk...

[0:55:52] ...waarom je er bent uitgepikt om je te controleren...

[0:55:55] ...ja, dan is dat in zichzelf al onrechtmatig...

[0:55:58] ...want dan word je recht om je te verdedigen voor een rechterillusor.

[0:56:02] Want je moet kunnen zeggen, ik ben op die gronden eruit geselecteerd...

[0:56:05] Als een bestuurzagaan, noem ik het maar even,

[0:56:08] ik blijf weer met de overheidssfeer hier in de Kamer,

[0:56:11] niet kan zeggen waarom je eruitgepikt bent,

[0:56:14] ja, dat kun je niet verdedigen. Einde oefening.

[0:56:16] Dus dat is een soort negatieve bescherming.

[0:56:22] Burgers moeten nooit voor een rechter kunnen komen

[0:56:24] waarbij je een rechter niet vol en tot in detail kan toetsen,

[0:56:27] en wij natuurlijk ook, wij zitten daarvoor,

[0:56:29] waarom iemand eruit is gepikt om te controleren,

[0:56:32] als niet iedereen is gecontroleerd.

[0:56:37] Nou, dan is het met deze beantwoording inmiddels al tijd om te gaan afronden.

[0:56:44] En ik proef aan de leden dat er eigenlijk nog de hele week door gepraat zou kunnen worden wat dat betreft.

[0:56:50] Dat kennen we nu ook, ja.

[0:56:52] Ik wil alle gasten ontzettend bedanken voor hun bijdrage.

[0:56:57] De heer Wolsen, mevrouw Van Dijk, de heer Hoegen Dijkhoff, mevrouw Stoeve Korteland en mevrouw Tempelman.

[0:57:04] Heel hartelijk dank. De leden ook veel dank voor hun vragen.

[0:57:09] En voor alle kijkers en belangstellenden ook dank.

[0:57:13] En daarmee ga ik deze bijeenkomst besluiten.