Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.
Technische briefing door de Autoriteit Persoonsgegevens over het Jaarverslag 2025 en de Rapportage AI- en Algoritmerisico's Nederland (RAN)
[0:00:00] Dames en heren, van harte welkom bij de technische briefing van de vaste Kamercommissie voor Digitale Zaken en technische briefing van de autoriteit persoonsgegevens over het jaarverslag 2025 en de rapportage AI algoritme risico's Nederland.
[0:00:12] En ik heet allereerst onze gasten van harte welkom, de heer Wolfsen, mevrouw Murr en de heer Steverson.
[0:00:19] U mag zichzelf straks nog eventjes zelf voorstellen en dan kunt u een introductie doen.
[0:00:23] Ook aan de kant van de commissie van harte welkom en natuurlijk ook onze ondersteuning.
[0:00:29] We hebben een uur, dus laten we dat efficiënt en effectief gebruiken.
[0:00:33] Ik denk dat ik alvast eerst de heer Wolfsen mag aankijken voor het voorstellen en de introductie.
[0:00:41] Ja, meneer de voorzitter, dat schat u precies helemaal goed in, maar je bent natuurlijk voorzitter voor natuurlijk.
[0:00:45] En dank voor de uitnodiging.
[0:00:46] Fijn om hier weer te mogen zijn.
[0:00:47] Dat is altijd mooi dat we zien dat er belangstelling is vanuit de Tweede Kamer.
[0:00:51] voor ons werk.
[0:00:52] Er zijn twee onderwerpen.
[0:00:53] Dat is het ja-verslag.
[0:00:54] Daar zal ik zelf een paar woorden over zeggen.
[0:00:55] En Katja Meur, mede-bestuurslid, die zal met name over algoritme en AI wat gaan zeggen.
[0:01:00] Dat is eigenlijk een beetje de pièce de résistance van vandaag ook, denk ik.
[0:01:03] En Sven Stephenson, een van onze directeuren, die beantwoordt alle moeilijke vragen, zeg maar.
[0:01:07] Dus die waar we zelf helemaal niet meer uitkomen.
[0:01:10] Die weet heel veel en maakt daar vooral ook heel veel gebruik van.
[0:01:15] En dan het ja-verslag.
[0:01:16] Ik zal een paar toelichtende woorden, want ik ga ervan uit dat u dat, dat is namelijk al openbaar.
[0:01:19] Normaal zouden we het aanbieden,
[0:01:21] wettelijke termijnen, moet het aan justitie aanleveren, dus dat hebben we al openbaar moeten maken.
[0:01:25] Dus je hebt het wel kunnen lezen, dus daar zal ik verder niet al te veel qua cijfers en zo over zeggen, want je hebt natuurlijk onze wetsgevingstoetsen wat we allemaal gedaan hebben gezien, de onderzoeken die we gedaan hebben, klachten die we behandelen, vergunningen, data lekken, noem maar op, en heel veel voorlichting die we hebben gegeven.
[0:01:42] Het is soms in het jaarverslag wat lastig terug te vinden dat er wat minder producten zijn natuurlijk, maar ik heb er hier twee
[0:01:48] uitroeptekens achtergezet dat het zo belangrijk is voor ons en wat we er zoveel aan gedaan hebben.
[0:01:52] En ik hoop dat u, meneer de voorzitter, geachterleden net zo onder de indruk was van de inhoud van het jaarafslag wat onze mensen allemaal hebben gepresteerd afgelopen jaar, als wij ook altijd weer zijn, als wij het zelf lezen.
[0:02:03] Er wordt echt heel veel werk verzet en dat staat allemaal weergegeven in het jaarafslag.
[0:02:09] Ik dacht, omdat u het hebt gelezen, pak ik er een paar dingen uit waar misschien wat vragen over zijn, waar we ook al eerder met uw Kamer over hebben gesproken.
[0:02:16] En dat is eigenlijk alles wat met die evaluatie te maken heeft.
[0:02:18] We zijn natuurlijk geëvalueerd.
[0:02:20] Maar wat ook met de snelheid van de digitale ontwikkelingen te maken heeft en met het teken van verbinding zoeken met de buitenwereld.
[0:02:27] We waren vroeger wel eens een beetje gesloten in Oester.
[0:02:29] Heel lang geleden hoor.
[0:02:30] Dus we zoeken veel meer contact dan naar buiten.
[0:02:33] En dat traject zitten we nog steeds in.
[0:02:34] Dat is dus ook nodig, omdat die digitale ontwikkelingen zo ontzettend snel gaan.
[0:02:38] En mensen, bedrijven, instellingen, overheidsinstellingen ook een behoefte hebben aan onze uitleg
[0:02:43] toeleg, guidance, et cetera.
[0:02:45] Dus dat doen we veel meer.
[0:02:46] En dan staat het een beetje, ook in het ja-verslag, als je schuin doorheen kijkt, alles een beetje een teken van de algoritmes in AI, waarover straks meer.
[0:02:52] Vrijheid en veiligheid noemen we dat.
[0:02:54] Dus altijd die spannende dilemma's tussen opsporing, vervolging en de grondrechten van mensen, de vrijheidsrechten.
[0:03:01] Er zijn natuurlijk twee grondrechten.
[0:03:02] In het handvest staat een grondrecht op veiligheid, maar ook een grondrecht op privéleven.
[0:03:05] En dan moet je altijd een soort verdedigbare balans zoeken tussen die twee.
[0:03:07] Dat is altijd heel lastig manoeuvreren.
[0:03:11] Dus daar besteden we best veel tijd aan.
[0:03:13] Big tech, datahandel natuurlijk en alles wat te maken heeft met de digitale overheid.
[0:03:19] En dan naar de inhoud van nog ook weer een paar schuine lijnen dwars door het jaarverslag heen.
[0:03:27] Dat zijn eigenlijk de houding, wat ik al zei, dat we meer contact zoeken met die buitenwereld.
[0:03:30] Er is ook wat meer ruimte voor.
[0:03:32] En nogmaals, ik hoop dat u daar wat meer begrip voor hebt, dat bij justitie hebben we vaak nog wel eens discussies.
[0:03:37] Wat voor producten zijn het anders in de verantwoording?
[0:03:39] U geeft ons geld elk jaar.
[0:03:41] U bent uiteindelijk degene die over het geld gaat.
[0:03:43] Dus daar willen we ons ook over verantwoorden.
[0:03:45] Maar het is best heel lastig om in producten terug te halen wat je dan met het geld gedaan hebt als je heel veel voorlichting hebt gegeven.
[0:03:52] Dus ik zou graag willen dat u met dat oog ook het jaarverslag leest.
[0:03:57] We zoeken ook contact meer met die wetenschappelijke wereld.
[0:04:00] We gaan een wetenschappelijke raad rondom de AP inrichten, waar de experts in komen op het vakgebied van AI vanzelfsprekend, maar ook gedragswetenschappers.
[0:04:08] We zoeken veel meer contact met die wetenschappelijke wereld.
[0:04:10] Ook veel meer contact met de functionarissen en gegevensbescherming.
[0:04:14] Elke overheidsinstelling heeft daar één.
[0:04:15] en zeker met AI en algoritmes, die snel ontwikkeling zijn soms ook eenzame mensen in de zin van, dat bedoel ik positief trouwens hoor, dat je ook in een eentje soms moet zoeken, kan dit wel of kan het niet, hoe moeten we dit uitleggen, dus daar zoeken we zelf ook actief veel meer contact mee en voor het komende jaar, ook met de FG is dat alles een beetje een teken van massasurveillance, waar massaal mensen worden gevolgd of in de gaten worden gehouden, AI en de digitale weerbaarheid.
[0:04:39] Ik zag mevrouw Katman net binnenkomen, dat zal haar ook zeer aanspreken dat we daar nodig tijd aan besteden.
[0:04:45] Daarnaast, qua methode van werken hebben we in de vorige overleg ook wel nodig met u over gehad, dat we sneller willen werken, sneller contact, sneller uitleg, maar we willen ook sneller zaken afwikkelen.
[0:04:59] Sinds nu een of twee jaar doen we dat ook in de vorm van bijvoorbeeld schikkingen.
[0:05:02] Als de normen duidelijker zijn, heb je soms ook minder discussie met bedrijven.
[0:05:06] Kan dit wel of kan dit niet?
[0:05:07] Als je het samen eens bent over de norm en je ziet wat er fout gegaan is,
[0:05:11] Ja, waarom zou je dan boetes en rechtszaken en iets niet afdoen met een schikking bijvoorbeeld?
[0:05:15] Dat kan sneller, kunnen we ook korting geven, dat doen we meer.
[0:05:19] Bijvoorbeeld Experian, dat is een openbare zaak, niet al onze zaken zijn openbaar.
[0:05:23] Dat noemen we nog huiselijk een data-handelaar, die profielen maakte van mensen, die hebben een schikking meegetroffen van 2,7 miljoen omdat ze zeiden ja.
[0:05:31] We weten nu inmiddels ook dat het mag niet, dit kan niet.
[0:05:33] We stoppen ermee, we verniedigen die bestanden en we betalen een schikking van 2,7 miljoen.
[0:05:38] Dan is de zaak daarmee afgedaan.
[0:05:40] Hetzelfde geldt voor de KNLTB.
[0:05:42] Dat was een wat slepende rechtszaak.
[0:05:45] Maar ja, de KNLTB zei ook ja, we kunnen er lang of kort over spreken.
[0:05:47] Onder de streep is onrechtmatig wat wij hebben gedaan.
[0:05:50] Dit hadden wij natuurlijk met die ledenbestanden niet mogen doen.
[0:05:53] Hulde voor de KNWB, want daar hebben we ook een soort bondgenoten bij gekregen.
[0:05:56] Die hebben een schikking aan ons betaald.
[0:05:58] Afghaanse betalenden zijn we nu in afrikking, want die schikking hebben we al getroffen.
[0:06:02] En ze gaan ook in het kader daarvan voorlichting geven.
[0:06:04] Nou, hoe mooi wil je het hebben, hè?
[0:06:05] Dus echt wel een nieuwe bondgenoot erbij.
[0:06:07] Terwijl ze ook zeggen, wat we hebben gedaan, anders gekund, maar ook anders gemoeten.
[0:06:11] Dit was niet goed.
[0:06:13] Nou, recent, maar dat is een beetje over de jaarwisselingen, hebben we het ook met gemeenten gedaan.
[0:06:17] Die hadden heel veel onderzoeken gedaan.
[0:06:19] met name islamitische gemeenschappen, jaren geleden, in de tijd van de uitreizigers, allemaal te begrijpen natuurlijk, althans niet te rechtvaardigen, maar wel te snappen dat het gebeurd is.
[0:06:26] En die zeiden ook allemaal, al die tien gemeenten, dat had niet gemoeten, dit is fout, dit is onrechtmatig, hebben we ook een schikking meegetroffen, omdat de normen inmiddels natuurlijk dan duidelijk zijn.
[0:06:37] Dat pas in het kader van meer uitleg geven, omwille van de tijdslaag, dit even over.
[0:06:42] Politieke advertenties, een nieuwe verodering op het Europese gebied,
[0:06:46] Daar geven we ook veel uitleg over.
[0:06:48] Wel helaas ook de minister van BZK, was eigenlijk een tweede bondgenoot, die was ook prettig verrast op wat we daar allemaal aan doen en wat je wel of niet tijdens verkiezingscampagnes mag doen aan mensen targeten.
[0:06:58] Dat is een nieuwe taak van ons ook.
[0:07:01] We zoeken veel meer contact met brancheorganisaties, met de VNO-NCW bijvoorbeeld.
[0:07:04] Daar hebben we ook afgesproken dat we een paar keer per jaar met bedrijven die om tafel zitten, die worstelen met iets, geven we uitleg.
[0:07:10] Is nu ook al een bijeenkomst geweest, wordt zeer gewaardeerd.
[0:07:13] We bieden ook meer praktische hulpmiddelen aan.
[0:07:16] En ten slotte, we waarschuwen ook iets actiever.
[0:07:19] Als wij zien, er zullen straks denk ik wat meer voorbeelden van komen, als we zien dat er chats worden gebruikt, chatbots worden gebruikt in het kader van de verkiezingen nogmaals, of voor allerlei andere doeleinden, en je ziet dat het echt geen goede stemhulp is, dan zijn we ook wat actiever.
[0:07:32] Mensen, wees gewaarschuwd, gebruik dit niet als stemhulp, want dat werkt niet goed.
[0:07:38] Misschien straks nog wat vragen en wat meer toelichting over, maar dan waarschuwen we ook actief burgers bij het gebruik maken hiervan.
[0:07:44] Tweede lijstje is nog wat uitdagingen waar we tegen aan worstelen.
[0:07:47] Dat is toch in alle eerlijkheid de sterke toename van, dat klopt met de toename van de digitalisering, het aantal datalekken, dat stijgt best stevig.
[0:07:56] Vandaag kwam er een item over in het nieuws, toevallige samenloop moet ik eerlijk zeggen.
[0:08:00] De aantal klachten op wat we binnenkrijgen bij de AP, dat loopt echt op.
[0:08:07] Mensen vinden ons makkelijker en er gaat ook meer mis in bedrijven en bij overheidsinstellingen ook.
[0:08:12] Dus het is best wel een soort squeeze waar we in zitten.
[0:08:15] Toenemende lekken, toenemende klachten en het aantal mensen wat we daarvoor hebben.
[0:08:20] En dan zitten we vaak ook met de financiering van stukken.
[0:08:22] Kunnen we misschien straks wat meer over zeggen.
[0:08:23] Krijgen we nieuwe taken.
[0:08:24] Vaak lukt het wel om extra geld voor te krijgen.
[0:08:27] Ook voor de AIJ, de DSA, die politieke advertentie.
[0:08:31] Dat komt in de loop van het jaar opeens.
[0:08:32] En dat is vaak ook tijdelijk geld.
[0:08:34] Dat is ook een ding waar we wel een beetje een uitdaging... Ja, daar kun je weer geen structurele mensen van financieren.
[0:08:39] Wel tijdelijk kun je weer niet vast aannemen.
[0:08:41] Dat is ook iets waar we af en toe echt wel mee worstelen.
[0:08:45] En daarnaast zouden we ook heel graag wat meer willen doen, proberen we ook actief onderzoek.
[0:08:49] Voorkomen is beter dan genezen.
[0:08:51] Ik liep met Sven Stevenson hier net naartoe, had een gegeven over DUO, daar zaten we te praten.
[0:08:55] We hebben er laatst een brief over gehad, twee weken geleden heeft een algoritme tien jaar lang op een discriminatoren manier studenten gestructureerd voor onderzoek.
[0:09:02] We zeiden, als je zo'n algoritme bekijkt, hoef je geen groot geleerde voor te zijn om te zeggen, dat kan niet.
[0:09:08] Dus als je zo'n algoritme ontwikkelt, dan zouden we eigenlijk vooraf mee moeten kijken, kan dit wel of kan dat niet?
[0:09:14] Gaan we ook veel meer doen, maar het actieve ergens naartoe stappen, zonder dat er een klacht is.
[0:09:18] Overduur hadden wij bijvoorbeeld niet één klacht gekregen, niet één.
[0:09:22] En als ze journalisten niet hadden ontdekt, had het misschien nog wel gezond in Groningen.
[0:09:27] En het was niet uit kwaade bedoelingen, maar mensen waren zich van geen kwaad bewust dat men aan het discrimineren was.
[0:09:35] Dus dat.
[0:09:36] En dan kom ik bijna op een afronding.
[0:09:38] Wij werken ook veel meer samen op het Europees gebied natuurlijk, in de European Data Protection Board, waar we ook samen normuitleg doen.
[0:09:44] Dus in heel Europa wordt nog weleens gevraagd, is de AP nu strenger of milder dan andere autoriteiten, persoonsgegevens?
[0:09:50] Nee, we doen hetzelfde.
[0:09:51] Er wordt allemaal in Europa afgestemd, kost best veel tijd en energie, is ook veel overleg, maar in hele Europa hanteren we dezelfde normen.
[0:09:59] Landen wijken soms iets af, in Nederland bijvoorbeeld het zorggebied, dat mag, maar in de hoofdzaak zijn het dezelfde normen.
[0:10:06] Dat doen we ook in het samenwerkingsplatform voor digitale toezethouders, met een aantal andere toezethouders in Nederland stemmen we ook goed af, in het motto geen gaten, geen overlap in het toezicht, we doen gezamenlijk inmiddels accountgesprekken,
[0:10:19] En dan hebben we daar binnen, en dat is een mooi bruggetje naar Katja Meur, hebben we nu de twee kamers, de AI-kamer, die zit Katja Meur voor en Sven Stevensen is daar de echte motor, mag ik dat zeggen, toch wel, in die AI-kamer.
[0:10:34] Zo gaat dat met voorzitters, daar is Katja de voorzitter.
[0:10:37] Ja, en de DSA-kamer is de andere kamer onder die DST.
[0:10:44] Daar zit de ACM voor en daar zitten wij ook in.
[0:10:47] En er wordt ook alles afgestemd op griep van de DSA-werkzaamheden.
[0:10:52] En dat is, denk ik, meneer de voorzitter, een mooi bruggetje aan mijn collega Katjemer.
[0:10:55] Als u mij toestaat, geef ik dan het woord...
[0:10:58] Nee, dat doet u natuurlijk, maar geef ik het woord door aan haar.
[0:11:02] Dank voor deze toelichting op het jaarverslag.
[0:11:05] En dan gaan we naar mevrouw Meur voor een toelichting op de rapportage AI en algoritme risico's Nederland.
[0:11:11] Dank u wel, voorzitter.
[0:11:13] Algoritme en AI.
[0:11:14] Al enige jaren zijn we coördinerend algoritme toezichthouder en signaleren we risico's van de effecten en inzet van
[0:11:22] algoritmes en AI in de Nederlandse samenleving.
[0:11:25] En dan doen we sector en domein overstijgend.
[0:11:28] Daarnaast zijn we ook beoogd markttoezichthouder voor de nieuwe AI-verordening die afgelopen maandag in
[0:11:36] consultatie is gegaan en daar zijn we ook wel druk mee bezig.
[0:11:39] Mensen zijn ook gretig om uitleg van ons te krijgen.
[0:11:42] Dus zeg maar de congressen die we organiseren, nou die zitten binnen een of twee weken helemaal vol met mensen uit het bedrijfsleven, uit de overheid, NGO's, andere toezichthouders.
[0:11:52] Dus daar zijn we ook druk mee en dat vinden we hartstikke leuk om te gaan doen.
[0:11:56] Nog even terug naar de monitoring die we nu al doen in de rapportage die nu ook voor ligt.
[0:12:01] Die rapportage AI en algoritmes Nederland, dat doen we
[0:12:04] Twee keer per jaar.
[0:12:05] Dan steken we eigenlijk een beetje een barometer in de Nederlandse samenleving van hoe staan we daar nu voor?
[0:12:10] De ontwikkelingen en de trends, maar aan de andere kant ook de beheersingsmaatregelen.
[0:12:14] Zijn we daar een beetje op voorbereid?
[0:12:17] Want ja, hoe staan we daar nu eigenlijk voor in Nederland?
[0:12:21] Nou, in deze zesde editie, die we in maart hebben gepubliceerd, zien we dat de zogenaamde AI-barometer op meerdere fronten rood kleurt.
[0:12:32] Sommige punten zijn inmiddels iets minder rood geworden, maar andere punten juist dieper rood.
[0:12:37] En dat loop ik graag even met u langs.
[0:12:41] Het overkoepelende beeld dat we zien, is dat de ontwikkelingen razendsnel gaan en de regulering te traag gaat.
[0:12:48] Dat klinkt misschien als oud nieuws, maar we zien echt wel een versnelling in de opvolging van technologische ontwikkelingen, waardoor deze situatie steeds zorgelijker wordt.
[0:12:57] Ik zie ook Nick aan de overkant.
[0:13:00] We zien bijvoorbeeld dat de effecten van AI steeds onvoorspelbaarder worden.
[0:13:06] Ook vorige week waarschuwde het National Cyber Security Center over de gevolgen van Entropiq's AI-model Mythos, die razendsnel kwetsbaarheden kan opsporen in software.
[0:13:18] en daarmee een acuut beveiligingsrisico vormt voor veel organisaties.
[0:13:24] Volgens ons een typisch voorbeeld van een systeemrisico.
[0:13:28] Een risico dat een bedreiging vormt voor de maatschappij als geheel, dat zich vaak sluipenderwijs voltrekt, vaak onzichtbaar blijft, tot het plotseling wel zichtbaar wordt en dan ook te laat is.
[0:13:41] Haleid had het net ook al over.
[0:13:44] We hebben bijvoorbeeld ook een systeemrisico gezien bij de verkiezingen voor de gemeenteraad en de Tweede Kamer.
[0:13:49] stemadviezen voor chatbots waar toch een aardige bias in zit.
[0:13:54] Nou ja, dat is toch indirect, misschien niet voor één stem, maar in zijn totaliteit een bedreiging voor de democratie.
[0:14:01] Het is volgens ons daarom ontzettend belangrijk om heldere kaders en bevoegdheden te hebben om toezicht te kunnen houden op dit soort AI-systemen en de bredere maatschappelijke impact.
[0:14:12] Op dat punt kleurt de barometer inmiddels iets minder rood.
[0:14:16] We hebben een implementatiewet die nu voor ligt voor consultatie en we hebben ook gezien en met ook dank aan uw Kamer dat de ontwikkelingen rond de omnibus eigenlijk wel in essentie in de inhoud de goede kant op gaan.
[0:14:31] Dus dat is denk ik hoopgevend.
[0:14:38] We gaan kijken hoe dat uiteindelijk uitpakt.
[0:14:41] Toch moet ik eindigen met een punt van zorg.
[0:14:44] Als het gaat om de registratie en de transparantie van algoritmes en AI.
[0:14:49] Want we zien eigenlijk dat dat enorm achterblijft.
[0:14:52] Om maar een paar voorbeelden te noemen.
[0:14:54] Begin deze maand publiceerden wij een onderzoek, heeft ook veel aandacht gekregen,
[0:14:58] naar de inzet van scanauto's voor de parkeerhandhaving.
[0:15:03] Daarin vonden we honderdduizenden onterechte boetes door scanauto's die zijn uitgedeeld, onder meer aan mensen met een gehandicaptekaart.
[0:15:13] Maar de helft van die gemeenten, waar we naar hebben gekeken, had dit algoritme geregistreerd.
[0:15:18] Dus als je goed toezicht wil houden, moet je ook weten waar de algoritmes zitten.
[0:15:22] En dat is hier dus nog niet goed geregeld.
[0:15:25] Waar we specifiek in deze rapportage naar hebben gekeken, is ook werving en selectie.
[0:15:30] Niet voor niets een hoge risicokategorie.
[0:15:32] Krijgen ook alle mensen in Nederland op een bepaalde manier mee te maken.
[0:15:36] En daar kwamen we ook echt zorgelijke en ook soms echt, je zou denken, rare dingen tegen.
[0:15:42] Zo vonden we dat bij een vacature voor buschauffeurs kandidaten eerst een game moesten spelen waarin zij vissen en vogels spotten voordat ze de officiële procedure konden starten.
[0:15:55] Dus zonder het spelen van die game werd de sollicitatie gewoon niet in behandeling genomen.
[0:15:59] Het roept de vraag op hoe noodzakelijk dit soort op AI
[0:16:04] gebaseerde game-based assessment zijn en of dat niet een onnodige drempel opwerpt.
[0:16:10] We hebben hetzelfde of iets vergelijkbaars gezien, waarvan we dachten, hè, met een assessment tool, waarbij dan de kandidaat uiteindelijk een rapportage kreeg van vijf pagina's, maar de werkgever een, zeg maar, vijf keer zo lang een rapportage.
[0:16:23] Dus dat is ook een hele vervelende informatie-asymetrie.
[0:16:28] En ik denk, begin dit jaar werden we ook opgeschrikt door een algoritme dat werd gebruikt door de reclassering om recidiven te voorspellen en een advies te geven aan rechters en officieren van justitie.
[0:16:43] Ja, dat model zat ook gewoon niet goed genoeg in elkaar.
[0:16:46] Een op de vijf keer was het gewoon verkeerd.
[0:16:50] Kortom, de wijdverspreide inzet van AI, van cybersecurity's tot scanauto's en van stemadvies tot werving en selectie, laat zien hoe groot de impact en risico's kunnen zijn en hoe groot de opgave van ons allemaal is, denk ik, om te zorgen dat we AI verantwoord gaan inzetten.
[0:17:11] Tegelijkertijd zie je ook de, zeg maar,
[0:17:13] in Europa de regeldrukambities, om dat zeg maar te verminderen, maar dat leidt wel tot uitstel van toch hele belangrijke vereisten onder die AI-verordening, dat die nog niet snel genoeg kunnen worden ingevoerd.
[0:17:27] Het zijn echt risicovolle systemen, het gaat over
[0:17:31] Prestaties van leerlingen op scholen, op hoe mensen worden beoordeeld op het werk, op beslissingen die de overheid neemt over mensen.
[0:17:40] Dat moet je gewoon goed willen doen.
[0:17:42] Dus we moeten die grondrechten goed kunnen beschermen en ook bedrijven moeten weten waar ze aan toe zijn.
[0:17:46] En dat is allemaal in de vertraging.
[0:17:50] Dus dat vinden we zorgelijk.
[0:17:52] Dus het lijkt ons echt belangrijk om die unieke Europese positie, want we voelen ons in die zin nog wel... Ja, mooi dat we in dat netwerk zitten.
[0:18:00] waarin wordt gestuurd op waardevolle innovatie en ook bescherming van grondrechten, dat dat hand in hand moet gaan.
[0:18:07] Maar wij vragen natuurlijk wel om heldere wetgeving en om structurele financiering.
[0:18:11] De uitdagingen zijn echt levensgroot.
[0:18:14] Zo voorspelde Microsoft, dat is zo'n twee weken geleden, dat die verwachten in 2028 1,3 miljard AI agents die rondzoomen.
[0:18:26] Nou, wij hebben nu alleen nog maar geld voor dit jaar.
[0:18:29] dus incidenteel geld, dat lijkt ons iets te beperkt, niet verstandig in deze tijd.
[0:18:36] Die digitale wereld die wacht niet op ons, dus naast het investeren in heldere kaders is goed toezicht nodig, snelheid is wat ons betreft geboden en daar zetten we ons graag samen met u voor in.
[0:18:50] Dank u wel voor de toelichting, Helder.
[0:18:52] Ik kijk naar de commissieleden voor een rondje vragen.
[0:18:55] Mijn voorstel zou zijn om gewoon één voor één de vraag te stellen en aan u te bekijken wie daar een antwoord op kan geven.
[0:19:02] We zijn een select gezelschap, dus volgens mij kunnen we een aantal rondjes maken.
[0:19:05] Dan kijk ik als eerste naar de heer Verkuilen.
[0:19:08] Ja, dank u, voorzitter.
[0:19:10] Ik keek al vol verwachting naar de heer Stevens en ik denk nou, uw introductie was al zo uitvoerend.
[0:19:16] Ik denk nu, er komt zo...
[0:19:18] Luisteren we even aandachtig verder, maar ik ga er vanuit, voorzitter, dat de heer Stevens het zelf zo inspringt.
[0:19:25] Ik denk een belangrijke opdracht voor het AP.
[0:19:28] Een belangrijke uitdaging ook, omdat die ontwikkelingen zo snel gaan dat je bijna de regelgeving niet op tijd meer kunt maken.
[0:19:37] Maar daar heb ik wel mijn vragen over.
[0:19:38] Dat was eigenlijk wat mevrouw Meur net ook zei.
[0:19:43] De behoefte om de invulling van die AI-verordening.
[0:19:47] in uw optiek dan de maatregelen die we hier vanuit de Kamer waar u het meest mee geholpen zou zijn?
[0:19:53] Als we dan toch moeten kijken welke maatregelen zijn u het eerste nodig en hoe algemeen zijn ze?
[0:20:00] Want volgens mij is het vaak zo specifiek waar het hier over gaat dat je bijna met algemene regelgeving niet kunt volstaan.
[0:20:09] Daar ben ik even benieuwd naar de reflectie, voorzitter.
[0:20:13] Ja, nou, ik denk als eerste is het de hele snelle behandeling van de implementatiewet, want nu is er eigenlijk nog geen toezichthouder aangewezen en kunnen we ook nog niks doen.
[0:20:23] We kunnen niet ingrijpen.
[0:20:24] Dus de verboden AI, dat is al, zeg maar, in werking getreden.
[0:20:29] De risicovolle AI, dat komt eraan, maar wij kunnen eigenlijk feitelijk nog niks.
[0:20:34] Dus ik denk dat dat het belangrijkste is.
[0:20:39] U twijfelde me.
[0:20:42] Dat is tempo, wat jij ook zegt.
[0:20:45] Tempo maken.
[0:20:47] En ik denk dat die indeling van die AI in categorie is ook al wel voldoende gemaakt.
[0:20:52] En dus tempo maken, maar ook, Flauw dat ik dat zeg weer, tempo maken en middelen.
[0:20:56] Wat jij mooi zei, er is grote behoefte in de buitenwereld aan uitleg van ons.
[0:21:00] Sven, misschien moet je er iets over zeggen over die bijeenkomsten die er zijn geweest.
[0:21:03] Het is zeer kritisch, omdat het ook ingewikkeld is.
[0:21:06] Het is ingewikkelde technologie.
[0:21:08] Die gaat heel snel, maar de regelgeving is ook best ingewikkeld over transparantie en wat je moet doen van tevoren.
[0:21:15] Misschien moet jij even over die bijeenkomsten vertellen.
[0:21:17] Er is zo'n grote behoefte aan goede uitleg van ons, guidance, voorkomen, dat we ook voldoende menskracht moeten hebben om dat goed te doen.
[0:21:27] Daar helpen we het bedrijfsleven zeer mee.
[0:21:34] Ik denk dat de heer Verkuilen de spijker op de kop slaat.
[0:21:37] Dat gaat om dat enerzijds de AI-voordeling bevat zeker een aantal hele algemene bepalingen, maar voor een organisatie die een AI-systeem ontwikkelt of een organisatie die een AI-systeem gebruikt, geldt er een hele specifieke context voor die specifieke organisatie.
[0:21:57] Dus laat ik een concreet voorbeeld noemen.
[0:22:02] Voor elke organisatie die een AI-systeem ontwikkelt of een overheidsorganisatie of een bedrijf die een AI-systeem gebruikt, de eerste vraag die voor iedereen zal gelden, als er naar deze regelgeving wordt gekeken, is dit systeem waar ik naar kijk, is dat een AI-systeem of niet?
[0:22:21] En als de conclusie is van dit is geen AI-systeem, dan is deze hele regelgeving, die AI-act, is niet van toepassing.
[0:22:28] Die AI-act waar we in Europa aan werken, jullie hebben al eens vastgesteld,
[0:22:31] waarvoor die uitvoeringswette ligt.
[0:22:34] In bepaalde situaties in het bedrijfsleven met bepaalde totaal niet risicovolle processen en je komt tot de conclusie dit is geen AI-systeem, nou hartstikke fijn.
[0:22:42] Stel dat je een overheidsorganisatie bent en je hebt een heel risicovol proces wat wel een impact hebben op mensen.
[0:22:49] Het kan de conclusie zijn als het geen AI-systeem is, ja wat dan wel?
[0:22:52] Hoe zorgen we dan wel dat we het goed inrichten?
[0:22:54] Dat is één type vraag.
[0:22:56] Maar dit is een vraag voor iedereen waar in algemene zin ook nog in toenemende mate
[0:23:02] Verheldering en verduidelijking aan moet worden gegeven, want die terminologie, dat zijn wel abstracte begrippen.
[0:23:08] Een term die bijvoorbeeld heel erg centraal staat, waar iedereen die hier specialistisch mee bezig is, het over zal hebben, is inferentievermogen.
[0:23:16] Is dit systeem wat wordt ontwikkeld, heeft dat inferentievermogen?
[0:23:20] Dat is een beetje het hart van de vraag, is iets AI?
[0:23:24] Wij mensen doen aan inferentievermogen en als een systeem dat doet, dan hebben we het over AI, als ik het helemaal plat sla.
[0:23:29] Dat is het algemene.
[0:23:31] De praktijk is dat als wij het hebben over hele specifieke sectoren en ik noem een voorbeeld, er komen mensen die in het onderwijsveld werken, die komen naar ons toe en die zeggen wij hebben echt behoefte
[0:23:46] dat jullie duidelijkheid kunnen geven hoe dat nou zit met AI en nakijken.
[0:23:51] Kunnen wij AI gebruiken voor nakijken?
[0:23:55] Onder welkomst.
[0:23:55] Dat is een super praktische, hele concrete kwestie die voor een hele specifieke sector extreem relevant is, maar wat natuurlijk helemaal niet een vraag is die aan de orde is voor de mensen die bezig zijn met biometrische systemen die aan gezichtsherkenning werken.
[0:24:09] Dus binnen die wereld van de AI Act, want
[0:24:13] Het beoordelen van scholieren en studenten is een hoogrisicotoepassing onder die AI-verordening.
[0:24:19] Dus dat is een hele specifieke vraag.
[0:24:22] En zo denk ik dat het wel al heel snel optelt als wij er een dag voor zouden gaan zitten, dat je zo wel een honderdtal van dat soort vragen zou kunnen geven.
[0:24:30] Is daarvoor echt toezicht nodig van we gaan handhaven?
[0:24:35] Op die vlakken daar zijn we nog helemaal niet.
[0:24:37] Dat moeten we eerst met elkaar helder krijgen.
[0:24:39] Wij moeten dat voor onszelf als toezichthouder helder krijgen.
[0:24:42] in combinatie met al die organisaties die op dit vlak AI-systemen ontwikkelen en gebruiken.
[0:24:47] Dus we hebben daar heel veel dialogen en bijeenkomsten voor nodig, zodat wij als toezichthouder daar ook...
[0:24:52] op Europees niveau en op nationaal niveau duidelijkheid in kunnen veroorzaken.
[0:24:56] En daar hebben we het over de bijeenkomsten waar we naar verwijzen die we moeten organiseren.
[0:25:00] En ja, dat vergt tijd en het vergt capaciteit om daar te komen.
[0:25:05] Dus als we maar één kleine aanvoering toestaat nog hebben, en wat ik dacht dat je er ook wilde gaan spreken Sven, dat je, wat ook al een discussie is, ik noem daar geen voorbeeld van bewust, omdat dat ook geheimen zou verklappen, maar het begint ook al met een organisatie die zo'n systeem heeft.
[0:25:18] Is het nou verboren AI?
[0:25:20] Of hoog risico, of dat niet.
[0:25:22] De neiging is, is onze ervaring, dat mensen denken, ja, dit is geen hoog risico.
[0:25:27] Terwijl wij soms zeggen, dit is hoog risico, waarschijnlijk zelfs verboden AI.
[0:25:32] Dus dan, en als je het kwalificeert als niet hoog risico, heb je andere normen dan bij hoog risico.
[0:25:37] En als het verboden is, ja, dan mag je het helemaal niet gebruiken.
[0:25:39] En mensen schatten het standaard eigenlijk te voordelig in en als minder gevaarlijk dan het in werkelijkheid is.
[0:25:49] Mevrouw Elhoudjani.
[0:25:53] Ja, dank u wel, voorzitter.
[0:25:55] En heel fijn dat het AP weer aanwezig is hier in de Kamer.
[0:25:59] Ik had een vraag.
[0:26:00] Ik hoorde u, volgens mij mevrouw Meur, het hebben over de transparantie van algoritmes en AI.
[0:26:10] En dan ook eigenlijk met name over de casus van die honderdduizenden boetes die dan zijn opgelegd
[0:26:19] aan mensen door die scanauto's, maar dat dus eigenlijk dat algoritme dus wel geregistreerd was.
[0:26:25] Maar begreep ik het nou goed dat het dan ontbrak aan eigenlijk het toezicht daarop of de handhaving daarop of de controle daarop?
[0:26:32] Waar is dat dan misgegaan?
[0:26:35] Dus gewoon even voor mezelf om het ook te begrijpen dat we dus wel registers hebben, maar dat dat dus niet betekent dat het dan dus alsnog altijd goed gaat met de algoritmes die geregistreerd staan.
[0:26:48] Nee, als de algoritmes geregistreerd staan, dan weten we als toezichthouders dat ze er zijn.
[0:26:53] Dus dan kunnen we gaan kijken.
[0:26:55] Dit is eigenlijk een algoritme die midden in een proces is ingezet, waar eigenlijk door de gemeente niet goed is gekeken hoe je die weer aan andere informatie moet koppelen.
[0:27:05] Dus het was gewoon niet gekoppeld aan de gehandicapte kaart die mensen ook hadden.
[0:27:12] Dus dan rijdt die auto langs en registreert dat iemand gewoon fout geparkeerd staat.
[0:27:17] een gehandicaptenvergunning heeft.
[0:27:24] Kan ik daarop aanvullen?
[0:27:25] Ja, voor dat algoritmeregister geldt dus, wat werd gezegd, de helft ervan is niet geregistreerd.
[0:27:35] Het voordeel van deze systemen is dat het wel redelijk, ook van buitenaf, wel redelijk transparant is.
[0:27:42] Dus ja, in gemeentes is dit een hot topic.
[0:27:47] Dus over scanauto's en parkeerhandhaving wordt veel geschreven, dus daar vinden we wel genoeg informatie in de media over en de raadsleden stellen hier ook vragen over, dus wij komen wel achter die informatie.
[0:27:59] Dus wij, in dit concrete voorbeeld, wij hebben tien gemeentes aangeschreven van nou kunnen jullie ons vertellen hoe dat zit met die scanauto's, kunnen jullie aangeven hoe jullie gemeente werkt,
[0:28:17] hoe jullie gegevensbeschermingseffectenbeoordeling eruit ziet, dus we hebben informatie opgevraagd, die is keurig aangeleverd, dus de gemeentes zijn prima in staat om die informatie aan ons aan te leveren.
[0:28:28] Men is zich bewust ervan dat men in de eigen gemeente een scanauto heeft rondrijden, dus altijd wel echt uitbesteed.
[0:28:35] Maar tegelijkertijd, in de helft van de gevallen, hebben ze dat systeem niet geregistreerd in het algoritmeregister, wat er is voor alle Nederlandse
[0:28:44] Overheidsorganisaties en onze vragen hebben daar natuurlijk ook heus wel een enkele hint in gegeven naar die registratie.
[0:28:51] En dan komt het natuurlijk uiteindelijk er wel deels op neer dat die registratie in dat algoritmeregister is een vrijblijvende exercitie.
[0:28:59] Dat is geen verplichting op dit moment voor overheidsorganisaties.
[0:29:07] Ter voorkomming van misverstanden misschien.
[0:29:09] Het feit dat het wel geregistreerd is wil niet zeggen dat het legaal is.
[0:29:14] Dus dat misverstand ontstaat.
[0:29:16] Het is toch gemeld?
[0:29:17] Ja, dat zegt verder niks.
[0:29:18] Alleen het feit dat het bestaat.
[0:29:21] Wij zouden, dan spreek ik u even aan als wetgever, ik denk dat wij het, check het even bij jullie, wij zouden het, denk ik, heel goed vinden dat als die AIX-invoeringswet hier komt, dat u vraagt of verplicht of amendeert dat er een registratieplicht komt, op z'n minst voor overheidsinstellingen, voor dit type algoritmes.
[0:29:40] Dat er een register verplicht wordt, zeg maar.
[0:29:43] Ja, kijk en daar geldt de AI-Act regelt sowieso een registratieplicht ook op Europees niveau voor AI-systemen en specifiek voor overheidsorganisaties moet ook de gebruiker dat registreren.
[0:30:01] Maar de grens van die AI-verordening is dan weer als het geen AI-systeem is.
[0:30:09] Terwijl dat natuurlijk ook het interessante debat is waar je in ieder geval over in gesprek wil gaan.
[0:30:15] Het kan heel legitiem zijn dat een systeem inderdaad geen AI-systeem is en enkel een simpel algoritme.
[0:30:24] Maar dat moet wel bediscussieerbaar zijn.
[0:30:26] Dat zou erg helpen in het toezicht en de regulering.
[0:30:31] Mevrouw Katman.
[0:30:33] Ja, dank, voorzitter.
[0:30:34] Mijn vraag gaat eigenlijk over het eerste gedeelte waar de heer Wolff het over had, dat het gewoon heel hard gaat en je ziet ook steeds meer data lekken.
[0:30:43] Nou, die vliegen ons eigenlijk om de oren en heel veel mensen maken zich daar heel erg zorgen over.
[0:30:48] Maar ook een aantal, niet alle, maar ook wel een groot aantal bedrijven die dit treffen, die zeggen ook van ja, maar we zijn wel compliant, maar het gebeurt.
[0:30:59] En dan ligt wel alles op straat.
[0:31:02] Het is natuurlijk een heel ander voorbeeld, maar er zit dan toch een soort jaad van wat kunnen we dan nog?
[0:31:09] Je bent niet de wet aan het overtreden, maar moeten we dan regels maken?
[0:31:15] Meer?
[0:31:16] Hebben we dat dan toch nog nodig?
[0:31:17] Moet je nog meer compliant zijn, om het maar zo te zeggen?
[0:31:20] Of zit het dan toch veel meer dat er meer moet gebeuren met handelingskaders, met dat mensen ook bepaalde persoonsgegevens kunnen wijzigen als dat... Kijk, ik bedoel, ik kan niet mijn leeftijd wijzigen als persoon, maar als dat wel kan...
[0:31:37] En waar ik een beetje naar op zoek ben, sorry voor deze grote vraag hoor.
[0:31:39] We hadden bijvoorbeeld ook een gesprek met de ACM en toen ging het over verkiezingsbeïnvloeding.
[0:31:44] En eigenlijk zeggen zij, ja voor ons is de DSA een soort marathon.
[0:31:48] Maar voor ons, als Tweede Kamer, zijn de verkiezingen gewoon de 100 meter sprint.
[0:31:53] En elke keer als ze zijn, moet je een olympisch record lopen.
[0:31:56] Dus als de ACM dan de marathon is, wie runt dan die 100 meter sprint?
[0:32:02] En dat is eigenlijk ook een beetje hier, van die datelekken zijn er, maar het gebeurt ook gewoon, ook al houden mensen zich aan al die regels, dan ligt toch alsnog alles op straat.
[0:32:12] En is er nog iets wat wij moeten invullen of bij wet moeten regelen om daar, ja...
[0:32:21] ...iets mee te doen, want het wordt wel nu een beetje zorgelijk.
[0:32:25] Ik bedoel, ik spreek de hele week mensen die zeggen... ...oh, ik zit én bij Basic Fit én ik heb geboekt bij boeking.com.
[0:32:31] Ik zit bij Odido.
[0:32:32] En nou ja, als je dan ook nog niet paardenliefhebber bent... ...want volgens mij is bokt.nl vandaag ook gehackt... ...nou, dan heb je toch wel wat specifieke hobby's ook... ...die dan weer lekker aan elkaar gekoppeld kunnen worden.
[0:32:44] Ja, en het grote gevaar daarvan is, als die informatie bij één criminele partij zit, die kunnen u een mailtje sturen met uw correcte leeftijd en met uw hobby's, en dan denkt u dat het echt is, die je kent, en dan klik je op een link en je systeem zit vast.
[0:33:00] Maar het begint eigenlijk, u raakt ze eigenlijk allemaal wel aan, het begint al met het verzamelen van data.
[0:33:07] Wat je niet hebt, kan niet worden gehackt en kan niet worden gelekt, basaal.
[0:33:11] Dus mensen moeten veel
[0:33:13] Strenger zijn zelf ook, wat geef ik af?
[0:33:16] Bedrijven vragen vaak veel te veel.
[0:33:18] Dus mensen moeten minder makkelijk iets afgeven.
[0:33:20] Bedrijven moeten veel minder vaak te veel vragen.
[0:33:24] Niet te lang bewaren ook, daar begint het al mee.
[0:33:27] Dan de normen voor wetgeving.
[0:33:28] Het is toch nog vaak, daar schrikken we soms ook al van met lekken, dat het... Dan zegt de baas van de bedrijf, ja, het is iets voor de ICT-afdeling.
[0:33:36] Nee, dit is top of mind, moet het zijn, van bestuurders van grote organisaties waar veel data zit.
[0:33:41] en ook leiding van departementen.
[0:33:43] Daar moet het besproken worden.
[0:33:47] Dan kun je de technische maatregelen veel beter op orde houden.
[0:33:50] Dat is heel belangrijk.
[0:33:51] Het gaat ook om de cultuur in de organisatie.
[0:33:54] Want je kunt de zaak wel helemaal op orde hebben, maar als er geen pentesten zijn gedaan of acties van wat doe je met openstaande computers, noem maar op, of wat doe je met mailtjes die een beetje verdacht zijn, klik niet op bijlagen of klik niet elke pdf op automatisch open.
[0:34:10] Dan ben je wel compliant, dan heb je de regels allemaal op orde, maar dan is de cultuur zodanig dat het toch, sloppy of welk woord zal ik gebruiken, omgegaan wordt met aanvallen.
[0:34:21] Dus het is een soort combinatie van factoren.
[0:34:24] En als laatste is wij moeten, wij zouden ook er actiever naartoe moeten gaan, af en toe ergens gaan kijken, is je beveiliging up to standard?
[0:34:33] Is de cultuur goed?
[0:34:35] Wordt het op de bestuursvergadering daar besproken?
[0:34:40] Ik zal geen voorbeelden noemen, maar een toespraak van allemaal toezichthouders, van commissarissen, maar ook over dit soort dingen gesproken.
[0:34:47] Spreken jullie er wel eens over in je raad van toezicht?
[0:34:49] Geen idee, nooit.
[0:34:51] Weet je waar je daar dan zit überhaupt?
[0:34:52] Heb je maatregelen?
[0:34:53] Geen idee.
[0:34:55] Het kan toevallig deze groep zijn, maar het moet echt overgesproken worden.
[0:35:01] En als het allemaal niet meer dan...
[0:35:04] afgeven, niet meer dan je moet verzamelen, weggooien als je het niet meer nodig hebt, je technische maatregelen op orde, op de agenda van bestuur, je cultuurgoed, dan worden die lekken echt aanzienlijk minder.
[0:35:17] Daar ben ik heilig van overtuigd.
[0:35:19] Ik kijk even naar rechts, maar dat is echt, ja.
[0:35:23] Ja, comportementeren, encryptie toepassen, dat kan echt heel veel.
[0:35:27] Wij schrikken soms best wel, als we zo'n lek binnenkrijgen, dan schrikken we best af en toe wel van de naïviteit waarmee wat omgegaan wordt met die data.
[0:35:35] Qua beveiliging, veel te veel bewaard.
[0:35:39] Ja, noem maar op.
[0:35:39] Dat moet nog een grote slag geslagen worden.
[0:35:42] En de wetgeving is... Ja, ik durf wel te zeggen dat de wetgeving, zeker met het Cybersecuritywet die in de Kamer is geweest, dan is die wetgeving best wel goed inmiddels.
[0:35:52] cultuur, wat ik al zei, en onze, het zou ook heel goed zijn, een beetje flauw altijd om het weer te noemen, maar dat wij daar meer ook tijd aan zouden kunnen gaan besteden om iets meer in te grijpen, de pakkans iets hoger te maken als het niet goed op orde is.
[0:36:04] U hebt al bij herhaling en meerderheid uitgesproken dat het ook moet.
[0:36:09] De middelen, zeg maar, die komen nog niet.
[0:36:11] Dus het zou echt wel meer moeten.
[0:36:13] En dat hele pakket, daar maken we een grote stap vooruit.
[0:36:21] Dan kijk ik naar de commissieleden van de tweede ronde.
[0:36:23] Meneer Verkuilen.
[0:36:28] Dank voor de antwoorden zover in ieder geval, maar wat mij toch blijft fascineren op dit dossier is toch echt de dynamiek die er is en de snelheid van de ontwikkelingen en de traagheid van wet- en regelgeving.
[0:36:42] Dan hebben we het nog niet eens over quantum computers, want dan hebben we zometeen helemaal geen algoritmes meer.
[0:36:47] Dan breekt die overal dwars doorheen, denk ik ook.
[0:36:51] En we gaan dat dus nooit, en dat is een beetje, lopen we nou achter een worst aan?
[0:36:57] Ik snap hoor dat het pleidooi als het gaat om extra middelen en het gaat om heel snel deze verordeningen doorbrengen.
[0:37:03] Ik snap dat allemaal, maar ik vraag mij af of wij niet constant achter de feiten aan blijven lopen en dat we niet anticiperend wetgeving maken, maar altijd volgend en op basis van het volgende incident.
[0:37:16] Maar ik weet niet.
[0:37:18] Het is een beetje filosofisch gevraagd en heb je ook
[0:37:20] Daar hebt u ook gelijk in.
[0:37:22] Maar eigenlijk geldt het voor alles.
[0:37:25] Als het gaat om ontwikkelingen in de zorg en bij alle maatschappelijke ontwikkelingen.
[0:37:30] Wetgeving loopt altijd een beetje mee of achter de maatschappelijke ontwikkelingen aan.
[0:37:35] En de wetgeving is normeren.
[0:37:37] Dat is wetgeving.
[0:37:38] En kiezen.
[0:37:39] Vaak weging van grondrechten tegen elkaar.
[0:37:41] Moet het hier meer veiliger worden of meer privacy?
[0:37:45] Maar wat mevrouw Murroch zei en meneer Stiervensen,
[0:37:49] Als je die wetgeving stelt, zo'n AI-act bijvoorbeeld, die is al lang in werking getreden.
[0:37:57] Nederland is klaar.
[0:38:00] Die was al wat uitgekleed in Europa.
[0:38:02] En we zijn al een jaar of twee jaar te laat.
[0:38:04] Hoeveel al inmiddels?
[0:38:04] Een jaar.
[0:38:05] Te laat, maar die is al in werking getreden.
[0:38:07] Er is nog geen uitvoeringswet, geen toezichthouders aangewezen.
[0:38:10] Terwijl dit nou een wet is, in de digitale wereld, de ontwikkelingen heel snel gaan.
[0:38:16] Als je zo'n wet doet met een
[0:38:18] maatschappelijke ontwikkeling die wat traag is en waar het niet zo naast.
[0:38:21] Maar dit is echt de dynamiek van de huidige tijd en de wetgeving die daar betrekking op heeft, dat kabbelt.
[0:38:28] En er zit geen kwaaien wil achter en kabinetsvallen en crisis en afstemming, ik heb er allemaal begrip voor.
[0:38:34] Dat zijn politieke realiteiten.
[0:38:37] Maar daar
[0:38:38] Dat kan sneller en dan kunnen we sneller uitleg geven, dan kunnen we sneller ingrijpen en dan nog blijf je erachter aan lopen, ben ik met u eens.
[0:38:44] En die wetgevingen worden ook opener gemaakt, de techniek onafhankelijker ook.
[0:38:49] Maar er gaat ook iets normerends van uit.
[0:38:51] Dus dat is, dat is toch wel...
[0:38:53] Wij zijn echt, wij zijn natuurlijk van de autoriteit persoonsgegevens.
[0:38:56] Wij geven de moed nooit op.
[0:38:58] Neemt u dat van ons aan.
[0:39:00] Maar dat kan echt meer en sneller dan we nu doen.
[0:39:05] Voorzitter, als ik mag nog één...
[0:39:06] Even een aannaling van het antwoord, want dit raakt mijn eerste vraag namelijk.
[0:39:12] Kijk, als je wilt anticiperen, maak je algemeen geldende regelgeving.
[0:39:16] En op het moment dat je in specifieke regelgeving komt, dat is denk ik wat de heer Stevensen net ook aangaf, dan wordt het heel erg lastig.
[0:39:25] Dus mijn vraag is ook veel meer, hoe kunnen we het nou in algemene zin regelgeving, ook in dit huis, naar voren brengen, die enigszins toekomstvast is?
[0:39:38] Mevrouw Meur.
[0:39:40] Ik kan het een beetje unheimische gevoel wel voorstellen als je dan die aantallen van die agentic AI hoort die op ons afkomen en die vanuit zolderkamertjes kunnen worden ontworpen.
[0:39:51] Dat zijn niet eens organisaties.
[0:39:54] Ga je dan een briefje sturen van u moet stoppen, dan is al het leed al gebeurd.
[0:39:58] Dus wij zien eigenlijk dat de volgende generatie wetgeving alweer nodig is.
[0:40:02] Dus ik denk dat we dat gevoel dat we toch
[0:40:05] omdat het zo ontzettend snel gaat, dat we toch al hard achter de feiten aanlopen en dat als het nu misgaat, of we dan snel genoeg kunnen ingrijpen, dat dat echt wel een vraag is.
[0:40:16] Dus dat, ja.
[0:40:19] Ja, ik denk dat als we uitzoomen, dan denk ik, we zien op een breed front dat we qua digitale wetgeving zitten we al een aantal jaren echt in een transitie, in een inhaalslag.
[0:40:31] Die transitie die zal nog wel
[0:40:33] even een aantal jaren voortduren.
[0:40:37] Denk, het perspectief waar we hopelijk naartoe werken is dat, en dan zoom ik maar echt even uit, dat we over tien jaar in een situatie zitten
[0:40:47] dat je echt sterke instituties hebt op nationaal niveau, op Europees niveau, zodat je bij nieuwe ontwikkelingen heel snel kan acteren.
[0:40:57] En dat is prima mogelijk.
[0:40:58] We zitten, ook als AI Mark toezichthouders in oprichting zijn en beoogd, we zitten echt in de hele prille beginfase, maar het lukte ons bijvoorbeeld wel om, wat in de wereld van toezichthouders ben je dan toch best redelijk snel bezig,
[0:41:14] Ik denk dat het begin februari was.
[0:41:16] Op een gegeven moment wij gaven vanuit de AP een waarschuwing uit over openclaw.
[0:41:21] Dat had toen veel de aandacht.
[0:41:24] Ook een voorbeeld van iets wat in een breder beeld speelt.
[0:41:27] Dus van die agentic AI systems die veel zelfstandig kunnen doen.
[0:41:34] Brachten ook bepaalde risico's met zich mee.
[0:41:37] En dat konden we wel in een heel snel tempo ook met Europese
[0:41:40] collega-organisaties gaan bespreken.
[0:41:42] Dat was de eerste keer dat we zoiets deden, want dat raamwerk van die groep van toezichthouders die samenkomen, die allemaal nog niet formeel zijn aangewezen, dat was aan het opstarten.
[0:41:51] Maar in de toekomst, ja, je moet als er een groot risico is dat iedereen raakt, moet je in staat zijn om over het weekend erover te spreken.
[0:42:01] om te kijken wat is hier nu nodig.
[0:42:04] Je ziet ook dat die AI-verordening, die heeft in zich ook mogelijkheden, dat is dan weer erg gedelegeerd aan bijvoorbeeld de commissie, om wel snel dingen toe te voegen en aan te vassen.
[0:42:16] Dus dat het dynamisch is, zit daar wel in verweven.
[0:42:21] Maar om daar dan effectief invulling aan te geven, heb je gewoon sterke instituties nodig die daar ook de capaciteit hebben om daar snel
[0:42:30] snel in te schakelen.
[0:42:32] Dus het verergt inderdaad wel dat je moet toewerken naar een systeem waarbij het niet zoals nu dat we twee jaar moeten wachten voor veranderingen in wetgeving, want dan blijven we achter de feiten aanlopen.
[0:42:44] Een kleine toevoeging.
[0:42:45] Ik heb aan de ene kant u gezegd van
[0:42:50] Ik probeer als Kamer tempo te maken bij die wetgeving, hoewel het altijd achter de feiten aanloopt, maar als dat wetgeving nog trager is dan beoogd, dan loop je zo dubbel, dat is een kwadratische vertraging.
[0:42:59] Dat moeten we niet willen, althans zou ik u adviseren, u gaat over uw eigen agenda vanzelf spreken.
[0:43:04] Dus zodra die wetgeving is, heel snel invoeren, heel snel toezicht houden, versterken, et cetera, dat is één.
[0:43:10] En aan de andere kant ben ik wel weer gelukkig met het feit dat die omnibus wetgeving die er nu is, over de AI en over de, hoe was de andere weer?
[0:43:19] Het digitale pakket en de AI en de AVG.
[0:43:24] We zijn heel gelukkig met de reactie van de regering, van de Kamer ook, dat als het gaat om verzachten van normen, dat dreigt even in een razend tempo te gaan.
[0:43:33] En dat de Kamer daarvan zegt en de regering ook, dat vinden we heel mooi.
[0:43:37] Ho, ho, als je normen in het kader van terugdringen van bureaucratie en rette, waar we alle begrip voor hebben.
[0:43:43] Maar denk er wel goed over na waar je normen verzacht.
[0:43:46] Precies om alles wat u eerder hebt gezegd en waar u zorgen over hebt.
[0:43:51] En dat ziet er goed uit, althans in Nederland, we weten niet in alle andere landen van de Europese Unie, maar als het weer verlicht wordt, wees dan waakzaam.
[0:44:01] Mevrouw Elbowajani.
[0:44:05] Ja, dank u wel.
[0:44:06] En die nood, die horen we zeker.
[0:44:10] Ik ben zelf ook rapporteur dus op dat digitaal pakket, dus vandaar dat... Ja, maar dat is goed om te horen in ieder geval, dat we wat dat betreft op één lijn zitten met de Kamer en de regering en het AP daarop.
[0:44:25] Even kijken, ik had zelf nog een vraag over massasurveillance.
[0:44:32] Kijkt het AP ook naar individuele bedrijven, zeg maar actief, of ze daar mee bezig zijn of dat er...
[0:44:38] dat soort algoritmes bijvoorbeeld in ontwikkeling zijn en dat dat dan dus ook zeg maar vroegtijdig al gesignaleerd kan worden.
[0:44:48] Ik maak mezelf nog wel eens druk om bepaalde bedrijven waar we mee samenwerken, zoals Palantir bijvoorbeeld, die daar in andere landen wel een handje van hebben.
[0:44:57] Dus ik vraag me gewoon af hoe het AP daarmee omgaat met toezicht op dat soort bedrijven.
[0:45:05] Ja, ik denk gewoon in alle openheid hier is het eerlijke antwoord daarop te weinig.
[0:45:11] En dat heeft toch te maken met de grote hoeveelheid klachten, de wetgevingstoetsen, de datalekker.
[0:45:15] We zijn nog best een redelijk reactieve toezet gehad.
[0:45:18] We zijn nu met de AI-actie zo wel heel actief.
[0:45:20] We hebben nu tijdelijke middelen voor, die besteden we er ook echt aan.
[0:45:23] Veel uitlag, veel bijeenkomsten.
[0:45:24] We zijn wel proactief.
[0:45:26] Maar het punt wat u noemt eigenlijk, we hebben weleens gezegd, ik weet niet of het in de openbaan, maar elke tegel die we lichten vind je gekke dingen.
[0:45:33] Maar de tegelslichting, waar we juist geen klachten overkomen, een beetje het onzichtbare zichtbaar maken, daar komen we te weinig aan toe.
[0:45:41] En we zouden eigenlijk, ik noemde in het begin de duo ook eigenlijk, dat mensen ook actief ons opzoeken, want kan dit of kan dat niet, daar kom je heel veel ellende mee.
[0:45:49] En wij zouden echt de ruimte, de parlementaire enquête heeft daar hele verstandige woorden over gezegd, want als je de AP versterkt, wat moet, vindt de Kamer unaniem, dat gebeurt nog niet, flauw, maar ik haal het toch maar een beetje, dan moet je juist dit soort werk gaan doen.
[0:46:03] Want daar zitten de grote gevaren.
[0:46:06] Daar zitten de grote aantallen.
[0:46:09] En daar zitten ook de dingen waar soms mensen ook niet in alle eerlijkheid in de gaten hebben.
[0:46:15] Hoe fout, hoe verkeerd, hoe discriminator iets is wat er gebeurt.
[0:46:20] En dat zouden we graag willen en dat zouden we moeten.
[0:46:24] Dat is die weging weer.
[0:46:29] Ja, dank u wel.
[0:46:31] Want ik hoorde u inderdaad straks ook zeggen over het incident met Duo.
[0:46:36] Dus u had het net al over het onzichtbare zichtbaar maken.
[0:46:39] En is het dan zo dat de mensen misschien of u het niet weten van of we kunnen ook bijvoorbeeld een melding maken bij het AP?
[0:46:52] Maar aan de andere kant is het dus ook mogelijk dat ze gewoon niet doorhebben dat ze onderdeel zijn
[0:46:57] van wat daar aan de hand is, zeg maar.
[0:47:02] Hoe ziet u dat?
[0:47:04] U slaat de spijkers voor kop, denk ik.
[0:47:05] Want ik maak weleens te vergelijken.
[0:47:07] Dit gaat natuurlijk om vrijheid van mensen, grondrechten, discriminatie, weet ik veel, mensen buitensluiten, maar heel ernstige kwesties.
[0:47:14] Kijk, als mijn auto wordt gestolen, dan zie ik dat.
[0:47:16] Dan ga ik naar de politie, doe ik aangifte.
[0:47:18] Als ik word mishandeld hier, dat voel ik.
[0:47:21] Als er bij me ingebroken wordt, idem dito.
[0:47:25] Zichtbaar op straat wordt aangehouden, de politie denkt niet met mijn leeftijd of mijn lengte of mijn kleur te maken, daar kan ik wat tegen doen.
[0:47:33] En alles wat u beschrijft gebeurt in het verborgene, in algoritmes, in systemen, in het digitale vooronder van bedrijven en van overheidsinstellingen.
[0:47:42] Die hebben geen idee.
[0:47:44] Daarom krijgen wij over de meest ernstige dingen
[0:47:46] geen klachten.
[0:47:47] Mensen hebben geen idee dat ze onderdeel zijn van een risicoselectiemechanisme.
[0:47:52] Over de toeslagenaffaire hebben we letterlijk één klacht gehad.
[0:47:55] En ik moet eerlijk bekennen, aanvankelijk hadden we ook gezegd, dat kan niet waar zijn, dan hadden we het terzijde gelegd intern, want we gebeld hadden met de Belastingdienst, doet u dit?
[0:48:02] Nee, natuurlijk niet.
[0:48:04] En duo nul klachten.
[0:48:05] En alles wat wij blootleggen, mensen weten niet, weten niet dat het erin zit.
[0:48:11] Bedrijven doen het ook
[0:48:12] Soms onbewust onbekwaam, dat je niet weet dat je fout bezig bent.
[0:48:18] Juist daarom, als je die algoritme registreert, weet je dat het gebruikt wordt.
[0:48:23] Kunnen wij ernaar gaan kijken.
[0:48:24] Als ze het ingaan zetten, kunnen ze naar ons toekomen.
[0:48:27] En moeten we kijken op plekken waar we geen klachten over krijgen.
[0:48:35] Even zien of dat op orde is.
[0:48:38] En daar gebeuren dus de meest gevaarlijke dingen.
[0:48:40] En dingen waar het dan wel toevallig, of door een journalist, of door iemand anders naar buiten komt, dan is het massaal en massaal fout.
[0:48:47] Nou, duo, en dan kost het 80, 90 miljoen om dat allemaal te corrigeren.
[0:48:53] En het Gelders vind ik nog niet het ergste.
[0:48:56] Het ergste is dat er gediscrimineerd wordt.
[0:49:00] Of het ergste is dat je op basis van risicoselectie meganisme eruit gepikt wordt
[0:49:03] Als u een idee heeft waarom.
[0:49:08] Mevrouw Katman.
[0:49:09] Ja, misschien ligt mijn vraag wel een beetje in het verlengde, want ik denk dat de aanbeveling ook die jullie doen om dat algoritmeregister dus te verplichten...
[0:49:18] Ik denk ook echt, hoe lang zijn we hier nou over bezig?
[0:49:20] Maar oké, we moeten maar eens een oplossing gaan bedenken.
[0:49:23] Maar het zit ook een spade dieper, want jullie doen ook de aanbeveling van werk nou aan die digitale inclusie, maar daar hoort ook bij die AI-skills.
[0:49:32] En je bent al minder bewust onbekwaam als je zo'n register
[0:49:38] invult, maar dan nog, soms kan het ook zijn dat één persoon binnen de organisatie dat register invult en dan is het klusje geklaard.
[0:49:45] En zou je dan eigenlijk, omdat je gewoon nu in heel veel sectoren eigenlijk ziet, een beetje gesageerd gezegd misschien, maar ik denk dat ik het gewoon wel vind, dat we ongebreideld allerlei AI-toepassingen aan het toepassen zijn, zeker in het onderwijs, in de zorg, noem het maar allemaal op, waar we het totaal helemaal niet weten,
[0:50:05] Wat er nou achter weg gaat, dat de mensen die er onderdeel van zijn ook helemaal niet weten inderdaad dat ze er onderdeel van zijn.
[0:50:12] Zou je het toemoeten naar een soort verplicht AI skills programma?
[0:50:17] Ik vind het heel lastig, verplicht opleiden.
[0:50:20] Ik zou het bijna leuk vinden, dat is leuk gaan vinden in Nederland.
[0:50:24] Maar ik ben gewoon zo bang dat we er anders gewoon niet gaan komen.
[0:50:29] Het is een harttekreet die ik volledig kan onderschrijven.
[0:50:32] In de AI-Act zit ook een wettelijke verplichting.
[0:50:34] Ik kijk even naar rechts.
[0:50:36] Voor AI-geletterdheid van overheidsinstellingen en bedrijven die AI inzetten, moet het wel AI zijn, dat is nu een verplichting.
[0:50:42] En het paradoxaal is, en dat is nog pijnlijker zeg maar door uw harttekreet,
[0:50:48] dat er volgens mij nu in die omnibuswetten zit om die verplichting maar eruit te halen.
[0:50:53] Ik kijk even naar de rapporteur, om die verplichting eruit te halen en het dan vrijblijvend aan bedrijven van ja, als u AI-geletterd is, heel verstandig, maar als het niet, ook goed.
[0:51:03] Ja, je moet eigenlijk, zoals er niet in een raad van toezicht van een bedrijf waar veel data wordt verwerkt, iemand kan zitten die verstand heeft van de digitale wereld, in het bestuur van bedrijven iemand moet zitten die verstand heeft van de digitale wereld, moet ook het hele bedrijf
[0:51:17] gebruikbaar van algoritmen, zeker als het AI, dan moet de cultuur en de opleiding en de sfeer zijn.
[0:51:25] Weet je waar je het over hebt?
[0:51:27] Weet je hoe dit werkt?
[0:51:28] En zeker, ik ken het begrip ook hier, betekenisvolle menselijke tussencondens, soms zeggen mensen ook
[0:51:34] Er was laatst ook een uitzending in een van de actualiteitenrubrieken... ...en er werd ook bij werving een selectie-AI ingezet.
[0:51:40] Ze zeiden, nee, maar kom, er zit altijd een mens tussen, hoor.
[0:51:42] Maar die zat, nadat de allereerste selectie al gemaakt is... ...alle kandidaten al zijn afgewezen, waar geen mens aan te pas komt... ...en dan zat er een mens aan het eind van de rit.
[0:51:52] Ja, dat is geen...
[0:51:53] Dat heeft geen zin.
[0:51:54] Die moet weten hoe het werkt en die moet juist kijken wie wordt er afgewezen, wie krijgt er hier geen lening, wie wordt er niet aangenomen.
[0:52:01] Daar moet die mens tussen zitten.
[0:52:03] Maar als je dat niet weet en als je niet geschoold bent, dan kun je eigenlijk je werk niet goed doen en is het toch eigenlijk best onverantwoord om zulke invasieve, gevaarlijke AI te gebruiken.
[0:52:16] Ja, onervaardig is natuurlijk ook niet een auto op de weg, iemand die geen rijbewijs heeft.
[0:52:20] Nou, is de AI gevaarlijker dan een auto?
[0:52:24] De massaliteit.
[0:52:26] Dus mensen moeten een rijbewijs, een soort van rijbewijs hebben, om het te kunnen gaan besturen en te kunnen gaan gebruiken.
[0:52:32] En het zit volgens mij, die AI-geletterdheid, die verplichting geldt nu al.
[0:52:37] Dus u zou de minister zo eens kunnen vragen, hoe zit het op de departementen met AI-geletterdheid?
[0:52:42] Beetje tip.
[0:52:43] In bedrijven idem dito.
[0:52:44] Dat moet, wat u zegt, is voor de volle honderd procent waar.
[0:52:48] En daar moeten we elkaar op aanspreken en bedrijven op aanspreken.
[0:52:53] Mevrouw Katman, heeft u ook een vervolgvraag?
[0:52:55] Want dan kunnen we zo de tijd mooi rondmaken.
[0:52:57] Want ik heb uw collega's de ruimte gegeven voor een vervolgvraag.
[0:53:02] Misschien niet helemaal een eerlijke vraag, want die gaat eigenlijk over de financiering.
[0:53:06] En dat is natuurlijk heel moeilijk om aan een toezichthouder te vragen, hoe moeten we dat nou doen?
[0:53:10] Maar inmiddels ben je een oude rot in het vak.
[0:53:13] Als je vijf jaar in de kamer zit, dan ben je een soort bejaarde.
[0:53:18] Maar er gaat eigenlijk gewoon bijna geen maand voorbij zonder dat het erover gaat en dat de zorgen over de onderfinanciering überhaupt van onze toezichthouders problematisch is.
[0:53:28] Maar het blijft elke keer zo'n gevecht.
[0:53:31] Ik ben ook een keer, wij hebben dan hier intern van die begrotingsrapporteurs geweest, toen hebben we nog eens uitgezocht van hoe zit dat eigenlijk nou, want we hebben eigenlijk heel weinig inzicht ook van welke klus krijgt nou het toezichthouder erbij en hoeveel FTE staat er dan tegenover en hoe zie ik dat dan als kamerlid terug, dat als dan de AP allemaal klussen krijgt, of er dan ook iets bijgeplust wordt.
[0:53:54] Eigenlijk bleek gewoon uit dat onderzoekje dat heel vaak krijgen wij gewoon te horen, heeft geen impact.
[0:54:00] op de rol van de toezichthouder.
[0:54:01] Ik denk dat AI en alles wat de ontwikkeling die nog doorgaat maken, gigantische impact heeft.
[0:54:09] Zijn er nou specifieke andere systematieken van financieren in bijvoorbeeld andere EU-lidstaten, waar ze het wat misschien transparanter doen of gerichter op de klus, van er komt zoveel klus bij, dan komt er zoveel financiering bij,
[0:54:28] voor parlementen handiger is, zodat je beter kan controleren, zitten we nou een beetje goed?
[0:54:34] Want ja, op een gegeven moment moeten we die discussie toch een keertje gaan platslaan.
[0:54:39] En dat helpt vaak als je duidelijkere systematieken hebt.
[0:54:42] Dus ik vroeg me heel erg af of jullie voorbeelden kennen van jullie collega's die misschien iets handiger gefinancierd worden dan hoe wij dat in Nederland aanpakken.
[0:54:51] Een kort antwoord.
[0:54:53] Kijk, we hebben het altijd liever over de inhoud dan over geld.
[0:54:57] Dat is het eerlijke verhaal, zeg maar.
[0:54:58] Dat zit in onze opwinding ook wel een beetje natuurlijk, of helemaal.
[0:55:04] Even terug van het eind naar het begin.
[0:55:08] De taken die we nu krijgen voor de AI, daar hebben we tijdelijk geld gekregen, daar kunnen we de klussen wel redelijk mee klaren even nu tijdelijk, maar dat moet structureel zijn, want tijdelijke middelen kun je geen vaste mensen voor aannemen.
[0:55:17] Voor die verordening voor politieke reclame hebben we ook wat geld gekregen,
[0:55:21] Dus we zijn de laatste jaren wel gegroeid in geld, ook wel serieus, maar er waren ook altijd extra taken en vaak van, ik noem maar even, andere ministeries dan het ministerie waar wij de generieke budgetten van krijgen.
[0:55:32] Via ZK, via BZK, via Belastingdienst, dus er komt wat geld bij.
[0:55:39] Maar het is een generiek probleem.
[0:55:41] En die gelddiscussie speelt ook in alle landen van Europa.
[0:55:44] Dat is altijd lastig, omdat natuurlijk de regering, die moet vaak met voorstellen komen, maar wij zijn ook toezichthouder op de regering.
[0:55:50] Als je wat extra geld krijgt, heb je er zelf een beetje last van, een beetje flauw, maar zo is het.
[0:55:53] Het speelt natuurlijk toch wel, misschien hierna.
[0:55:56] We moeten af van die tijdelijke gelddingen.
[0:56:00] En ik zou, met een kaartstikte bal, een klein beetje terug ook naar u.
[0:56:04] De Kamer heeft al jaren in meerderheid geroepen in moties, in vragen, in weet ik veel wat allemaal, in parlementaire enquêtes, kraakheldere taal.
[0:56:12] De AP moet stevig versterkt worden, is de Kamer vrij unaniem in, van links tot rechts, en al jarenlang.
[0:56:19] Je moet voorzichtig zijn, maar justitie verzet zich daar over het algemeen stevig tegen.
[0:56:24] En dat accepteert u ook.
[0:56:26] Dus u gaat uiteindelijk over het geld.
[0:56:28] Dus ja, dan kijk ik toch naar u.
[0:56:32] Voer uit wat er in de parlementaire enquête staat.
[0:56:34] Kraakeldere taal.
[0:56:35] Goed berekend.
[0:56:36] Voer uit wat er in de motie staat en in de amendementen.
[0:56:38] En u moet wegen, daar heb ik alle begrip voor, zeker in de huidige tijd en gelijk op het debat wat er hier in de grote zaal nu plaatsvindt.
[0:56:43] Ik heb zelf aan uw kant gezeten, het is elke dag wegen, geld, geld, geld.
[0:56:48] Maar we willen heel bazaal ons werk goed kunnen doen, net als andere overheidsorganisaties.
[0:56:52] En juist in de digitale wereld is dat ontzettend belangrijk.
[0:56:56] En andere manieren om te berekenen, op dit moment, je hebt meer verstand van geld nog dan ik.
[0:57:02] Misschien kan je, er is ook een portefeuillehouder hierop.
[0:57:06] Korte toevoeging, want dan lopen we echt anders uit de tijd.
[0:57:10] Het gaat altijd over nieuwe taken en taakverzwaring en dat is niet passend.
[0:57:15] Dat is niet een passend kader voor ons, want dit is van oud naar nieuw.
[0:57:18] De digitale wereld groeit exponentieel en we hebben het alleen maar over taakverzwaring.
[0:57:25] Dat is niet de manier om er naar te kijken.
[0:57:28] En kijk naar andere vergelijkbare toezichthouders, die zijn al in Nederland, drie keer een ACM en een AFM, allemaal heel veel groter met een kleine terrein.
[0:57:38] Het is ook een beetje wat je wilt, wat je belangrijk vindt.
[0:57:43] Wat u wilt.
[0:57:44] Ik zie de commissieleden...
[0:57:46] Dan zou het ons wel helpen als het AP een impactanalyse voor die structurele termijn kan voorleggen.
[0:57:59] Gewoon even met de bandbreedte in op basis van de taak.
[0:58:03] Dan kunnen wij hier inhoudelijk ook de discussie beter voeren.
[0:58:06] We krijgen net de vraag dat wij een uitvoeringstoets doen.
[0:58:13] Die wordt niet altijd openbaar gemaakt door het ministerie, maar we kunnen toezeggen dat we dat spontaan aan u voorleggen.
[0:58:20] Dat gaat over de AI-actwerkzaamheden.
[0:58:24] wat we aan de parlementaire enquête, en we hebben het al bij herhaling gedaan, dat we nog een keer ingebundeld nog een keer aan u voorleggen, ja, zeker, over dit onderwerp, wat, waar de pijn zit, zeg maar, en wat, dan kunt u dat in alle rust, kunnen we ook een keer komen toelichten, waar de pijn zit, zeg maar, ja.
[0:58:41] Dan ronden we daarmee af.
[0:58:43] Dank ik mevrouw Meur, de heer Stiefsen en de heer Wolfsen voor hun komst, de commissieleden uiteraard ook, en wij zien elkaar vast na.
[0:58:51] Dank u wel.