Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Inzet algoritmes en data-ethiek binnen de rijksoverheid

[0:00:00] Welkom.

[0:00:01] Dit is vandaag dinsdagavond, 28 januari 2025.

[0:00:05] Het is half zes en op de agenda staat een commissiedebat voor digitale zaken.

[0:00:11] Het commissiedebat over dataethiek en de inzet van algoritmes binnen de Rijksoverheid.

[0:00:18] Aan de zijde van de Kamer zijn verschenen de volgende sprekers van links naar rechts van de mensen thuis van mij uit.

[0:00:25] Van rechts naar links.

[0:00:26] De heer Siks Dijkstra van Nieuw Sociaal Contract.

[0:00:30] De heer Ergen van Denk.

[0:00:31] Mevrouw Koekoek van Volt.

[0:00:33] De heer Buijsen van de VVD.

[0:00:34] En de heer Vermeer van de BBB.

[0:00:37] Ikzelf, uw voorzitter, zal aansluitend ook het woord nemen.

[0:00:40] Dan wordt het voorzitterschap even overgedragen aan de heer Siks Dijkstra.

[0:00:44] Aan de rechterzijde zijn aangeschoven... staatssecretaris van Digitale Zaken, de heer Zabo.

[0:00:49] En de staatssecretaris van Justitie en Veiligheid, de heer Struiken.

[0:00:55] Ik heb nog even een kleine huishoudelijke mededeling.

[0:00:58] Wegens ziekte kan de staatssecretaris van Financiën, de heer Van Oosterbrugge, niet bij het debat aanwezig zijn.

[0:01:06] De staatssecretaris van Binnenlandse Zaken, Koninkrijksrelaties of de staatssecretaris van Digitale Zaken... zal voor zover mogelijk de feitelijke vragen op het terrein van de staatssecretaris van Financiën namens hem beantwoorden.

[0:01:17] En voor de meer inhoudelijke vragen zal hij de staatssecretaris van Financiën vragen... om die schriftelijk te beantwoorden met uw welbevinden.

[0:01:24] En dan is ook nog aangeschoven Mevrouw Katman van GroenLinks Partij voor de Arbeid.

[0:01:30] Het belooft een leuk debat te worden.

[0:01:32] We hebben vijf minuten spreektijd per persoon.

[0:01:36] Dat is behoorlijk wat spreektijd, dus doe er uw voordeel mee.

[0:01:39] En dan zal ik als eerste het woord willen geven aan de heer Seeks-Dijkstra.

[0:01:42] Maar nog één mededeling.

[0:01:44] We hebben voor de eerste termijn Kamer een aantal interrupties van vier.

[0:01:48] Dus dat is inclusief de vervolgvragen.

[0:01:51] En dan geef ik het woord aan de heer Seeks-Dijkstra.

[0:01:53] Dank voorzitter.

[0:01:55] Voorzitter, kent de staatssecretaris van justitie de film Minority Report?

[0:01:59] Dit is een science fiction film uit 2002 over een politiestaat waarin van tevoren voorspeld wordt welke mensen een misdaad zullen plegen en deze daarom preventief gearresteerd worden.

[0:02:09] Net als elk dystopisch verhaal is deze bedoeld als waarschuwing, niet als handleiding.

[0:02:13] Ik moest niet geheel toevallig aan deze film denken toen ik las over preselect recidive.

[0:02:18] Het algoritme van het openbaar ministerie dat de kans inschat dat een jongere recidiveert nadat hij in aanraking is gekomen met de politie.

[0:02:25] Maar waar de drie orakels uit Minority Report tenminste nog accurate voorspellingen deden, is het algoritme zeer foutgevoelig.

[0:02:31] En dat terwijl het zomaar het verschil kan maken tussen of een jongere naar bureau Halt moet...

[0:02:36] of strafrechtelijk vervolgd wordt en mogelijk een strafblad krijgt.

[0:02:40] Bovendien worden betrokkenen niet eens geïnformeerd over het bestaan van dit algoritme.

[0:02:43] Laat staan de uitkomst ervan.

[0:02:45] Is de staatssecretaris met mij eens dat dit rechtsongelijkheid in de hand werkt?

[0:02:49] Voorzitter, ja.

[0:02:50] De Nederlandse overheid mag wettelijk gezien met behulp van algoritme aan risicoselectie doen.

[0:02:55] Daar is de autoriteit persoonsgegevens ook duidelijk over in zijn advies aan de regering.

[0:02:59] Maar dit mag enkel als er passende maatregelen getroffen worden.

[0:03:02] Zo niet, dan wordt gewoon de wet overtreden.

[0:03:05] Ik hoor graag van de staatssecretaris van JNV welke door de AP genoemde maatregelen getroffen zijn in het geval van preselect recidive en aanverwante algoritme.

[0:03:14] Op welke manier wordt onderzocht of er sprake is van discriminatie en willekeur bij het gebruik van risicoprofileringsalgoritme en hoe periodiek gebeurt dit?

[0:03:22] Heeft hij een aanpak voor hoe hij discriminatie en willekeur gaat uitsluiten?

[0:03:25] Worden er al concrete stappen ondernomen om burgers proactief te informeren over hun betrokkenheid bij algoritmische risicoselectie?

[0:03:32] Welke zijn dit en worden burgers gewezen op hun rechten?

[0:03:35] Voorzitter, het probleem is natuurlijk veel breder dan het ene algoritme.

[0:03:39] De regering geeft aan geen separate inventarisatie van risicoprofileringsalgoritme te organiseren.

[0:03:45] Nu vastgesteld is dat deze niet automatisch in strijd zijn met de wet.

[0:03:49] Dat snap ik, maar het is niet zo dat alle overige algoritme automatisch wel wetmatig zijn.

[0:03:54] Wordt bijvoorbeeld overheidsbreed aan alle door de AP genoemde maatregelen voldaan, vraagt de regering.

[0:03:58] Ik som ze op.

[0:03:59] A. Er moeten passende wiskundige en statistische procedures worden gehanteerd.

[0:04:04] B. Er moeten technische en organisatorische maatregelen worden getroffen waarmee het risico op fouten wordt geminimaliseerd en onjuistheden worden gecorrigeerd.

[0:04:12] C. Persoonsgegevens moeten zodanig worden bewaard dat rekening wordt gehouden met de potentiële risico's voor de belangen en rechten van de betrokkenen en discriminerende gevolgen worden voorkomen.

[0:04:21] D. Burgers hebben recht op menselijke tussenkomst.

[0:04:24] Recht om hun standpunt kenbaar te maken en recht om de beslissing aan te vechten.

[0:04:28] Aangezien er geen algemene inventarisatie komt... wil ik wel een overheidsbreed overzicht van de risicoprofilingsalgoritme... die niet aan deze eisen voldoen en het tijdspad wanneer dit gerepareerd wordt.

[0:04:38] Kan het kabinet dit toezeggen?

[0:04:40] Voorzitter, reeds vorig jaar april heeft de regering het lid Palmen de toezegging gedaan... de resultaten van een onderzoek naar het effect van risicoselectie en a-selecte steekproeven op te sturen.

[0:04:50] Wanneer kan de Kamer deze ontvangen?

[0:04:52] Het hoofdlijnakkoord heeft bepaald dat er een verplichte wetenschappelijke standaard... voor de inzet van algoritme en modellen komt.

[0:04:58] En beide moeten openbaar en navolgbaar zijn.

[0:05:00] De bijsluiter maakt duidelijk waarvoor ze wel en waarvoor ze niet bedoeld zijn en gebruikt kunnen worden.

[0:05:04] Dit is vorige week nogmaals bekrachtigd met de aangenomen Kamermotie Omtzigt-Zixdijkstra...

[0:05:10] Ik merk nog niet heel veel enthousiasme bij de regering om hiermee aan de slag te gaan.

[0:05:14] En ik hoor dan ook graag van de regering hoe en wanneer ze deze ontradenmotie gaat uitvoeren.

[0:05:19] Voorzitter, ik rond af.

[0:05:21] De Nederlandse overheid heeft een hardnekkig geloof in data en modellen als oplossing voor alle problemen.

[0:05:25] En als ooit ergens een keer in dit land iets onvoorspelbaars gebeurt... dan wordt stevast de schuld gegeven aan het feit dat er te weinig gegevens over burgers gedeeld mochten worden.

[0:05:33] De AVG wordt dan vooral gezien als irritant en privacy als nice to have in plaats van als grondrecht.

[0:05:38] En het celotisme dat koste van kost iedere fraudeur in het vizier moest zijn... heeft in het verleden al te veel onschuldige mensen diep in de problemen gebracht.

[0:05:47] Daarom wil ik tot slot de beide staatssecretarissen vragen... welk mensbeeld zij vinden dat achter risicoselectie van de overheid moet zitten.

[0:05:53] En dit bedoel ik als serieuze vraag.

[0:05:55] Zijn mensen meer dan datapunten en de relaties daartussen?

[0:05:58] Dat over groepen mensen statistische voorspellingen te doen zijn, dat lijkt me niet zo controversieel.

[0:06:03] Maar geloven zij werkelijk dat het toekomstig gedrag van individuen te vangen is in voorspellende algoritme?

[0:06:08] En zo niet, welke gevolgen verbinden ze daaraan concreet in hun beleid?

[0:06:12] Dank u wel.

[0:06:13] Dank, heer Siks-Dijkstra, voor uw inbreng.

[0:06:15] Dan heeft u een interruptie van de heer Erken van Denk.

[0:06:18] Ja, voorzitter, dank u wel.

[0:06:19] Ik hoor een aantal goede punten die collega Siks-Dijkstra inbrengt.

[0:06:24] En waar ik eigenlijk in aanloop naar dit debat zelf ook een beetje mee bezig was, is of...

[0:06:29] we op dit moment in Nederland een situatie hebben... waarbij er sprake is van goede wetgeving... dus wetgeving waarbij voldoende waarborgen zijn... en of het slechts een uitvoeringskwestie is.

[0:06:40] Dus mijn vraag aan de heer Six Dijkstra is, voorzitter... of wij van mening is dat we in Nederland op dit moment... als het gaat om het toepassen van algoritme, al dan niet geautomatiseerd... op dit moment sprake is van, laat ik zeggen... voldoende kwalitatieve wettelijke borging.

[0:06:58] Het woord is aan de heer Sikstekstra.

[0:07:00] Ik dank de heer Ergin voor zijn vraag.

[0:07:03] Ik denk ten dele.

[0:07:04] In zekere zin, de AP legt hier ook risico-selectie-algoritme duidelijk uit... van er moeten bepaalde voorwaarden aan gesteld worden.

[0:07:14] En ik zie nog te weinig, eigenlijk zelden, dat al die voorwaarden...

[0:07:18] En dan hebben we het gewoon over de AVG en een duidelijke uitleg van de AVG.

[0:07:22] En wat dat betreft is de AVG best een sterke wet en kan dat best een goede basis dienen, in elk geval wel als het gaat om risicoselectie.

[0:07:30] Geel toevallig ben ik zelf ook in de voorbereidende fase van een initiatiefwet voor het wettelijk vastleggen van een publieke standaard voor risicoprofileringsalgoritme.

[0:07:40] Wat dan gaat om een kwalitatieve toets en een kwantitatieve toets.

[0:07:43] Ik denk dat dat echt een goede toevoering kan zijn.

[0:07:45] Dat je ook heel duidelijk overheidsdepartementen kan houden aan dat zij altijd zullen toetsen.

[0:07:52] Of iets wel voldoet aan de standaard die nodig is om bijvoorbeeld discriminatie uit te sluiten.

[0:07:57] Dus ik denk dat er zeker nog verbetering mogelijk is.

[0:08:01] Nog een vervolgvraag?

[0:08:02] Ja, zeker.

[0:08:03] Aangezien collega Six Danestar bezig is met een initiatiefwetgeving... ga ik ervan uit dat zijn conclusie is dat er onvoldoende is... of dat er meer kan of beter kan.

[0:08:15] Waar ik bijvoorbeeld mee zat is, als het gaat om het SUFA-arrest... maar ook als het gaat om het advies van AP... is dat er wordt gezegd, geautomatiseerde selectie...

[0:08:27] Het mag tenzij er sprake is van wat was het betekenisvolle menselijke tussenkomst.

[0:08:32] En ik heb eigenlijk nergens in de stukken of in de wetgeving of in richtlijnen of in die handreikingen die door de voorgaande staatssecretaris zijn opgesteld, heb ik niet kunnen achterhalen wat dat nou precies betekent.

[0:08:46] Zou de heer Siks-Dijkstra mij wijze kunnen maken daarover?

[0:08:49] Wat betekent betekenisvolle menselijke tussenkomst en hoe en door wie kan dat getoetst worden?

[0:08:56] Het woord is aan de heer Stierk Stijkstra.

[0:08:57] U vraagt de heer Ergin mij om een uitleg van de AVG.

[0:09:00] Dit gaat om artikel 22 van de AVG.

[0:09:04] Als het gaat om bepaalde voorwaarden waar aan voldaan moest worden.

[0:09:06] Dit is inderdaad eentje die hij noemt.

[0:09:08] Verder zijn andere zaken, ik heb er ook al een aantal genoemd.

[0:09:10] Passende wiskundige en statistische procedures.

[0:09:12] Een manier van bewaren van persoonsgegevens.

[0:09:16] Ook het recht om standpuntkenbaar te maken en beslissing aan te vechten.

[0:09:21] Een betekenisvolle menselijke tussenkomst betekent dat het niet volledig geautomatiseerd mag zijn.

[0:09:25] Dus dat als een algoritme wordt toegepast, dat dat niet tot gevolg mag hebben dat het duidelijke rechtsgevolgen heeft voor mensen, zonder dat er een mens naar gekeken heeft en zonder dat iemand zich daarop kan beroepen.

[0:09:38] Dat is in elk geval hoe de AVG uitlegt en die kan ik in principe goed volgen.

[0:09:45] Dan dank ik de heer Siks-Dijkstra voor zijn bijdrage.

[0:09:47] En dan gaan we door naar de heer Ergen van Denk voor zijn bijdrage.

[0:09:51] Voorzitter, dank je wel.

[0:09:52] We zagen deze week met DeepSeek dat de technologische ontwikkelingen vliegensvlug elkaar opvolgen.

[0:09:58] In de techsector praten ze over een wonder in de AI-wereld.

[0:10:01] En steeds meer zien we hoe bepalender AI wordt in het dagelijks leven.

[0:10:06] Nou, AI en algoritme zijn natuurlijk niet exact de tweezelfde dingen.

[0:10:10] Maar we kunnen in ieder geval wel spreken, voorzitter, dat als het gaat om algoritme... we bij de Rijksoverheid niet kunnen spreken van een wonder.

[0:10:17] Bijvoorbeeld bij het openbare algoritmeregister.

[0:10:20] Dat werd na de toeslagenmisdaad geopend en vorig jaar bleek dat slechts 5%...

[0:10:24] van de systemen in het register waren opgenomen.

[0:10:27] En ik zou aan de staatssecretaris willen vragen... we zijn een paar maanden verder, hoeveel procent is dat nu?

[0:10:33] En in de beantwoording van de schriftelijke vragen die ook laatst zijn gekomen... die ook laatst zijn beantwoord... geeft de staatssecretaris aan dat eind 2025... alle hoogrisico-algoritme opgenomen zullen zijn.

[0:10:45] En voorzitter, dat denkt mij wel bij het punt... of de staatssecretaris de boel niet aan het vooruit schrijft.

[0:10:51] Want al vijf jaar...

[0:10:53] hebben we een register, of althans de intentie.

[0:10:55] Het register kwam er iets later.

[0:10:57] En al vijf jaar horen we, ja, maar dan gaan we het regelen.

[0:10:59] En nu is het weer een datum waar de commissie op moet wachten.

[0:11:03] En kan de staatssecretaris bijvoorbeeld niet aangeven... waar we staan als het bijvoorbeeld in mei of juni is?

[0:11:08] Dan zitten we op de helft van het jaar... en dan kunnen we misschien hopelijk ook vooruitgang zien.

[0:11:13] Ik zou graag van de staatssecretaris willen horen... welk percentage we dan zouden kunnen verwachten.

[0:11:22] Het punt over de geautomatiseerde selectie.

[0:11:25] Want in de brief geeft de staatssecretaris aan dat er geen wettelijke grondslagen ontbreken voor een geautomatiseerde selectie.

[0:11:33] En ik zie wel in het advies van het AP een hele grote maar.

[0:11:36] En die maar is de betekenisvolle menselijke tussenkomst.

[0:11:41] En eigenlijk ga ik de vraag die ik aan de heer Six Dijkstra heb gesteld ook aan de minister, aan de staatssecretaris stellen.

[0:11:47] Wat begrijpt hij daar nou hieronder en wat moeten nou mensen in het land daaronder begrijpen?

[0:11:53] Want we zien bijvoorbeeld in het Shufa-arrest, maar de landsadvocaat die verwijst daar ook naar, dat ook met menselijke tussenkomst er heel veel risico's zijn.

[0:12:01] En hoe gaan we die risico's nou mijden?

[0:12:04] En kiest het kabinet door het AP-advies één op één over te nemen... niet voor een rijmere interpretatie dan een schoefa-arrest... wat in principe ook gewoon in ieder geval een rechterlijke uitspraak is.

[0:12:20] Voorzitter, over transparantie, echte transparantie, kunnen we niet spreken.

[0:12:24] Hopelijk gaat het wel gebeuren.

[0:12:26] Maar we zien dat we in de huidige wetgeving er op dit moment... onvoldoende waarborgen zijn als het gaat om algoritme.

[0:12:34] En dat was volgens mij de reden waarom in het regeerakkoord ook stond dat er een nieuwe wet zou komen.

[0:12:39] En hoe staat dat nou met het wetsvoorstel, zou ik aan de staatssecretaris willen vragen.

[0:12:45] En waarom kiest het kabinet er nou voor om op basis van het AP-advies, dat eigenlijk om een meer principiële vraag gaat om geautomatiseerde selectie, opeens niet de lijst van mogelijk illegale algoritme openbaren?

[0:12:58] Kunnen we die lijst gewoon niet krijgen, aangezien ik ervan uitgaaf, voorzitter, dat de staatssecretaris niks te verbergen heeft?

[0:13:07] Voorzitter, dan mijn punt over de motie van 2021... waar het ADR inmiddels ook onderzoek naar heeft gedaan.

[0:13:15] Ik noem even drie punten uit het ADR-onderzoek... waaruit blijkt dat als het gaat om datavervuiling en algoritme... dat een aantal zaken gewoon niet goed geregeld zijn.

[0:13:24] Bij buitenlandse zaken zien wij bijvoorbeeld... dat er niet is gekeken naar gegevens over etniciteit en geboortepraat.

[0:13:31] Bij binnenlandse zaken...

[0:13:33] is er geen toets uitgevoerd naar volledigheid en juistheid.

[0:13:36] Bij VWS is nondiscriminatie niet eens uitgevraagd.

[0:13:41] En bij OCW zijn niet eens alle aan het ministerie verwante organisaties betrokken geweest.

[0:13:46] En daarom vraag ik aan de staatssecretaris, kijkend naar de rapporten van onderzoeken van ADR... of hij nou tevreden is met de operatie datavervuiling of het herstellen van datavervuiling, et cetera.

[0:14:00] Voorzitter, dan nog meer een filosofische vraag... misschien ook gericht naar de staatssecretaris van Justitie en Veiligheid.

[0:14:09] Dat we bij de overheid eigenlijk een trend zien... waarbij we algoritme inzetten als het gaat om fraudebestrijding.

[0:14:14] We zetten algoritme vaak in als het gaat om mensen te bestraffen... of om misstanden op te sporen.

[0:14:20] En toch in mindere mate om mensen te helpen.

[0:14:23] En ik ben benieuwd hoe de staatssecretaris kijkt... naar het inzetten van algoritme om mensen te helpen...

[0:14:29] En niet om mensen te bestraffen of bijvoorbeeld AI inzetten of algoritme inzetten.

[0:14:34] Om juist de risico's van algoritme beter op te sporen.

[0:14:38] Dank u wel, voorzitter.

[0:14:40] Dank, heer Ergin.

[0:14:41] En dan heeft u nog een interruptie van de heer Siks-Dijkstra.

[0:14:44] Ja, dank, voorzitter.

[0:14:44] Ik wil eigenlijk de vraag die de heer Ergin aan mij stelde ook even terug... Mag u heel even de microfoon uitzetten.

[0:14:52] Ja, heel goed.

[0:14:53] Die wil ik ook even terugkaatsen, want in principe de AP geeft in zijn advies aan, als het gaat om het Shoefa-arrest, er is geen aanvullende wetgeving nodig.

[0:15:03] In principe gaat het om de uitleg van de wetgeving en je moet de goede waarborgen omheen doen.

[0:15:07] Maar ik merk ook een beetje aan de vragen die de heer Ergin stelde, dat hij wel voorsorteert op dat er hier specifiek aanvullende wetgeving zou moeten komen.

[0:15:13] Dan ben ik wel benieuwd hoe ziet hij dat voor zich en wat zou er dan moeten komen wat er momenteel nog niet is.

[0:15:18] Het woord is aan de heer Erken.

[0:15:19] Dank u wel, voorzitter.

[0:15:21] Volgens mij moeten we om te beginnen, als het gaat om toepassing van algoritme door bijvoorbeeld de Rijksoverheid, moeten we duidelijke grenzen inbouwen.

[0:15:30] Bijvoorbeeld, mijn fractie heeft eerder geopperd om het gebruiken van etniciteit en geboorteplaats bijvoorbeeld niet meer te doen.

[0:15:40] We hebben een aantal adviezen gezien.

[0:15:43] Die heb ik vanuit mijn andere commissiewerkzaamheden, namelijk bij OCW.

[0:15:47] Daar is er door, volgens mij, Algorithm Audit, een onderzoek gedaan naar indirecte discriminatie bij DUO.

[0:15:55] In dat rapport staan een aantal hele concrete punten die gaan als het gaat om het beperken van de toepassing van algoritme.

[0:16:03] Voorzitter, waar ik bang voor ben, is dat we... Ik begrijp deze juridische discussie op zich wel.

[0:16:10] Ook hoe het AP bredeneert als het gaat om het vraagstuk van geautomatiseerde selectie.

[0:16:17] Maar hoe gaat een burger nou inzien dat hij of zij door een automatische algoritme is getrokken?

[0:16:26] Dat is op dit moment niet aan de orde.

[0:16:27] Het AP heeft bijvoorbeeld eerder geadviseerd om bij iedere beschikking standaard op te nemen dat er gebruik is gemaakt van een algoritme.

[0:16:34] Dat zie ik nog steeds niet gebeuren.

[0:16:36] Dat zou bijvoorbeeld een concrete maatregel kunnen zijn.

[0:16:38] En zo kan ik er een aantal opzommen.

[0:16:42] Maar volgens mij geef ik dan ook input aan zijn initiatiefvoorstel.

[0:16:45] Dat is op zich prima, maar dan moeten we er misschien samen aan gaan zitten.

[0:16:49] Dan heeft u nog een vervolgvraag van de heer Singsdijkstra, die ongetwijfeld gaat verwijzen naar... Oh nee, ik bemoei me daar niet mee.

[0:16:55] De heer Singsdijkstra.

[0:16:56] Dank u wel, voorzitter.

[0:16:57] De heer Erkenen, ik ga sowieso nog een keer koffie drinken, dat hoor ik al.

[0:17:01] Dan is mijn vraag van, in principe, de AP geeft aan dat onder de huidige uitleg van de AVG dat al moet.

[0:17:06] Kijk, dat de regering dat bijna nooit doet, daar heb ik ook een probleem mee.

[0:17:09] Mevrouw Kapman neemt nog een aangehouden motie over.

[0:17:12] In principe de burger moet onder de AVG wel weten... wanneer er deels algoritmische besluitvorming over hem plaatsvindt.

[0:17:20] En op dat punt heb ik een beetje aarzelingen om dan nieuwe wetgeving in te bouwen... aangezien er nu al heel veel compliancyproblemen zijn.

[0:17:26] Dus wat is daar de gedachte van de heer Ergin over?

[0:17:30] Het woord is aan de heer Erken.

[0:17:31] Daarbij prefereert mijn fractie bijvoorbeeld een waarborg tenzij aanpak.

[0:17:39] Dus of je hebt je waarborgen in orde.

[0:17:42] En als dat niet het geval is, dan mag je als overheid geen gebruik maken van algoritme.

[0:17:47] En je zou kunnen zeggen op basis van de huidige wet en regelgeving dat dat al zou moeten kunnen.

[0:17:53] Maar dat gebeurt niet.

[0:17:54] Dat betekent dat we als Kamer moeten sturen.

[0:17:56] En onze rol daarbij is, als het op basis van de huidige regelgeving niet kan... om ervoor te zorgen dat het eigenlijk voor deze staatssecretaris... en in principe niet per se voor de staatssecretaris, maar voor alle uitvoerende organisaties... het moeilijker moet maken om leuker te kunnen werken met algoritme...

[0:18:13] Zonder daar voldoende waarborgen in te bouwen.

[0:18:16] En volgens mijn fractie moeten wij, volgens DENK moeten we daar echt wel nu stappen in maken.

[0:18:22] Dat zou bijvoorbeeld kunnen met het initiatiefvoorstel.

[0:18:24] Maar volgens mij heeft het kabinet ook een wetsvoorstel aangekondigd waar we dat in zouden kunnen bouwen.

[0:18:31] En u kunt ervan uitgaan dat wij bij alle wetgeving die eraan komt amendementen zullen indienen.

[0:18:38] Die ervoor zorgt dat we eigenlijk een grens toevoegen.

[0:18:42] En die grens is of je hebt alles in orde of er geldt gewoon een keiharde verbod om algoritme toe te passen.

[0:18:51] Dan kijk ik nog even of er verdere interrupties zijn.

[0:18:54] Die zijn er niet.

[0:18:54] Dank ik de heer Ergen voor zijn bijdrage.

[0:18:56] Het kopje koffie met de heer Syster Extra staat.

[0:18:58] En dan geef ik het woord aan mevrouw Koekoek voor haar inbreng namens de partij Volt.

[0:19:04] Dank voorzitter.

[0:19:06] Voorzitter, de nieuwskoppen die liegen niet.

[0:19:08] Onbetrouwbaar algoritme bestempelt jongeren als toekomstig crimineel.

[0:19:12] Roekeloze risicoprovalering.

[0:19:14] Studenten in Nederland geschaad door discriminerende fraudeaanpak.

[0:19:17] Grote zorgen om gezichtskens door gemeentes bij aanvraag paspoorten en ID-kaart.

[0:19:23] In de Kamer wordt de urgentie gevoeld dat we hier iets aan moeten doen.

[0:19:27] En op het ministerie weet ik dat ook.

[0:19:28] Maar ik zie dat nog niet terug in de acties van dit kabinet.

[0:19:32] Want ja, in het hoofdlijnakkoord en ook in het Ripperen wordt gezegd... we willen transparantie, we willen discriminatie tegengaan.

[0:19:38] Maar in de praktijk zie ik er nog niet veel van.

[0:19:42] En dat is...

[0:19:43] Want ook bij mij bekropen de soort minority report vibes van collega Six Dijkstra mij toen ik las dat een algoritme je kan bestempelen als toekomstig crimineel.

[0:19:53] Zo'n wereld moeten we niet willen, voorzitter.

[0:19:55] En voorzitter, sinds Volt in de Kamer zit, en dat is inmiddels bijna vier jaar, pleiten we voor meer transparantie.

[0:20:01] Of het nou gaat over lobby, over hoe we in Europa handelen of over hoe we algoritmes gebruiken.

[0:20:06] Het gaat erom dat je laat zien waarom een beslissing genomen is en wie daar invloed op had.

[0:20:11] Dat basisprincipe, dat moeten we ook in de digitale ruimte willen handhaven.

[0:20:15] En er ligt al ruim drie jaar een aangename motie om het algoritmeregister verplicht te stellen voor overheden.

[0:20:22] En het antwoord daarop van het vorige kabinet, maar ook nu weer, is we kijken nog even.

[0:20:26] We wachten de AI-wet af.

[0:20:28] Er lijkt nog geen normzak te zijn.

[0:20:29] En voorzitter, die is er wel.

[0:20:31] Want het resultaat van VR-sukkelen is dat er weliswaar 600 algoritmen van de overheid geregistreerd staan.

[0:20:36] Maar dat is slechts 2% van de algoritmen die direct impact hebben op burgers.

[0:20:40] En even ter verduidelijking, die 600 algoritmes, dat is mooi.

[0:20:43] Maar het geschatte totaal door de overheid gebruikte algoritme wordt op 16.000 geschat.

[0:20:48] Dus het gaat, als ik het vriendelijk zeg, wat traag, voorzitter.

[0:20:52] Voorzitter, wat mij betreft gaan we het prioriteren.

[0:20:54] Want dit debat lijkt soms op een periodieke uitleg over de herhaling van zetten van het kabinet op het onderwerp.

[0:21:00] En ik had vorige week al een voorproefje, dus ik heb hier een aantal vragen die de staatssecretaris waarschijnlijk gaat herkennen.

[0:21:06] Is de staatssecretaris het met mij eens dat iedereen die zich in Nederland bevindt inzage moet kunnen hebben in de informatie en algoritmes die door de overheid worden gebruikt, wanneer zij daardoor worden geraakt?

[0:21:15] En is de staatssecretaris het met mij eens dat het algoritme register daar een essentiële rol in speelt, maar dat het register tot nu toe onvoldoende gevuld is.

[0:21:23] En is de staatssecretaris het met mij eens dat we de positie van de burger ten opzichte van de overheid moeten versterken door het vermelden van algoritmes in het algoritme register voor overheden wettelijk te verplichten.

[0:21:34] En tot slot is de staatssecretaris, of ja, voor dit blokje dan, is de staatssecretaris bij mij eens dat burgers, wanneer een overheidsbesluit wordt genomen, dat hen raakt, bij dat besluit informatie moet worden ontvangen over of, en zo ja, welke vormen van algoritme of geautomatiseerde besluitvorming daarbij hebben plaatsgevonden.

[0:21:51] En eigenlijk vraag ik dan ook aan de staatssecretaris of hij bereid is te voorstellen...

[0:21:54] ...van het College van de Rechten van de Mensen en de Open State Foundation over te nemen.

[0:21:58] Want daar zijn onlangs twee rapporten van verschenen en die geven dit ook duidelijk aan.

[0:22:02] Juist om dat inzicht te geven.

[0:22:03] En als de staatssecretaris het daar niet mee eens is, dan wil ik hem vragen hoe dit zich verhoudt... ...tot de motiveringsplicht in de herziene versie van de Algemene Wet Bestuursrecht.

[0:22:14] Deze Kamer en het kabinet delen de ambitie om de relatie tussen de overheid en de burger te versterken.

[0:22:18] Dat betekent dat we overheden weerbaarder maken en de overheid minder data-hongerig.

[0:22:22] We hebben gezien dat meer data en automatisering niet altijd tot een betere uitvoering en beleid leidt.

[0:22:28] De minister van Binnenlandse Zaken gaf in antwoorden aan mij aan dat er sprake kan zijn van institutioneel racisme in de digitale sfeer.

[0:22:35] En dat dit doorgaat systemen betreffen die gericht waren of zijn op selectiebeslissingen en risicoprofileren.

[0:22:40] En ze gaf ook aan dat de overheid zich vaker onbewust van is dat in de bouw van een model iets niet klopt.

[0:22:46] Of dat men te laat in de gaten heeft wat de onbedoelde gevolgen zijn.

[0:22:51] Kan de staatssecretaris mij daarom aangeven hoe het gaat met de aanpak hiervan, juist ook met die onbedoelde effecten?

[0:22:56] En de minister van Binnenlandse Zaken gaf aan dat daar gewerkt werd, maar ik ben dus benieuwd hoe het met de voortgang daarmee staat.

[0:23:02] Hebben wij nou voldoende zicht op waar de risico's zich bevinden en zijn we ook bereid, of is het kabinet bereid, om algoritmes openbaar te maken waar mogelijk, zodat niet alleen interne controle plaatsvindt, maar ook door wetenschappers en journalisten meegekeken kan worden?

[0:23:15] Voorzitter, dan heb ik nog een vraag over de financiering van de autoriteitspersoonsgegevens.

[0:23:20] Dit blijkt een heikel punt.

[0:23:22] In meerdere debatten hebben we te horen gekregen van het kabinet... dat het kabinet van mening is dat er nu voldoende financiële middelen naar het AB gaan.

[0:23:31] AP stelt nee.

[0:23:33] En om nou te voorkomen dat we in zo'n welisnietespel of gesprek blijven vastzitten, zou ik aan de staatssecretaris willen vragen, kan ook schriftelijk, of hij het een wil zetten van wat nou voldoende middelen zijn bij de AP.

[0:23:44] En dan ook concreet ingaan waarom het kabinet van mening is.

[0:23:48] Want anders dan blijven we denk ik in zo'n padstelling zitten.

[0:23:51] En voorzitter, tot slot een uitsmijter als dat nog kan in de tijd.

[0:23:54] Want ik zou niet vervolgd zijn als ik niet ook een Europese invalshoek zou inbrengen.

[0:23:58] Mijn partij is van mening dat alle algoritmes en datasets die met overheidsgeld ontwikkeld zijn... gratis beschikbaar moeten worden gesteld voor iedereen in de Europese Unie.

[0:24:06] Dus ook nog een laatste vraag aan de staatssecretaris.

[0:24:08] Deelt hij deze opvatting?

[0:24:09] En zo ja, welke inspanningen worden nu geleverd om dit al te bevorderen?

[0:24:13] Dank voorzitter.

[0:24:15] Dank voor uw bijdrage, mevrouw Koekoek.

[0:24:17] U bent net iets buiten de tijd.

[0:24:19] Alleen de vraag was net buiten de tijd.

[0:24:21] Maakt niet uit, hij wordt gewoon meegenomen.

[0:24:23] Ik kijk even naar mijn linkerzijde of er nog interrupties zijn.

[0:24:26] Die zijn er niet.

[0:24:26] Dan kunnen we meteen door naar de heer Buijsen van de Volkspartij van Vrijheid en Democratie voor zijn inbreng.

[0:24:32] Dank u wel, voorzitter.

[0:24:34] Algoritmes, net als ander gereedschap in de digitale wereld, zijn bedoeld om de dienstverlening van de overheid te ondersteunen en te verbeteren.

[0:24:41] En dat is in de basis een goede zaak, want hiermee maken we de overheid klantgerichter voor onze inwoners en ondernemers en efficiënter in de bedrijfsvoering.

[0:24:51] Maar, net als bij ieder voordeel, zijn er bij het gebruiken van technieken ook nadelen.

[0:24:58] Algoritmes kunnen bijvoorbeeld aan de hand van grootschalige selectiemethoden zodanig ingesteld worden dat ze discriminerende of bevooroordeelde besluiten nemen.

[0:25:07] Het toeslagenschandaal is misschien wel het beste voorbeeld waar dit is gebeurd.

[0:25:11] Als het dan misgaat bij algoritmes, dan is het belangrijk dat vanuit een transparante instructie er teruggezocht kan worden waar het fout is gegaan.

[0:25:19] Er zijn voorbeelden genoeg waardoor een gebrek aan transparantie te lang het algoritme haar besluit heeft kunnen nemen met grote gevolgen voor mensen.

[0:25:27] Het is daarnaast ook belangrijk om menselijk handelen in de besluitvormingssystemen in te bouwen en niet te afhankelijk te worden van algoritmes.

[0:25:38] Voorzitter, het speerpunt voor de VVD voor vandaag is om aandacht te vragen voor het ontwerpproces van digitale overheidsdiensten.

[0:25:47] Om het niet mis te laten gaan met digitale technieken, vindt de VVD het belangrijk dat er nauwgezet gekeken wordt naar het ontwerpproces van digitale overheidsdiensten.

[0:25:56] Wij vinden dat diensten ontwikkeld moeten worden vanuit de behoeften van inwoners en ondernemers en rekening houdend met mogelijke ethische risico's.

[0:26:06] Ook ervaringsdeskundigen kunnen enorm van dienst zijn

[0:26:10] gedurende ontwerpprocessen.

[0:26:11] Dit met het doel te komen tot een betrouwbare en voor inwoners tevredenstellende dienstverlening.

[0:26:17] Algoritmes kunnen hier, net als andere technologieën zoals cloud of AI, bij gebruikt worden.

[0:26:23] VfD maakt zich zorgen dat er in de ontwerpprocedures van overheidsdiensten geen gemeenschappelijke taal bestaat bij overheden.

[0:26:31] Nationaal en lokaal.

[0:26:33] We zien eilanden die steeds zelf hun eigen procedures en methoden gebruiken om diensten te ontwerpen en in te richten.

[0:26:39] En als het dan fout gaat, dan worden de pleisters geplakt door een ethische commissie hier en een strategie daar.

[0:26:47] Te vaak zien we dat we daarbij afhankelijk zijn van duren, zeg ik tussen haakjes, consultants van buitenaf.

[0:26:55] Zijn de ontwerpprincipes voor diensten bij bijvoorbeeld de Belastingdienst dezelfde als bij het ministerie van Financiën?

[0:27:01] Of bij het CBR een waterschap, gemeente Amsterdam of in mijn eigen gemeente Boekel?

[0:27:09] Dezelfde gemeenschappelijke taal spreken is van groot belang om risico's te beperken.

[0:27:14] Alleen vanuit dat startpunt kun je met zekerheid vaststellen dat we uniform over alle diensten van de overheden heen onze inwoners en ondernemers centraal stellen.

[0:27:23] VVD vindt het daarom niet afdoende om in dit debat alleen over het het-algoritme of de-ethiek te spreken.

[0:27:31] Het gaat wat ons betreft om op de mensgerichte dienstverlening waar algoritmes of mogelijk andere technologieën waar ethische risico's bij komen kijken, zoals cloud of AI, deel van uitmaken.

[0:27:43] Wie ziet er toe op het gebruik van ontwerpprincipes van digitale overheidsdiensten?

[0:27:48] Kan de staatssecretaris reflecteren op de ontwerpprocessen van diensten waar algoritmes bij gebruikt worden?

[0:27:54] Waar gaat het goed en waar kan het beter?

[0:27:57] Zijn er goede ervaringen al opgedaan met het gebruik van die ervaringsdeskundigen?

[0:28:01] Hierop voortbedurend kan dan gesteld worden dat de informatie die bijgehouden wordt in het algoritmeregister afdoende is.

[0:28:08] Of zijn er verbeterpunten.

[0:28:10] En kan de staatssecretaris ook duiden wat dit betekent voor de nationale digitaliseringstrategie waar momenteel hard aan wordt gewerkt.

[0:28:17] Dank u wel.

[0:28:19] Dan dank ik de heer Buijsen voor zijn inbreng.

[0:28:21] Kijk even naar de collega's en dan zie ik dat er een interruptie is van mevrouw Kapman.

[0:28:26] Ja, dank, voorzitter.

[0:28:28] Ik heb wel een vraag aan de heer Buijsen.

[0:28:31] Ik denk dat we elkaar wel vinden... zeker als er woorden in de mond worden genomen... van op de mensgerichte dienstverlening.

[0:28:36] Want dat is eigenlijk waar dit over gaat.

[0:28:39] En vaak belanden we dan in allemaal digitaal jargon...

[0:28:43] Waar we allemaal niks meer van snappen.

[0:28:46] En ik kan het ook zeer waarderen dat de coalitie waar de VVD onderdeel van uitmaakt... ook gewoon in het regeerprogramma heeft opgenomen dat de overheid transparant moet zijn over algoritme.

[0:29:02] En dat er ook gewoon is opgenomen dat er bezwaar gemaakt moet worden.

[0:29:06] En de heer Siks-Dijkstra refereerde net al even aan... wij willen nogmaals het voorstel doen... om ervoor te zorgen dat in elke brief die iemand krijgt... omdat er een risicoselectie is gedaan, dat expliciet wordt gemaakt... dat dat is gebeurd en hoe dat is gebeurd, dat dat algoritme wordt genoemd... maar ook dat gelijk wordt gekeken naar... hier kun je meer informatie inwinnen of hier kun je bezwaar maken.

[0:29:30] Kan de VVD dit voorstel steunen?

[0:29:34] Het woord is aan de heer Buijsen.

[0:29:37] Nou ja, dankjewel mevrouw Kaltman.

[0:29:40] Het is inderdaad goed dat u het even aanstipt dat digitale zaken vaak omgeven is met de digitale jargon, zoals u dat terecht benoemt.

[0:29:48] En ook voor ons is het de kunst om de taal waarmee wij onze inwoners aanspreken.

[0:29:53] En uiteindelijk gaat het dus om die op de mens gerichte dienstverlening van onze overheid.

[0:29:56] En zeker als het gaat over de digitale dienstverlening.

[0:29:59] Dus het is goed om dat te blijven benadrukken.

[0:30:03] En als het over de motie gaat.

[0:30:04] Ik ken de motie niet zoals u die beschrijft.

[0:30:07] En ik ben natuurlijk bereid om die te bestuderen.

[0:30:10] En in de basis zie ik geen reden om daar negatief in te staan.

[0:30:14] Maar nogmaals, ik kan hier vanaf deze plek op dit moment geen toezeggingen doen.

[0:30:19] Dan is er nog een vervolgvraag van mevrouw Katman.

[0:30:22] Ja, want nu we elkaar toch zou kunnen vinden op de mensgerichte dienstverlening... zou ik ook graag van de VVD willen weten, voorzitter... hoe zij staan tegenover het vijfsterrenmodel voor algoritme... waar veel maatschappelijke organisaties met elkaar aan werken.

[0:30:39] En wat ze daarmee eigenlijk willen pogen, is dat we gaan van blackbox...

[0:30:42] naar transparante algoritmes, zoals ook in het regeerprogramma staat.

[0:30:46] Want op dit moment zijn ze gewoon niet transparant.

[0:30:49] En ook al hebben we dat register straks wel gevuld, wat nu al niet zo is... dan nog denkt iedereen, oké, leuk dat dat gevuld is, maar wat doet dat nou precies?

[0:30:57] Dat vijfsterrenmodel krijg je er één ster voor gepubliceerd... twee voor uitgelegd, drie voor gecontroleerd... vier voor testbaar, vijf voor open.

[0:31:05] En zo krijg je een heel model, wat eigenlijk best makkelijk werkt...

[0:31:09] wat veel makkelijker, veel transparanter is... en waar mensen ook veel meer van gaan snappen.

[0:31:13] Zowel de ambtenarij die ermee moet werken... als de burger die er heel veel last van kan hebben.

[0:31:19] Daar willen we ook een voorstel voor doen richting dat kabinet... om dit vijfsterrenmodel te gaan omarmen.

[0:31:25] Omdat we zien dat dat algoritmeregister niet voldoende is.

[0:31:29] Kan de VVD daarin meegaan?

[0:31:32] Het woord is aan de heer Buijsen.

[0:31:34] Dank je wel, voorzitter.

[0:31:36] Mijn standpunt gaat er eigenlijk heel erg over dat we naar ontwerpprocessen moeten voor die mensgerichte dienstverlening van de overheid.

[0:31:46] Dat gaat veel verder dan alleen SEC, het algoritme zelf.

[0:31:51] Dus nee, ik ben eigenlijk helemaal niet voorstander van een vijfsterrenmodel SEC... om de problematiek van ethiek rondom technologieën die wij gebruiken binnen de overheid tegemoet te treden.

[0:32:02] Ik denk dat we het breder moeten trekken.

[0:32:03] Ik wil daarmee niet zeggen dat die vijfsterrenmodel slecht is of zo.

[0:32:07] Alleen ik zou dat veel breder willen toepassen op ontwerpprocessen.

[0:32:10] Dus stel dat je die vijfsterren...

[0:32:13] ...toepast op het ontwerpprincipes... ...en van zijn de juiste principes toegepast... ...bij die complexe dienstverlening van de overheid... ...kijk, dan vind ik het heel interessant worden.

[0:32:22] Dus het gaat ook breder wat mij betreft dan dat.

[0:32:26] Dus ja, en ik hoor ook graag de reactie van de staatssecretaris in deze... ...op onder andere het vijfsterrenmodel... ...maar ik zou hem eigenlijk dus bij deze ook graag breder willen trekken... ...naar de hele ontwerpprocessen bij de dienstverlening.

[0:32:39] Dan dank ik u voor uw bijdrage.

[0:32:41] Ik zie verder geen interrupties meer.

[0:32:43] En dan geef ik het woord aan de heer Van Meer namens de BBB.

[0:32:47] Ja, dank u wel, voorzitter.

[0:32:49] Vandaag spreken we over het advies van de autoriteit persoonsgegevens... en de kabinetsreactie over geautomatiseerde selectie-instrumenten.

[0:32:56] En voor de toeschouwers van dit debat, die minder bekend zijn met dit soort zaken... dit zijn hulpmiddelen, die worden gebruikt om gegevens te selecteren... die vervolgens nog moeten worden gecontroleerd.

[0:33:07] En ik ga in mijn betoog in op het proces, de belangen van burgers... en op het algoritmeregister.

[0:33:14] Als ik voldoende tijd heb, tenminste.

[0:33:16] De Autoriteit Persoonsgegevens is gevraagd te adviseren over het gebruik van geautomatiseerde selectie- instrumenten en dan in het bijzonder over het gebruik ervan mag volgens de Algemene Verordening Gegevensbescherming, de AVG.

[0:33:29] Risicomodellen en selectiemodules zijn voorbeelden van selectie- instrumenten, automatische processen dus, waarbij BBB altijd waakzaam wil zijn voor de risico's.

[0:33:40] BBB vindt dat er hierbij veel oog moet zijn voor het belang van de vrijheid, de privacy en de veiligheid van onze burgers.

[0:33:48] We willen kunnen profiteren van de kansen die geautomatiseerde processen ons bieden.

[0:33:53] Dus daar liggen wel weer, met name ook voor de overheid, kansen.

[0:33:58] En we zien dat die haast noodzakelijk zijn bij belastingaangiftes en AOW-aanvragen.

[0:34:04] Tegelijkertijd moeten we ons bewust zijn van de mogelijke risico's en gevaren van oneigenlijk gebruik van alle mogelijkheden.

[0:34:11] BBB blijft daarom sturen op de juiste wetgeving en beveiligingsstandaarden om de vrijheid, privacy en veiligheid te waarborgen.

[0:34:19] En het is niet voor niets dat de Algemene Verordening Gegevensbescherming het nemen van besluiten verbiedt als deze uitsluitend zijn gebaseerd op een automatisch proces.

[0:34:30] Hier kunnen uitzonderingen opgemaakt worden als goed is gezorgd voor de belangen van betrokkenen.

[0:34:35] En we zien dat wat ons betreft de beoordeling waar we vandaag over spreken zorgvuldig gegaan lijkt te zijn.

[0:34:41] Maar dat zal ook in de praktijk moeten blijken.

[0:34:44] De Autoriteit Persoonsgegevens zegt dat er geen wetgeving nodig is voor het maken van geautomatiseerde selecties als deze pas gevolgen krijgen na menselijke tussenkomst.

[0:34:54] En daar werden al wat vragen over gesteld.

[0:34:56] Wat is dat dan?

[0:34:57] Het kabinet vindt op basis van deze uitspraak dat het proces in orde is.

[0:35:01] En daarom heeft het kabinet ook besloten om af te zien van een inventarisatie van mogelijke illegale algoritmes.

[0:35:08] Hier heeft BBB toch nog wat vragen bij.

[0:35:10] Betekent dit dat het kabinet vindt dat er helemaal geen illegale algoritmes meer zijn?

[0:35:16] En hoe kan ze dat met zekerheid zeggen?

[0:35:19] En automatische selecties worden dus als oké gezien als deze alleen maar worden gebruikt om te beoordelen of er verdere acties nodig zijn.

[0:35:28] Zelfs profilering is daarbij toegestaan, zolang die profilering maar geen invloed heeft op het besluit dat de mens neemt.

[0:35:36] Maar dat is een hele technische discussie.

[0:35:38] Hierbij de vraag aan de bewindspersonen, hoe kan dat dan worden vastgesteld?

[0:35:42] En hoe wordt bepaald dat profilering geen invloed heeft op het uiteindelijke menselijke besluit?

[0:35:50] En hoe gaan we om met vooroordelen bij menselijke tussenkomst?

[0:35:54] Want zo werkt ons brein wel.

[0:35:57] En we zijn heel vaak bang voor allerlei elektronische berichten en processen.

[0:36:02] Maar vandaag stond ook in de Telegraaf dat een postbode 9000 euro afhaalde van de uit de post geviste creditkaart van wielrenner Remco Evenepoel.

[0:36:13] Dus we moeten ook niet denken dat dit alleen maar speelt in automatische processen en in digitalisering, maar ook gewoon in het gedrag van mensen.

[0:36:22] Dus de menselijke tussenkomst is lang niet altijd een garantie voor een goed resultaat.

[0:36:28] Wat BBB hierbij goed nieuws vindt, is dat de overheid start met de analyse van selectie- instrumenten bij uitvoeringsorganisaties.

[0:36:36] En wij zien ook dat er ruimte is voor verbetering en aanscherping, zodat we de belangen van burgers, die ik eerder al benoemde, nog beter kunnen beschermen.

[0:36:45] Hierbij de vraag of inmiddels al duidelijk is of de staatssecretaris hierbij een coördinerende rol krijgt.

[0:36:51] En tot slot lezen we dat er zal worden doorgepakt met het algoritmeregister.

[0:36:57] Dit ontwikkelt zich vooralsnog moeizaam.

[0:37:00] Dat is hier al genoemd.

[0:00:00] 2% staat erin.

[0:37:03] De ambitie is nu uitgesproken dat aan het einde van dit jaar... alle departementen de hoogrisico AI-systemen geregistreerd hebben.

[0:37:11] Mijn vraag is, is de benodigde capaciteit hiervoor aanwezig?

[0:37:15] En wie bepaalt wat hoog risico is?

[0:37:17] En wat zijn de criteria daarvoor?

[0:37:20] Daarnaast de vraag aan de bewindspersonen hoe dit algoritmeregister zich verhoudt tot de diverse registers die al door gemeentes gemaakt zijn.

[0:37:29] En nog één kritische noot over dit soort registers.

[0:37:32] Ik omschrijf een algoritme maar even heel simpel als een oplossing voor een probleem, beschreven op een wiskundige manier.

[0:37:40] Waarbij het meestal gaat om zoek- en benaderingsalgoritme die we al tientallen jaren gebruiken.

[0:37:46] En mijn vraag is dan ook, gaat een dergelijk register wel zorgen voor de broodnodige transparantie?

[0:37:51] En is het hierbij niet noodzakelijk dat we ook de databases die worden gebruikt in kaart worden gebracht?

[0:37:58] Want als een gegeven niet van je bekend is, kun je er ook niet op beoordeeld worden.

[0:38:03] Graag een reactie.

[0:38:04] Dank u wel.

[0:38:06] Dank voor uw bijdrage.

[0:38:07] Het is net ietsje buiten de tijd.

[0:38:08] Ik heb nog even die vraag toegelaten, dus prima.

[0:38:12] Bedankt voor de coulance, voorzitter.

[0:38:14] Dan kijk ik even naar de zijde van de Kamer of er nog interrupties zijn.

[0:38:17] Die zijn er niet.

[0:38:18] Dan kunnen we direct door naar mevrouw Katman... die het woord zal voeren namens de partij GroenLinks PvdA.

[0:38:23] Dank, voorzitter.

[0:38:25] We digitaliseren ons de jantandjes in dit land.

[0:38:28] Met alle gevolgen van dien.

[0:38:29] De automatisering van belangrijke processen kent winnaars en verliezers.

[0:38:34] Winnaars aan de kant van de overheid voor wie het lekker efficiënt werken is, maar de burger verliest vaak.

[0:38:39] Hij verliest zijn recht om te weten hoe de overheid werkt en waarom keuzes worden gemaakt.

[0:38:43] Het algoritmebeleid van de overheid is een soort knutselwerk van papier en loze beloftes... dat instort als je er ook maar even kritisch naar kijkt.

[0:38:50] En dat zeg ik misschien een beetje hard... maar dat komt ook omdat ik de afgelopen tijd serieus schrik...

[0:38:56] van hoe slecht we het op orde hebben.

[0:38:58] We staan er een beetje bij en we kijken ernaar.

[0:39:00] Van de meeste AI-systemen binnen de overheid... hebben we geen idee of ze een risico zijn... en het algoritmeregister ligt stof te verzamelen.

[0:39:07] Slechts 2% van de algoritmes van de overheid staat erin... constateert de Open State Foundation.

[0:39:13] Het vullen van zo'n register is natuurlijk geen doel op zich.

[0:39:15] Het doel is om een transparante overheid te zijn... die mensen niet vermorzelt.

[0:39:20] Je boekje volledig open doen over algoritmes is daar één onderdeel van...

[0:39:24] De vraag is, wat is nou het grote plan van de overheid om het algoritmeregister te vullen en meer inzicht te geven?

[0:39:30] Is dit kabinet bereid de vrijblijvendheid eraf te halen?

[0:39:35] Is het kabinet bekend met het vijfsterrenmodel voor algoritmes die maatschappelijke organisaties voorstellen?

[0:39:41] En is het kabinet bereid om die uitgestoken hand aan te nemen van die maatschappelijke organisaties om zo een model breder toe te passen?

[0:39:49] Eén manier om openheid af te dwingen is in de directe communicatie met burgers.

[0:39:53] Het is een keer klaar met al die besluiten die mensen raken... waar een algoritme voor wordt gebruikt die niemand kent of begrijpt... op basis van factoren die je niet te zien krijgt.

[0:40:02] GroenLinks Partij van de Arbeid wil dat elke brief die gaat over een besluit... waar een risicoselectie heeft plaatsgevonden duidelijk vermeld... welke algoritmes zijn gebruikt en op basis van welke factoren dat is... zoals je thuissituatie, leeftijd of postcode.

[0:40:15] Alle mogelijkheden om zwaar te maken moet je ook op de brief kunnen vinden.

[0:40:20] De vragen zijn, zijn de bewindspersonen het met mij eens dat dit voorstel helemaal past binnen de ambities van het kabinet?

[0:40:26] En is het kabinet het met mij eens dat zo'n mate van overheid richting burgers hard nodig is?

[0:40:31] En dan heeft u een interruptie van de heer Vermeer, BBB.

[0:40:35] Ja, dank u wel, voorzitter.

[0:40:36] Want ik ben net als mevrouw Katman ook heel erg voor transparantie.

[0:40:41] Maar hoe moet een belastingdienst daar bijvoorbeeld mee omgaan?

[0:40:45] Omdat je ook niet mensen die belasting willen ontduiken inzicht wil geven in hoe je controleert of ze dat wel of niet doen.

[0:40:55] Het woord is aan mevrouw Katman.

[0:40:56] Ja, en dan is het dus weer de vraag, is het burgergericht of doen we het makkelijk werken voor de overheid?

[0:41:02] En hoeveel lessen hebben we nu al geleerd van mensen die dus in de knel raken?

[0:41:06] En dan moet je gewoon zeggen, als je serieus in een regeerakkoord opneemt, dat maximale transparantie hierin gewoon moet.

[0:41:14] Dat schrijf je niet gratuut op.

[0:41:16] dat het ook nog zo is dat mensen recht hebben om bezwaar te maken.

[0:41:19] Dan kan je echt niks anders doen dan mensen dus attenderen... hoe ze dat bezwaar maken en inzicht geven in hoe de selectie is gemaakt.

[0:41:27] En je zou misschien nog kunnen nadenken over... hoe communiceer je dan, welk inzicht geef je dan?

[0:41:33] Maar het moet in ieder geval duidelijk zijn voor mensen dat ze eruit zijn gepikt.

[0:41:36] Dan kan je misschien nog onderscheid maken... hoe transparant ben je erover, dat kattebelletje, zeg maar.

[0:41:42] Maar vervolgens kan je dan in die...

[0:41:44] bezwaarprocedure die mensen wel of niet starten... dan zou je toch die maximale transparantie kunnen geven.

[0:41:50] Dus zo zou je er nog een beetje mee kunnen spelen.

[0:41:52] Maar als je A zegt, dan kan je niet vervolgens B achterwege laten.

[0:42:01] Nog een vervolgvraag van de heer Vermeer.

[0:42:03] En dan heeft de heer Buijs ook nog een vraag.

[0:42:06] Ja, want uiteraard ging het mij ook niet om dat deel van bezwaar maken.

[0:42:11] Want daar hebben we zelfs in een eerder debat over gehad... over de uitwisseling van gegevens tussen banken.

[0:42:16] Dat als je op een zwarte lijst zou komen... dat je dan eerst daarvan op de hoogte gesteld zou moeten worden... de mogelijkheid moet hebben om bezwaar te maken... voordat er überhaupt gecommuniceerd wordt met een andere bank.

[0:42:27] Want anders dan ben je vogelvrij als burger.

[0:42:31] Maar voel ik het correct...

[0:42:34] dat ik bij mevrouw Katman wel enige ruimte voel om bijvoorbeeld bij een belastingdienst... dat ze niet eigenlijk een handleiding hoeven te publiceren... over hoe je tussen de mazen door zou kunnen glippen.

[0:42:48] Het woord is aan mevrouw Katman.

[0:42:49] Nou, dat is goed dat u dat vraagt.

[0:42:53] Die ruimte is er.

[0:42:54] Maar het is wel duidelijk zo... we moeten wel op zoek naar die maximale transparantie daar waar het kan.

[0:43:03] Dan heeft u nog een interruptie van de heer Buijsen.

[0:43:06] Dankjewel, voorzitter.

[0:43:09] De nadruk ligt in uw bijdrage op dit moment... tot het moment dat u moet stoppen op de transparantie.

[0:43:15] Zo interpreteer ik het.

[0:43:17] En dat is één ding van het verhaal.

[0:43:18] Maar ik probeerde eigenlijk ook in mijn betoog aan te geven... dat het gaat om het voorkomen van fouten.

[0:43:25] En als het aan fout gaat, is die transparantie uiteraard heel belangrijk.

[0:43:28] Maar het voorkomen van fouten, en dat zit hem in het ontwerpproces.

[0:43:32] Herkent u het beeld wat ik schetste...

[0:43:35] dat over verschillende overheden heen, nationaal, rijksoverheid, dan wel decentraal, waterschappen, gemeentes, noem maar op, dat er geen gemeenschappelijke taal is en dat we eigenlijk naar meer uniformering van die ontwerpprincipes zouden moeten.

[0:43:48] Hoe reflecteert u daarop?

[0:43:51] Mevrouw Kampman.

[0:43:52] Ja, dank voorzitter.

[0:43:53] Het is een mooi punt wat de heer Buissen maakt.

[0:43:55] Ik denk dat het inderdaad daar begint.

[0:43:57] En je moet eigenlijk alles by design willen doen.

[0:44:00] Maar je moet ook niet denken dat je er dan bent.

[0:44:03] Dus allebei is denk ik waar.

[0:44:05] Dus je moet je ontwerpprocessen eenduidiger, beter inrichten.

[0:44:10] Dat is één.

[0:44:11] Maar vervolgens, als je dat hebt gedaan, ben je er nog niet.

[0:44:14] Dan zullen nog heel veel mensen die algoritme ingewikkeld vinden.

[0:44:18] Zowel aan de ambtelijke kant als gewoon de burger.

[0:44:22] Dus je zult allebei moeten doen.

[0:44:24] Maar ook een goed punt wat de heer Buijsen maakt.

[0:44:27] Dan zie ik geen verdere interrupties.

[0:44:29] Kan mevrouw Katman haar betoog vervolgen?

[0:44:33] Ik zal even mijn microfoon aanzetten.

[0:44:34] Dan het punt wat de heer Ergin ook heeft gemaakt.

[0:44:37] Normaal zeg je dan heel netjes gezien de tijd.

[0:44:39] Maar dat ga ik toch niet doen, want het is belangrijk genoeg.

[0:44:42] De menselijke tussenkomst.

[0:44:44] Het kabinet geeft aan dat je alleen risicoselecties mag doen... als er betekenisvolle menselijke tussenkomst bij komt kijken.

[0:44:51] Simpel gezegd, besluiten worden gemaakt door mensen en niet door machines.

[0:44:55] Maar in de praktijk gebeurt dit niet.

[0:44:57] We hebben een structureel gebrek aan kennis binnen de overheid en in de Kamer over al die algoritmes en hoe ze werken.

[0:45:03] GroenLinks Partij van de Arbeid is bang dat in de dagelijkse praktijk uitkomsten van algoritmen te vaak onkritisch worden overgenomen.

[0:45:10] Dus ik zou heel graag willen dat mij vandaag in hele heldere, klare taal wordt uitgelegd... precies wat de heer Ergin ook vroeg.

[0:45:17] Wat is nou eigenlijk betekenisvolle menselijke tussenkomst?

[0:45:23] Hoe ziet het er in de praktijk uit als een algoritme iemand als fraude risico ziet?

[0:45:28] En hoe gaat dit kabinet ervoor zorgen dat door de hele overheid... er één duidelijke werkwijze is voor hoe medewerkers omgaan met algoritmes?

[0:45:35] Hoe kunnen burgers nou weten of er wel of niet een mens aan te pas is gekomen?

[0:45:40] Menselijke tussenkomst en burgers informeren over algoritmes... die zitten ook in de Europese AI-wetgeving.

[0:45:46] En dat is ook mijn laatste punt van zorg.

[0:45:50] Vanaf 2 februari zijn er allemaal verplichtingen waar Nederland volgens de AI-verordening aan moet voldoen.

[0:45:55] Alle realtime gezichtsherkenning moet bijvoorbeeld worden stopgezet als er geen wettelijke grondslag voor is.

[0:46:01] Toen vorig jaar mijn motie werd aangenomen die vroeg gezichtsherkenning te stoppen op plekken waar het volgens de wet niet mag, kreeg ik te horen, joh, dat komt wel goed, de AI-verordening gaat alles oplossen, vertrouw ons nou maar.

[0:00:00] 2 februari is volgende week en er is nog geen wet.

[0:46:17] De enige conclusie is daarmee dat we die systemen dus per direct moeten stopzetten.

[0:46:22] Gaat het kabinet dat ook doen?

[0:46:24] Geef me een duidelijke ja of nee.

[0:46:26] Voldoet Nederland vanaf volgende week aan de AI-verordening?

[0:46:30] Weet het kabinet überhaupt welke AI-systemen en algoritmes onder de AI-verordening vallen?

[0:46:35] En kan dit kabinet uitleggen hoe Nederland aan de rest van de verordening gaat voldoen?

[0:46:39] Wanneer moeten we welke stappen hebben gezet?

[0:46:41] En hoe kan ik als Kamerlid erop vertrouwen dat dat lukt?

[0:46:44] Dank u wel, voorzitter.

[0:46:46] Dan dank ik u voor bijdrage en zie ik een interruptie van de heer Vermeer.

[0:46:50] Ja, dank u wel, voorzitter.

[0:46:52] Even uit persoonlijk interesse, en misschien weten we dat, weet mevrouw Katman dat de gezichtsherkenning die wij altijd moeten ondergaan als we dit pand binnenkomen,

[0:47:03] Hoe zit het daarmee volgens de inschatting van mevrouw Katman?

[0:47:07] Het woord is aan mevrouw Katman.

[0:47:08] Ik denk dat één ding bovenaan staat... en dat is dat er voor de veiligheid van onze directe collega's een noodzaak is.

[0:47:16] En dan maakt het mij even niet uit of we de diepte ingaan...

[0:47:19] dan vind ik dat we dat moeten doen als daarmee collega's onveilig zijn.

[0:47:23] Alleen waar de hele pijnpunt zit, is dat er nog maar meer toepassingen zijn... waar we het nu doen, maar er is geen juridische grondslag voor.

[0:47:30] En dat is nou juist het probleem.

[0:47:32] Als we het willen daar waar het moet, zorg dan dat die juridische grondslag er is.

[0:47:37] En als we het doen op plekken waar die juridische grondslag er ook niet kan komen... of waar we het niet van willen, dan moeten we daar dus mee stoppen.

[0:47:43] En nu is er een soort ongebreidelde situatie waar we...

[0:47:47] over kunnen bakkeleien, wanneer moet het wel, wanneer moet het niet.

[0:47:50] Maar één ding staat bovenaan, zorg voor de juridische grondslag.

[0:47:53] Dat is gewoon ongelooflijk belangrijk.

[0:47:57] En dan kijk ik nog even naar de zijde van de Kamer of er interrupties zijn.

[0:48:00] Die zijn er niet.

[0:48:01] Dan geef ik het voorzitterschap heel even over aan de heer Siks-Dijkschap... dat ik zelf ook mijn woordvoering kan doen.

[0:48:08] Ja, dank u wel, voorzitter.

[0:48:09] Dan nu tenslotte aan de zijde van de Kamer.

[0:48:11] De heer Valize, die spreekt namens de PVV.

[0:48:16] Ja, voorzitter, dank voor het woord.

[0:48:18] Ik houd kort, voorzitter.

[0:48:19] Op de agenda staan vier brieven.

[0:48:20] Drie daarvan gaan over de inzet van algoritmes, geautomatiseerde selectietechnieken bij de Belastingdienst.

[0:48:25] Voorzitter, de autoriteit persoonsgegevens heeft uitvoerig naar de processen gekeken bij de Belastingdienst en geconstateerd dat

[0:48:31] ...bezien vanuit rechtsgevolgen of anderszins in aanmerking te nemen gevolg... ...trie situaties te onderscheiden zijn.

[0:48:38] Eén, niet uitgeworpen aangiftes.

[0:48:40] Dus de betrokkenen krijgt een aanslag die volledig geautomatiseerd... ...en zonder menselijke tussenkomst tot stand is gekomen.

[0:48:45] Twee, de uitgeworpen aangiftes.

[0:48:47] De betrokkenen krijgt een aanslag die tot stand komt... ...door handmatige controle nadat de aangifte daarvoor geautomatiseerd is uitgeworpen...

[0:48:54] en ongeacht of correcties hebben plaatsgevonden.

[0:48:56] En dan hebben we drie, de aanmerkelijke gevolgen.

[0:48:59] De betrokkenen ondervindt anderszins gevolgen van de geautomatiseerde uitworp... voor handmatige behandeling die losstaan van de uiteindelijke aanslag.

[0:49:06] In situatie 1 voorziet de AWB, de Algemene Wet Bestuursrecht... voor deze besluiten voldoende in passende maatregelen.

[0:49:12] Voor situatie 2 ook, mits volgens de geldende wetgeving... voor iedereen in dezelfde situatie zou moeten gelden... en dat is neergelegd in een regulier, transparant, gemotiveerd... en aan rechtsbescherming onderworpen besluit...

[0:49:23] Maar dan, voorzitter, bij situatie 3 wordt opgemerkt door de autoriteit persoonsgegevens dat... ...een dienstelectieregel of een combinatie van selectieregels tot gevolg heeft... ...dat bepaalde groepen of individuen structureel een substantieel verhoogde kans op correcties, onderzoeken en dergelijke lopen.

[0:49:38] Deze gevolgen geacht moeten worden betrokkenen vanaf...

[0:49:41] ...een bepaald ernstig niveau in aanmerkelijke mate te kunnen treffen.

[0:49:45] Op dat punt wordt in het kabinet zijn reactie niet ingegaan.

[0:49:49] De staatssecretaris staat vast dat de uitkomst uit risicoselecties... ...niet bewaard of gedeeld wordt voor andere toepassingen.

[0:49:56] Dat ligt dan ook alweer in het verlengde van wat collega's al eerder hebben aangegeven.

[0:50:01] En dat, voorzitter, is het voor wat betreft dit onderwerp.

[0:50:04] Maar toch wil ik nog een ander onderwerp aanstippen.

[0:50:06] Het algoritmeregister.

[0:50:08] Bij brief van 8 april 2024 vernamen wij dat er 340 algoritmes stonden opgenomen in dit register.

[0:50:14] Inmiddels, ik heb gisteren even gespeakt, zijn dat er 721.

[0:50:16] En dan kom ik bij mijn tweede vraag, vierde voorzitter.

[0:50:21] Hoe is het tevredensnaam mogelijk dat Wermpel zo ogenschijnlijk ingewikkeld en gecompliceerd lijkt...

[0:50:26] om iets eenvoudigs als een simpel algoritme te beschrijven en aan dat register toe te voegen.

[0:50:33] Ik gaf vorig jaar reeds het voorbeeld van het instructieboekje van Lego.

[0:50:36] Begin op een willekeurige pagina, ga dan naar een andere willekeurige pagina en herhaal dit tot tot alle pagina's geweest zijn.

[0:50:42] En geen idee wat het moet voorstellen, maar het komt echt niet in de verste verte niet overheen met wat er op het plaatje wordt afgebeeld.

[0:50:49] Wat is er van de Kamer nodig om te bevorderen dat we inmiddels... is er al opgeroepen dat het register in 2025 up-to-date zou moeten komen... dat die algoritmes er ook daadwerkelijk in komen te staan.

[0:51:01] In de Volkskrant werd gisteren een voorzichtige schatting gemaakt.

[0:00:00] 16.000 algoritmes.

[0:51:06] We hebben nog heel wat te gaan.

[0:51:07] En dan heb ik nog een bonusvraag.

[0:51:09] Omdat ik nu over dat artikel heb.

[0:51:11] Er wordt erin ook gesproken over het vijfsterrenmodel.

[0:51:13] Dat werd al eerder ook door mevrouw Koekoek van Volt... en mevrouw Kapman van partij GroenLinks... of GroenLinks PvdA aangehaald.

[0:51:21] Het is dat vijfsterrenmodel voor transparante algoritmes.

[0:51:25] Heeft de staatssecretaris daar kennis van genomen?

[0:51:27] En hoe kijkt hij hier tegenaan?

[0:51:29] En daarmee, voorzitter, kom ik aan het einde van mijn betoog.

[0:51:33] Nou, ruim binnen de spreektijd, meneer Verliesen.

[0:51:36] Dank u wel.

[0:51:36] En dan draag ik het voorzitterschap weer terug over aan u.

[0:51:40] Ja, dank, voorzitter.

[0:51:41] Maar dan zie ik nog een interruptie.

[0:51:43] Excuus, voorzitter.

[0:51:45] Ja, dank, voorzitter.

[0:51:47] Ik zal wel even twee interrupties in één doen.

[0:51:49] Ook eigenlijk gewoon dezelfde vragen die ik aan de VVD had.

[0:51:52] Omdat de PVV als grootste partij toch altijd belangrijk is... wat ze van je voorstellen vinden.

[0:51:58] Dus ik zou graag ook van de heer Valize willen horen... wat hij van het voorstel vindt... wat ik samen met de heer Jessens-Dijksgaan nog een keer zou willen indienen... over de maximale transparantie op brieven als mensen...

[0:52:09] eruit zijn gepikt.

[0:52:12] En het vijfsterrenmodel, waardoor we eigenlijk een veel beter inzicht krijgen van wat doen die algoritmes, hoe werken ze, in plaats van dat we nu eigenlijk al een niet functionerend register hebben.

[0:52:22] En als we dat al helemaal zouden vullen, zou het ook nog niet helemaal werken.

[0:52:25] Dus ja, ik hoor graag hoe de PVV daarover denkt.

[0:52:30] Ja, voorzitter.

[0:52:31] Dank voor het woord.

[0:52:32] En dank ook voor de uitstekende vraag, mevrouw Katman.

[0:52:34] Dat voorstel om onderaan de stukken weer te geven... want zo werd het vorig jaar gebracht, ergens in april, mei... om daar te vermelden van oké, er is gebruik gemaakt van een selectiealgoritme... en welk algoritme dat dat is.

[0:52:48] Het is een interessant voorstel.

[0:52:49] Ik zal er ook serieus naar kijken zodra u met een opzet komt.

[0:52:53] En dan wil ik er ook wel aan meedenken.

[0:52:54] En betreffende de tweede vraag over het vijfsterrenmodel...

[0:52:59] Ben ik even kwijt wat ik vroeg.

[0:53:00] Volgens mij vroeg u hoe wij erin staan.

[0:53:04] Hoe wij erin staan?

[0:53:04] Ik vind het een heel interessant voorstel.

[0:53:08] En het maakt wel voor de mensen thuis... maar ook voor de mensen binnen de Kamer die erover praten... en de verschillende departementen wel inzichtelijk... van, oh, wacht eens even, deze is al getoetst, deze is akkoord bevonden.

[0:53:17] Dus het is eigenlijk een soort keurmerkje wat erop zit... wat niet al te veel moeite zou moeten kosten.

[0:53:22] Want je kunt het ook klassificeren in dat algoritme-register.

[0:53:25] Dus ook daar vind ik het heel interessant... om daar even ook de visie van de staatssecretaris op te horen.

[0:53:34] Dan zie ik dit keer geen verdere interrupties en draag ik dit keer wel echt... Toch nog wel.

[0:53:41] Toch niet, voorzitter.

[0:53:42] De heer Buijsen heeft nog een vraag aan u.

[0:53:44] Nou, in feite heb ik dezelfde vraag als die ik stelde aan mevrouw Katman, stel ik ook aan de heer Van Liesen.

[0:53:51] Dat gaat er eigenlijk over hoe u aankijkt tegen die ontwerpprincipes om uiteindelijk fouten te voorkomen in die algoritmes, maar ook in andere technologieën, AI of cloud.

[0:54:00] Kunt u daar een enige reflectie op geven hoe u dat ervaart binnen de verschillende overheden waar u mee te maken heeft?

[0:54:06] De heer Van Liesen.

[0:54:08] Ja, voorzitter, dank voor het woord.

[0:54:09] En dan kom ik toch even op een punt.

[0:54:13] Wat de heer Buijsen voorstelt, is natuurlijk een valide vraag.

[0:54:17] Het is op het moment dat je dan met een voorstel gaat komen... dan moet je altijd toetsen van... er moeten altijd een aantal stappen doorlopen.

[0:54:26] En die stappen zijn ook bepaald in de wetgeving.

[0:54:29] Op het moment dat iets wordt uitbesteed... dan heb je ook de aanbestedingsregels... en dan wordt dan ook verwezen naar welke verdragen moeten worden getoetst...

[0:54:37] Er zit een heel toetsingskader aan vast.

[0:54:39] En daar ligt de bal toch echt bij de staatssecretaris.

[0:54:48] Geen vervolgvraag.

[0:54:50] Dan geef ik het voorzitterschap nu wel door aan de heer Van Liesen.

[0:54:56] Ja, ex-voorzitter, dank voor het uitstekende voorzitterschap.

[0:55:00] Hartelijk dank ook alle voor uw bijdrage.

[0:55:02] En dan kijk even naar de rechterzijde.

[0:55:04] We hebben net al even kort overlegd dat we zo'n 50 minuten zullen gaan schorsen.

[0:55:09] Ik maak er 55 minuten van.

[0:55:11] Tot 19 uur 20.

[0:55:12] Dan hebben we namelijk de tijd voor de voorbereiding, voor de beantwoording.

[0:55:16] Dus eerste termijn Kamer.

[0:55:18] Ik bedoel... Ja, eerste termijn.

[0:55:25] Van de regering.

[0:55:26] En dan hebben we tevens nog even de mogelijkheid om even te dineren.

[0:55:29] Want het is al vrij laat.

[0:55:31] Sorry, ik heb een beetje honger, dus ik praat er een beetje langs.

[1:53:22] Een hele goede avond allemaal.

[1:53:25] Welkom terug bij het commissiedebat Digitale Zaken... over de inzet van algoritmes en dataethiek bij de Rijksoverheid.

[1:53:31] De eerste termijnkamer zit erop.

[1:53:33] Dan gaan we naar de eerste termijn van het kabinet... waarbij als eerste de heer Zolt Sabo, staatssecretaris Digitale Zaken... het woord zal nemen namens het kabinet.

[1:53:42] Het woord is aan de heer Sabo.

[1:53:46] Ik excuseer nog een heel klein puntje ter huishoudelijke mededeling.

[1:53:50] We mogen elk vier interrupties plegen op de inbreng van de staatssecretaris.

[1:53:56] Dank u wel, voorzitter.

[1:53:58] Allereerst dank voor de eerste termijn van de Tweede Kamer.

[1:54:03] Ik zal samen met mijn collega het volgende doen.

[1:54:08] Ik heb een algemene inleidende tekst, spreektekst.

[1:54:11] Vervolgens heb ik een mapje verantwoorde inzet AI en algoritme.

[1:54:16] Een transparantie, een register en een mapje overig.

[1:54:19] En daarmee hoop ik dat ik van mijn kant dan de vragen heb beantwoord.

[1:54:24] Die zijn gesteld ook door de Kamer.

[1:54:26] En dan geef ik het woord aan de staatssecretaris van Rechtsbescherming voor de resterende vragen.

[1:54:30] Dan begin ik met een...

[1:54:36] Algemene opmerking.

[1:54:40] Om even mijn kant aan te geven van hoe ik verder wil met dit dossier.

[1:54:45] Ik zit hier een dikke zes maanden.

[1:54:47] Zoals u weet ben ik bezig met de Nederlandse digitaliseringstrategie te ontwikkelen.

[1:54:52] Die komt er zo over een aantal weken al.

[1:54:55] Het moment komt steeds dichterbij dat die er is.

[1:54:58] En in dat dossier hebben we een aantal, voor de mensen die het niet weten, die mogelijk ook meekijken.

[1:55:04] En eentje in de zaal.

[1:55:06] Een aantal prioriteiten die we aan het bepalen zijn, die hebben we bepaald samen in een sessie ook met ministeries, mede-overheden, ZBO's, de VNG, de IPO, waterschappen, de wetenschap.

[1:55:23] En ook mensen uit de Eerste en Tweede Kamer.

[1:55:26] Ik denk dat er uit discussie naar voren is gekomen dat we in ieder geval moeten kijken naar zaken als cloud.

[1:55:33] Dat we strakker aan moeten trekken.

[1:55:34] Maar ook het dossier AI, wat redelijk nieuw is, waar we verder mee moeten de komende jaren.

[1:55:41] Algoritmes en dataethiek is er ook eentje.

[1:55:45] En dan kom ik tot het volgende punt.

[1:55:47] Ik heb twintig jaar geleden ook in de Tweede Kamer gezeten.

[1:55:50] En daar heb ik discussies gevoerd over toegankelijkheid, als woord voor de ICT toen nog wat ik was.

[1:55:56] En ik kijk nu terug na twintig jaar.

[1:55:58] Wat ik zie is dat we heel lang hebben zitten nemen en shamen.

[1:56:03] Heel lang mede-overheden, maar ook ministeries hebben aangesproken om toegankelijkheid goed in te richten.

[1:56:10] Dat er vervolgens wetgeving is gekomen in 2018.

[1:56:13] Dus zeg maar iets van veertien jaar nadat we dit soort debatten hadden in de Tweede Kamer.

[1:56:20] En dat toegankelijkheid tot op heden nog steeds niet goed is geregeld.

[1:56:24] Wat mij behoorlijk stoort.

[1:56:27] Dus ik heb ook aangegeven als het gaat om dit soort zaken.

[1:56:30] Die moeten ook terugkomen in de Nederlandse digitaliseringstrategie.

[1:56:35] Vanuit het begrip standaardisatie.

[1:56:37] En vanuit het begrip dat we één overheid zijn en dat als we afspraken maken met elkaar, dat we die ook gewoon moeten uitvoeren.

[1:56:45] Dus om het volgende punt te maken.

[1:56:49] We hebben vandaag het over het register en dataethiek.

[1:56:57] Ik heb nu teruggekeken de laatste zes maanden.

[1:56:59] Ik zie wat de situatie is.

[1:57:00] Dat er nog op heel veel vragen antwoord moet worden gegeven.

[1:57:04] Dat we in de tussentijd ook het AFP-advies hebben binnengekregen.

[1:57:07] Dat we nu ook met mede-overheden verder moeten kijken.

[1:57:09] Maar ook met de politiek.

[1:57:10] Van waar hebben we het dan over?

[1:57:12] Ook als het gaat om definities.

[1:57:14] Dat is ook al een beetje naar voren gekomen vandaag.

[1:57:16] Dus ik hoop niet dat u van mij verwacht dat het eind van dit debat een oplossing is op alle vragen.

[1:57:21] Want dit is dusdanig serieus.

[1:57:23] En ik kijk ook hoe we verder moeten met het algoritmeregister de komende jaren.

[1:57:27] Om die goed gevuld te krijgen.

[1:57:28] En wat daar ook de relevantie is in het gebruik daarvan.

[1:57:32] Door journalisten, door wetenschap, maar ook de burgers en bedrijven.

[1:57:35] En door ons zelf.

[1:57:39] En wat ik ook ga doen in dat kader.

[1:57:42] omdat we met de NDS te maken hebben, de Nederlandse Digitalisering Strategie, dit ook in het land bespreken, hoe we dit onderwerp verder kunnen pakken, net zoals andere onderwerpen.

[1:57:53] Ik kan altijd worden uitgenodigd.

[1:57:54] Het is ook een uitnodiging naar mensen die kijken om mij langs te laten komen om de Digitalisering Strategie verder te bespreken, maar dan met name ook zaken als standaardisatie,

[1:58:03] Ons houden aan de afspraken die we met elkaar maken.

[1:58:06] En dat geldt ook natuurlijk voor mijn mede-collega's binnen het kabinet.

[1:58:13] Dat even als algemene inleiding.

[1:58:15] De meeste mensen waren al op de hoogte van deze strategie.

[1:58:20] Maar zo wil ik het wel verder oppakken.

[1:58:22] Met als kernbegrip gewoon samen.

[1:58:25] Dit moeten we samen doen.

[1:58:27] Want we kunnen niet langs elkaar heen praten.

[1:58:28] We kunnen niet iedere keer het debat hebben van waarom bent u nog niet zo ver.

[1:58:32] En zijn we wel eens over de verschillende definities.

[1:58:34] Nee, dit moeten we al vanaf dag 1 samen verder invullen.

[1:58:38] Dat als algemene opmerking.

[1:58:44] Ik ga eerst beginnen over het bestuderen van het adviesrapport van de autoriteit persoonsgegevens.

[1:58:50] Dat heb ik ook gedaan over geautomatiseerde selectietechnieken.

[1:58:54] Dat bestuderen heeft wat tijd nodig gehad.

[1:58:58] Het advies komt op een moment waarop de mogelijkheden van AI en algoritmes ook binnen de overheid volop de aandacht hebben.

[1:59:05] En niets voor niets neemt het thema AI een belangrijke plaats in binnen wat ik al aangaf.

[1:59:09] de Nederlandse digitaliseringstrategie, die ik binnenkort zal presenteren.

[1:59:13] En het adviesrapport van de AP bevestigt opnieuw dat de verantwoorde inzet van AI en algoritmes binnen de overheid onze scherpe aandacht nodig hebben.

[1:59:22] Met oog op kansen, maar ook voor negatieve aspecten en potentiële risico's.

[1:59:27] Voorzitter, de geautomatiseerde selectie- instrumenten en geautomatiseerde besluitvorming zijn onmisbaar om de taken van de overheid

[1:59:35] efficiënt te kunnen uitvoeren.

[1:59:36] En uit het advies van de AP hierover... blijkt dat er geen specifieke wetgeving nodig is... voor het maken van dergelijke risicoselecties... wanneer althans de gevolgen van de selectie... voor de betrokkenen pas intreedt... na betekenisvolle menselijke tussenkomst.

[1:59:50] Waar ik straks ook nog op terugkom... aan de hand van de vragen die zijn gesteld.

[1:59:54] De AP benadrukt in het advies wel... dat dergelijke automatisering aan aantal waarborgen moet voldoen.

[2:00:02] Zo moet periodiek gecontroleerd worden...

[2:00:04] op discriminatie en moet er voldoende transparantie zijn.

[2:00:08] In de kabinetsreactie op het AP-adviesrapport heeft u kunnen lezen dat we starten met het analyseren van casuïstiek met betrekking tot de inzet van selectie- instrumenten in de huidige uitvoeringspraktijken.

[2:00:21] De nadruk zal liggen op geautomatiseerde besluitvorming waarbij persoonsgegevens worden verwerkt

[2:00:27] Aangezien deze vanuit het oogpunt van dit AP-adviesrapport het meest belangwekkend zijn.

[2:00:33] Zoals u weet zet ik in op uniformering en op standaardisatie zoals ik er net aan gegeven.

[2:00:41] Dit om de veelheid aan regels, handreikingen, white papers en ga zo maar door te bundelen.

[2:00:48] Het alchemorisme kader.

[2:00:50] biedt daarom al zo'n compleet mogelijk overzicht van de regels waar overheden aan dienen te kunnen voldoen en de maatregelen die overheden daartoe kunnen treffen.

[2:01:00] En wanneer ik kijk naar de aandacht voor het algoritme kaarten, zie ik dat overheden momenteel overal bezig zijn met vragen die gaan over impact van de AI-verordening en de inrichting van de interne governments op het vlak van algoritmes.

[2:01:15] Het ministerie van Binnenlandse Zaken

[2:01:17] organiseert diverse bijeenkomsten in het land, webinars, spreekuren en ga zo maar door, om de vragen die leven bij overheden te voorzien van een antwoord en handelingsperspectief.

[2:01:31] De aanbevelingen van de AP neem ik ten harte en zijn al zoveel mogelijk opgenomen in het algoritme kader.

[2:01:37] U kunt dan bijvoorbeeld denken aan hulpmiddelen op het vlak van biasedoetsing of informatie over de inrichting van menselijke tussenkomsten.

[2:01:47] Mijn doel is, naar aanleiding van de aangekondigde analyse van casuïstiek, te kijken naar welke maatregelen en instrumenten verder nodig zijn om de overheid te helpen om te voldoen aan de maatregelen die door de AP benoemd zijn.

[2:02:01] Deze zullen vervolgens ook weer opgenomen worden in het algoritme kader.

[2:02:06] Voorzitter, de leden Omzicht en Seksdijstraat dienden een motie in tijdens het plenaire debat over het rapport van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening.

[2:02:17] blind voor mens en recht.

[2:02:20] Dit was op 15 januari jongstleden.

[2:02:22] En in de motie wordt verzocht om de passage uit het hoofdlijnenakkoord... nader uit te werken.

[2:02:27] En het gaat om het gebruik van wetenschappelijke standaarden... van modellen en algoritmes... hoe deze standaarden afdwingbaar worden gemaakt... en hoe de bijsluiter voor gebruikte modellen zal worden opgesteld.

[2:02:42] Ik zou uw Kamer...

[2:02:44] voor april hierover per brief verder over informeren zoals gevraagd in de motie.

[2:02:49] Wat ik u wel op voorhand kan meegeven is dat sinds de start van het algoritme kader wordt samengewerkt met wetenschappelijke instellingen.

[2:02:58] En in het algoritme kader zijn bijvoorbeeld maatregelen en instrumenten te vinden die overheden kunnen helpen te voldoen aan juridische vereisten waaronder maatregelen gericht op wetenschappelijke toetsing zoals verificatie, validatie

[2:03:13] nauwkeurigheid en bias-toetsing.

[2:03:16] En is het Impact Assessment Analyse voor Mensenrechten bij de inzet van algoritmes, IAMA, opgesteld door de Universiteit van Utrecht.

[2:03:26] En ik ben ook heel blij dat ik gezien heb de eerste maanden dat ik hier zit, dat dat instrument ook steeds meer wordt ingezet.

[2:03:33] Er zijn ook meerdere instrumenten naast IAMA.

[2:03:36] Dus ik denk ook dat we de komende tijd moeten kijken welke instrumenten de meeste effectief zijn voor welke vragen.

[2:03:43] Maar ik zal ook, als ik het heb met mede-overheden over dit onderwerp, aangeven dat ook aan de voorkant, dan kijk ik ook naar de VVD-VRU-voorzitter, dit soort instrumenten gewoon serieus worden opgepakt om zoveel mogelijk ongelukken te voorkomen.

[2:03:58] Mijn inzet is opgericht, zoals ik daarnet al zei, het landschap van white papers, handreikingen en kaders te bundelen.

[2:04:05] Het wordt anders een doolhof voor overheden die mij erop tegelijkertijd aanspreken dit te harmoniseren.

[2:04:17] en het algoritme kader zijn aan het einde van 2022... en gedurende 2023 gepubliceerd.

[2:04:24] Zij worden nu geïmplementeerd.

[2:04:26] En veel van die systemen waar uw Kamer haar zorg over heeft uitgesproken... stammer echten ook van voor die tijd.

[2:04:34] Dit betekent dat we als overheid een inhaalslag dienen te maken... wanneer het gaat om verantwoord inzet van AI en algoritmes.

[2:04:42] En als het gaat om transparantie...

[2:04:44] is het goed nieuws dat het algoritmregister steeds verder wordt gevuld.

[2:04:49] Maar nog niet voldoende.

[2:04:50] Het aandeel algoritmes in het register heeft de 700 registraties inmiddels overschreden.

[2:04:55] En het gaat hierbij om ruim 200 overheidsorganisaties.

[2:04:58] De departementen hebben uw Kamer toegezegd om eind 2025... tenminste alle hoge risico-AI-toepassingen te hebben geregistreerd in het register.

[2:05:08] Voorzitter, zonder toezicht geen naleving.

[2:05:11] En als sluitstuk...

[2:05:13] Benadruk ik ook het belang van onafhankelijk toezicht op algoritmes en AI bij de overheid.

[2:05:18] En in 2025 verhoogt het kabinet het budget van het algoritmetoezicht bij de AP.

[2:05:24] En dit gaat in het bijzonder om de directiecoördinatiealgoritme, DCA, een onderdeel van autoriteit persoonsgegevens.

[2:05:33] Daarnaast wordt het toezicht op de AI-verordeningen momenteel voorbereid.

[2:05:37] En het kabinet zal onder regie van de minister van Economische Zaken uw kamer dit jaar voorzien van een kabinetsstandpunt over het toezicht van de AI-verordening.

[2:05:49] Ook de overheid valt onder dit toezichtstelsel.

[2:05:52] En met de mede-overheden, provincies, gemeenten, waterschappen en het Rijk en daartoe behoordende ZBO's, zet ik in op het kader, op de zogenoemde horizontale toezicht, om die nader uit te werken.

[2:06:06] Het komt erop neer dat ik de democratische controle wil stimuleren bij onze mede-overheden, ook als het gaat om de inzet van algoritmes en AI-systemen.

[2:06:16] En ik wil dit aspect dan ook terug laten komen in de Nederlandse digitaliseringstrategie waar ik aan werk.

[2:06:22] En met uw welnemen ga ik nu over tot de beantwoording van de vragen.

[2:06:27] Dan begin ik, voorzitter, met het blokje.

[2:06:30] Beantwoorden, inzet, AI, algoritmen.

[2:06:35] Dat is een hele stapel.

[2:06:39] Ik zal proberen de vaart erin te houden.

[2:06:41] Voorzitter, de eerste vragen van...

[2:06:44] Van u zelf, maar dan als de heer Verliesen van de PVV, mevrouw Katman en de heer Buijsen.

[2:06:51] Het gaat over het vijfsterrenmodel.

[2:06:53] Heeft de staatssecretaris daar kennis van genomen en hoe kijkt hij er tegenaan?

[2:06:57] Ik heb hier zeker kennis van genomen.

[2:07:00] Hoewel het model als zodanig niet wordt gehanteerd door de overheid, sluit het wel aan op onderdelen van het huidige beleid.

[2:07:06] Met name die eerste twee onderdelen van de vijf.

[2:07:09] En ik wil mij hierover verdiepen en dit betrekken in de brief van april, waarbij ik u informeer over de wetenschappelijke standaard.

[2:07:18] Op welke manier, vraagt de heer Siks-Dijkstra... is er sprake van willekeur bij algoritme en hoe vaak gebeurt dit?

[2:07:25] Er kunnen fouten in de data of in de modellen zitten... waardoor er sprake is van vooringenomenheid of willekeur.

[2:07:32] En ik zet mij in voor transparantie door middel van onder meer het algoritmeregister... waardoor we hier meer inzicht in kunnen krijgen.

[2:07:39] Ook met behulp van het algoritmekader geef ik overheden hulpmiddelen... om willekeur in algoritmes te voorkomen.

[2:07:47] En...

[2:07:48] De heer Stikseikstra vraagt ook of er al stappen worden genomen om burgers proactief te informeren over hun betrokkenheid bij algoritme risicoselecties.

[2:07:56] En worden burgers al gewezen op hun rechten?

[2:07:59] Ik ga ervan uit dat dit duidelijk zal worden uit de uitvraag die door het netwerk publieke dienstverleners zal worden gedaan.

[2:08:07] En daar kom ik ook voor de zomer ongeveer...

[2:08:12] Einde jaar, sorry.

[2:08:14] Komende resultaten.

[2:08:17] Maar ik kom op dit onderwerp ook nog terug.

[2:08:20] Voldoen geautomatiseerde risicoprofielen overheidsbreed aan alle maatregelen van het AB-advies.

[2:08:25] U heeft een interruptie van de heer Siks-Dijkstra.

[2:08:28] Mogen we heel even de microfoon uitzetten?

[2:08:30] Ja, voorzitter.

[2:08:32] Ja, dank voorzitter.

[2:08:35] Ik had deze vraag eigenlijk aan de andere staatssecretaris gesteld... omdat ik het specifiek had over de pre-select recidive... over dat algoritme.

[2:08:44] En minder in algemene zin over hoe de staatssecretaris hier beantwoordt.

[2:08:48] Gaat uw collega daar ook nog op in?

[2:08:50] Oké, dan houd ik mijn mond.

[2:08:51] Wel zeker.

[2:08:52] Hij komt daar op terug, hoor ik net rechts van me.

[2:08:55] Het woord is aan de staatssecretaris.

[2:08:56] Links voor de kijkers.

[2:08:58] Voldoende geautomatiseerde risicopagielen, overheidsbreed en alle maatregelen van het AP-advies.

[2:09:03] Ik heb daar momenteel nog onvoldoende zicht op.

[2:09:06] Het AP-advies is vrij recent.

[2:09:09] En het netwerk van publieke dienstverleners...

[2:09:11] zal op basis van het advies bij haar leden een uitgebreide uitvraag doen naar de inzet van dergelijke selectie-instrumenten en de uitkomsten daarvan analyseren.

[2:09:21] Naar aanleiding daarvan wil ik kijken wat er nodig is om organisaties verder te ondersteunen bij het nemen van de juiste maatregelen.

[2:09:28] En inderdaad, ik verwacht voor het eind van het jaar uw Kamer hierover te mogen informeren.

[2:09:33] En dan heeft u een interruptie van de heer Ergen.

[2:09:35] Mag u even de microfoon uitzetten.

[2:09:41] Dat gaat steeds fout, voorzitter.

[2:09:43] Ja, voorzitter, wat ik dan niet begrijp is dat het kabinet op basis van het AP-advies eigenlijk zegt... wij gaan de lijst van mogelijk illegale algoritme niet publiceren op basis van het AP-advies.

[2:09:55] Tegelijkertijd stellen wij aan de staatssecretaris de vraag... oké, welke algoritme voldoen er dan niet...

[2:10:04] aan het AP-advies.

[2:10:07] De rijkwijd is dan wat beperkter dan bijvoorbeeld het Shoeva-arrest.

[2:10:10] Ik heb daar mijn twijfels bij, maar stel dat we daarvan uit kunnen gaan.

[2:10:14] Waarom voldoet het kabinet dan weer niet aan de toezegging om die lijst binnen... Volgens mij was het een verzoek van het lid Itzinga.

[2:10:23] Volgens mij moest het al een paar weken geleden gepubliceerd worden.

[2:10:27] Waarom voldoet het kabinet daar dan weer niet aan?

[2:10:30] En waarom wordt er weer een deadline verschoven?

[2:10:33] Dus dat kan de staatssecretaris willen vragen.

[2:10:37] Het woord is van staatssecretaris Sabo.

[2:10:40] We nemen dit mee in de analyse van het netwerk en daaruit zal dat moeten blijken.

[2:10:46] Dus geef ons even tijd.

[2:10:48] Ja, meneer.

[2:10:48] Heeft u een interruptie van de heer Siks-Nijks?

[2:10:50] Dan mag ik de microfoon weer uit.

[2:10:51] Om dat wel even scherp te hebben, voorzitter.

[2:10:53] Ik begin nou een beetje in verwarring te raken.

[2:10:55] Want de regering heeft eerst gezegd, wat mijn collega ook al zei.

[2:10:59] Wij gaan niet die inventarisatie doen.

[2:11:00] Dat wordt besluit van het kabinet.

[2:11:01] We gaan onze capaciteit anders besteden.

[2:11:03] Waar krijgen we dan nu een inventarisatie van?

[2:11:05] Want alsnog gaat hij een brede uitvraag doen.

[2:11:07] Kijken hoe dat allemaal in elkaar zit.

[2:11:09] En welke al dan niet compliant zijn.

[2:11:11] Waar zit dan het verschil in?

[2:11:11] Dat is toch in principe ook die inventarisatie.

[2:11:15] Hoe moeten wij dat zien als Kamer?

[2:11:22] Het woord is aan de heer Sabo.

[2:11:24] De menselijke tussenkomst bij uitvoer is in relatie tot persoonsgegevens.

[2:11:33] En voorzitter, als dit niet helemaal helder is, dan kom ik in de tweede termijn hierop op terug om het wat scherper neer te zetten.

[2:11:39] Ja, dank u wel.

[2:11:41] Akkoord, dan mag u uw inbreng vervolgen.

[2:11:46] De heer Sexteisa, nogmaals, als er geen algemene inventarisatie komt, dan graag een overheidsbewijs.

[2:11:52] Interruptie van de heer Ergen, meneer Sebel.

[2:11:57] Mag de microfoon eraan.

[2:11:58] Voorzitter, waar ik ook benieuwd naar ben... naar de analyse van de staatssecretaris... we hebben het AP-advies.

[2:12:03] Dat is een advies op basis van de huidige Nederlandse wet en regelgeving.

[2:12:08] En vervolgens hebben we het Shoeva-arrest... wat uitgaat van Europese regelgeving.

[2:12:13] En als we beide documenten met elkaar vergelijken... dan zien wij dat...

[2:12:21] De Europese interpretatie van de Europese regels veel strikter is dan het kabinet nu in de reactie heeft geschreven.

[2:12:31] En ook eigenlijk veel strikter is dan het AP in het advies heeft opgenomen.

[2:12:35] Dus ik ben benieuwd naar de analyse van de staatssecretaris.

[2:12:38] als het gaat om dat hij nu eigenlijk afvaart op het AP-advies... afkoerst op het AP-advies... en over een paar jaar het kabinet op zijn vingers wordt getikt... omdat het niet voldoet aan Europese regels... als het gaat om geautomatiseerde algoritme.

[2:12:56] Voorzitter, er is een specifieke vraag van de heer Ergin hier ook over.

[2:13:02] Allereerst, ik ga er vanuit dat de AP wel voldoet aan Europese regelgeving... dat ze daar kennis en kunde hebben om zich daaraan te houden.

[2:13:10] De AP concludeert dat er geen specifieke wetgeving nodig is... voor geautomatiseerde risicoselectie... wanneer eventuele gevolgen voor de betrokken van de selectie... pas intreedt naar betekenisvolle menselijke tussenkomst.

[2:13:21] De autoriteit persoonsgegevens is onafhankelijk toezichthouder op de AVG...

[2:13:26] Hij heeft mede tot taak gegevens van normuitleg over begrippen uit de verordening.

[2:13:31] En vanwege deze taak volgen wij hun advies.

[2:13:38] Dan ga ik verder met weer een vraag van de heer Sikstijsta.

[2:13:42] Uw vraag naar de toezeggingen die is gedaan over de resultaten van onderzoek naar de effectiviteit van risicoselectie en een a-selecte steekproef in relatie tot discriminatie.

[2:13:54] Ik vind het goed dat

[2:13:56] er hiernaar wordt gekeken.

[2:13:58] Ik zal mij verdiepen in de uitkomsten van dat onderzoek.

[2:14:01] En ik geleid u voor deze vraag wel door... naar de minister van Binnenlandzaak en Koninkrijksrelaties.

[2:14:06] Als het goed is, heeft u morgen een debat over discriminatie en racisme.

[2:14:12] En dat nodig daar tot een interruptie van de heer Stijkstra.

[2:14:16] Ja, voorzitter, maar dat ging natuurlijk wel om risicoselectie en algoritmische risicoselectie.

[2:14:22] En dat is ook het onderwerp van dit debat.

[2:14:24] Dus de staatssecretaris kan het wel doorschuiven naar morgen.

[2:14:26] En ik kan mijn collega vragen of hij er ook een vraag over wil stellen.

[2:14:30] Maar in principe is dat wel de orde van het debat.

[2:14:32] En dan valt dat ook binnen de rijkwijden van deze staatssecretaris.

[2:14:35] Dus ik kan er niet iets meer duidelijkheid geven over wanneer we dat moeten verwachten.

[2:14:39] Want in principe is dat wel de orde van het debat.

[2:14:43] Het woord is aan de staatssecretaris.

[2:14:46] Dus ik kom hier op terug wanneer u het kunt verwachten.

[2:14:56] De vraag van de heer Dijkstra.

[2:14:57] In het hoofdlijnenakkoord is een wetenschappelijke standaard voor modellen afgesproken.

[2:15:03] Die is vorige week bekrachtigd met een motie.

[2:15:06] Hoe gaat het kabinet hiermee aan de slag?

[2:15:08] Ik ben voornemens uitvoering te geven aan de afspraak uit het hoofdlijnenakkoord vanzelfsprekend.

[2:15:13] De wetenschap is al op vele manieren betrokken bij de inzet van algoritmes en instrumenten die zorgen voor een verantwoorde inzet daarvan.

[2:15:21] En ik zal, zoals toegezegd, voor april een brief aan uw Kamer toezenden over de manier waarop ik hierover uitvoering ga geven in de leid van de motie omzicht, zeker de extra.

[2:15:31] En daar heb ik in mijn inleiding ook al over gesproken.

[2:15:34] Mede een vraag van u. Welk mensbeeld zit er achter de risicoselectie bij de inzet van algoritmes?

[2:15:40] Gelooft u dat toekomstig gedrag van individuen te vangen is in voorspellende algoritmes?

[2:15:46] Algoritmen voor risicoselectie voorspellen gedrag niet.

[2:15:49] Het zijn statistische berekeningen om de kans op een gebeurtenis in te schatten.

[2:15:55] Ik wil benadrukken dat na risicoselectie een mens altijd moet bekijken wat er moet gebeuren.

[2:16:01] Of bijvoorbeeld een controle nodig is.

[2:16:03] Ook bij de inzet van risicoselectie blijft de menselijke maat van belang.

[2:16:08] En in dat kader over het mensbeeld.

[2:16:12] Wat ik altijd aangeef, ook in het ministerie, is dat de ambtenaar altijd bij de uitvoering van zijn dienst op de stoel moet gaan zitten van een burger of een bedrijf.

[2:16:23] Dus de ontvanger, om zo goed mogelijk zijn processen uit te kunnen voeren.

[2:16:26] En als daar verbeteringen in zijn, zal die dat ook moeten melden.

[2:16:31] Dan nog een vraag van de heer Dijkstra.

[2:16:34] Welke gevolgen worden concreet verbonden aan risicoselectie bij het inzetten van algoritmes?

[2:16:38] Risicoselectie worden overheden ingezet in het kader van toezicht en handhaving.

[2:16:42] En op basis van risicoselecties worden bijvoorbeeld bepaald of er handmatige behandelingen van een casus of een controle plaatsvindt.

[2:16:49] En als algoritme wordt gebruikt voor risicoselecties moet de aantussenkomst van een mens zijn voordat een eventueel besluit wordt genomen.

[2:16:55] Dit sluit aan bij mijn vorige antwoord.

[2:16:59] Dan een vraag van de heer Dijkstra.

[2:17:01] Erging van Denk en van de PvdA GroenLinks.

[2:17:05] Als ik ze samen mag brengen, is het de kabinetsreactie op het AP... In het kabinetsreactie, voorzitter.

[2:17:13] De kabinetsreactie op het AP-advies geeft u aan... dat wettelijke grondslagen niet ontbreken voor geautomatiseerde selectietechnieken... onder voorwaarde dat er menselijke tussenkomst is.

[2:17:24] Wat begrijpt u onder menselijke tussenkomst?

[2:17:28] Daar geeft de autoriteit persoonsgegevensrichtlijnen voor mee.

[2:17:32] Die volgt het kabinet.

[2:17:33] De menselijke tussenkomst moet betekenisvol zijn.

[2:17:37] Dat wil zeggen dat de behandelend ambtenaar moet kunnen beoordelen of selectie in een bepaald geval terecht is.

[2:17:46] En dat vereist onder meer dat de ambtenaar bekend is met de werking van de selectieregel of het algoritme.

[2:17:54] Dan voorzitter mevrouw Koekoek.

[2:17:57] Volt is van mening, geeft mevrouw Koekoek aan, dat alle algoritmes en datasets met overheidsgeld ontwikkeld zijn, gratis beschikbaar moeten zijn voor iedere burger in Europa.

[2:18:07] Deelt de staatssecretaris deze mening?

[2:18:09] Was de specifieke vraag.

[2:18:12] Nee, ik deel deze opvatting niet.

[2:18:14] Het is wellicht wenselijk, maar vaak niet mogelijk.

[2:18:17] En waarom niet?

[2:18:18] Algoritmes die door overheden worden gebruikt, worden vaak door bedrijven ontwikkeld en vallen onder het intellectueel eigendom van deze bedrijven.

[2:18:26] Wel zijn we op dit moment hard bezig met het gratis beschikbaar maken van specifieke hoogwaardige datasets.

[2:18:33] Met het open source beleid wordt er wel ingezet om dit zoveel mogelijk voor algoritmes te realiseren.

[2:18:41] Dan een combinatievraag als u mij daartoe staat van BBB en Denk.

[2:18:53] Ja, die gaat over illegale algoritmes.

[2:18:56] En als ik het goed heb samengevat, BBB en denk via de voorzitter... vindt het kabinet dat er helemaal geen illegale algoritmes meer zijn.

[2:19:06] En hoe kan dit met zekerheid worden gezegd?

[2:19:10] En waarom is er geen aparte inventarisatie?

[2:19:14] Op dit moment kunnen we dit niet met 100% zekerheid uitsluiten.

[2:19:18] Het netwerk van publieke dienstverleners zal zoals aangekondigd onder de uitvoerders...

[2:19:22] uitgebreide uitvraag doen naar de inzet van dergelijke selectie instrumenten om die vervolgens te kunnen analyseren.

[2:19:30] En aan de hand van deze analyse wil ik kijken welke maatregelen of instrumenten nodig zijn.

[2:19:36] Daarnaast wordt het algoritme... Nog twee regels.

[2:19:39] Daarnaast wordt het algoritmeregister gevuld, zodat we zicht hebben op hoog risico algoritme.

[2:19:45] Als blijkt dat daar illegale algoritmes tussen worden gestopt, dan

[2:19:51] Nee, tussen zitten, dan worden die gestopt.

[2:19:53] En voor het eind van het jaar zullen de hoogrisico-algoritmes in het register zitten.

[2:19:59] En daar is door alle departementen een toezegging voor gegeven.

[2:20:05] En dan heeft u een interruptie van de heer Vermeer van de BPP.

[2:20:11] Ja, dank u wel, voorzitter.

[2:20:12] Ik neem aan dat de staatssecretaris of zijn collega... straks nog even terugkomt over wie bepaalt wat hoog risico is, bijvoorbeeld.

[2:20:23] Maar, voorzitter, er is ook door de Algemene Rekenkamer... een aantal algoritmes onderzocht.

[2:20:31] En dat heeft ook met deze problematiek te maken...

[2:20:37] Natuurlijk en ook om te toetsen of algoritmes illegaal zijn.

[2:20:42] En graag zou ik nog even weten welke onderzoeken naar welke algoritmes... er op dit moment lopen bij de Algemene Rekenkamer.

[2:20:50] Maar dat mag ook in de tweede termijn beantwoord worden.

[2:20:53] Welke onderzoeken naar algoritmes en welke algoritmes zijn dat... lopen er op dit moment bij de Algemene Rekenkamer?

[2:21:02] Het woord is aan de staatssecretaris.

[2:21:07] Dank voor deze vraag.

[2:21:08] Ik denk een hele relevante voorzitter.

[2:21:11] Dan ga ik verder weer met een vraag van de heer Vermeer.

[2:21:14] Automatische selecties worden als oké gezien als deze alleen worden gebruikt om te beoordelen of er omverte acties nodig zijn of niet.

[2:21:22] Hoe kan dat worden vastgesteld en hoe wordt bepaald dat profilering geen invloed heeft op het uiteindelijke menselijke besluit?

[2:21:29] Dan onderpreek ik toch even, want dan heeft u nog niet aan de heer Vermeer laten weten of u daar in de tweede termijn eventueel nog even op terugkomt.

[2:21:37] Want dat was de vraag.

[2:21:39] Het antwoord is ja en ik hoop dat we daar het goede antwoord ook in de tweede termijn op kunnen geven.

[2:21:43] En als dat niet lukt dan krijgt u een brief.

[2:21:47] Maar we gaan wel vanuit dat dit gaat lukken, voorzitter.

[2:21:53] Ja, nou goed, ik heb de vraag van de heer Vermeer opgelezen.

[2:21:56] Op dit moment is er nog geen duidelijkheid over hoe deze processen per organisatie verlopen.

[2:22:03] De toegezegde analyse van casuïstiek door het netwerk van publieke dienstverleners moet hierin meer duidelijkheid brengen.

[2:22:10] En er worden wel wat vragen gesteld aan die...

[2:22:15] aan het netwerk.

[2:22:16] Dus ik denk dat er heel belangrijke conclusies in komen te staan eind van het jaar... waar we mee verder kunnen.

[2:22:24] Heeft u toch nog een interruptie van de heer Van Meer?

[2:22:29] Ja, voorzitter.

[2:22:29] Op de gok af dat de staatssecretaris dat net wilde vertellen.

[2:22:33] Maar er zat ook nog de vraag bij in van hoe wordt bepaald... dat die profilering geen invloed heeft op het uiteindelijke besluit.

[2:22:41] Want er zit natuurlijk wel een knip...

[2:22:44] Maar de manier waarop die profilering gepresenteerd wordt aan de mens... is heel erg bepalend voor hoe die mens dat oppakt... en welke conclusies daaruit getrokken worden.

[2:22:59] Het woord is aan de staatssecretaris.

[2:23:00] Voorzitter, het antwoord op deze vraag is een onderdeel van het plan van aanpak van het netwerk.

[2:23:06] Dus hier komen wij ook op terug.

[2:23:09] Oké, en u heeft nog een vraag.

[2:23:12] Hoe gaan we om met de...

[2:23:14] vooroordelen ingevallen omdat er sprake is van menselijke tussenkomst.

[2:23:21] Er is afgelopen jaren veel gebeurd op het vlak van bewustwording en training... om discriminatie te voorkomen.

[2:23:26] Vragen over het algemene discriminatiebegeleid... geleid ik graag door naar de minister van Binnenlandse Zaken... waarmee u morgen een debat heeft.

[2:23:35] Dan nog een vraag van de heer Vermeer.

[2:23:39] U krijgt een interruptie van de heer Vermeer zelfs.

[2:23:41] Mag u weer even die...

[2:23:43] Nou, voorzitter, meer een procedurevraag.

[2:23:45] Moet ik dit zien als een toezegging dat ze daar beantwoord worden en dat ik dat uit de handelingen kan halen?

[2:23:53] We gaan aan de slag, voorzitter, met de beantwoording op deze vraag.

[2:24:03] Dan nog een vraag van de heer Vermeer.

[2:24:07] is het niet noodzakelijk dat ook databases die worden gebruikt... in kaart worden gebracht om een compleet beeld te krijgen.

[2:24:15] De effectieve en verantwoorde inzet van algoritmes hangt inderdaad samen... met de kwaliteit van de data die daarbij gebruikt worden, vanzelfsprekend.

[2:24:23] En in het algoritmeregister is ruimte om informatie op te nemen over de gebruikte data.

[2:24:30] En van deze mogelijkheid wordt echter niet altijd gebruikgemaakt...

[2:24:35] Wel is het zo dat de meeste impactvolle algoritmes persoonsgegevens gebruiken.

[2:24:40] De AVG stelt specifieke regels aan het delen en openbaar maken van deze data.

[2:24:46] En een additionele opmerking.

[2:24:48] Het algoritmeregister, voorzitter, wordt gebruikt.

[2:24:53] Eigenlijk wordt gezegd van ja, vult u hem maar.

[2:24:55] Maar we gaan nu ook analyseren hoe het gevuld wordt.

[2:24:58] En hoe we dat kunnen optimaliseren dat de juiste informatie er ook voor gebruik in komt te staan.

[2:25:06] De analyse, weer een vraag van de heer Vermeer, van selectie instrumenten bij uitvoeringsorganisaties.

[2:25:12] BBB ziet ruimte voor verbetering en aanscherping.

[2:25:16] En is het inmiddels duidelijk of de staatssecretaris een coördinerende rol krijgt?

[2:25:21] Nee, voorzitter, dat is nog niet duidelijk.

[2:25:23] Het netwerk van publieke dienstverleners doet zelf de uitvraag onder uitvoerders, analyseert de uitkomsten en organiseert de kennisdeling.

[2:25:31] Ik ben wel nauw betrokken bij het proces en bij de uitkomsten.

[2:25:36] Dan mevrouw Katman, hoe ziet het er in de praktijk uit als algoritmes iemand als fraude risico ziet?

[2:25:45] Dit verschilt per toepassingsgebied.

[2:25:47] Dit kan bijvoorbeeld van tevoren zijn of achteraf.

[2:25:52] Zoals gemeld zou het netwerk publieke dienstverlening bij haar leden een uitgebreide uitvraag doen naar de inzet van selectie instrumenten.

[2:25:58] om die vervolgens te kunnen analyseren.

[2:26:01] Aan de hand van deze analyse wil ik kijken welke maatregelen of instrumenten nodig zijn om verder invulling te kunnen geven aan de waarborgen uit het AP-advies.

[2:26:12] Dan nog een vraag van mevrouw Katman.

[2:26:13] Hoe gaat het kabinet zorgen voor eenduidige werkwijze binnen de overheid voor hoe medewerkers omgaan met algoritmes binnen de overheid?

[2:26:22] Voorzitter, bestaande instrumenten zoals het algoritme kader kunnen overheid medewerkers hierbij helpen.

[2:26:29] Hierin staan overzicht van alle geldende verplichtingen voor de inzet van algoritmes door de overheid.

[2:26:34] Ook is kennisdeling tussen publieke dienstverleners en de departementen hierbij vanzelfsprekend van belang.

[2:26:40] En daarnaast organiseert de overheid trainingen op het gebied van techniek bewustwording en compliance.

[2:26:47] Nog een vraag van mevrouw Katman.

[2:26:48] Hoe kunnen burgers weten...

[2:26:50] of er een mens aan te pas is gekomen in het proces.

[2:26:54] In veel gevallen is dat op dit moment lastig aan te geven.

[2:26:58] De analyse van casuïstiek... die ik in samenwerking met netwerk publieke dienstverleners uit zal voeren... zal meer inzicht moeten geven aan de vraag... hoe aan maatregelen als deze in de praktijk invulling kan worden gegeven.

[2:27:14] En dat lokt een interruptie uit van mevrouw Kappen.

[2:27:20] Ja, dank voorzitter.

[2:27:24] En ook dank aan de staatssecretaris voor dat antwoord... van wat is nou betekenisvolle menselijke tussenkomst.

[2:27:29] En dan is het fijn dat we ons idealiter aan de richtlijnen van de AP houden.

[2:27:35] Maar als daar dan vervolgens een punt komt, dan wordt het heel ingewikkeld.

[2:27:38] En wat ik helemaal ingewikkeld vind, is hoe weten we nou... dat als we ons aan de richtlijnen van de AP houden... dat die ambtenaren weten waar ze mee werken... en dat die burger snapt wat de werking van zo'n algoritme is.

[2:27:52] En dan is het ook fijn dat we allemaal trainingen hebben... en richtsnoeren en richtlijnen, maar ondertussen is het enige...

[2:27:58] waar wij een beetje als Kamer naar kunnen kijken van wat gebeurt er nou?

[2:28:01] Is dat register wat niet gevuld wordt?

[2:28:04] Dus hoe komen we nou tot iets waarvan de Kamer beter kan controleren... oh, maar hier gaat echt wat van uit.

[2:28:11] Oh, die richtlijnen, dat is niet alleen een papieren tijger.

[2:28:14] Dat doen we ook echt.

[2:28:15] En ik denk dat de staatssecretaris misschien zo op dat voorstel terugkomt... wat we al eerder hebben gedaan met de heer Sikstijks gezamenlijk...

[2:28:24] De enige manier hoe je er echt aan kan werken is als je op elke brief zegt... dit algoritme is gebruikt, u bent op deze indicatoren eruit gehaald.

[2:28:32] Want dat is dus niet alleen voor die burger noodzakelijk... maar ook dat die ambtenaar die dat op moet schrijven... of de klacht die binnenkomt of de informatie die wordt gevraagd... daardoor denk ik dat we dit probleem een beetje kunnen oplossen.

[2:28:46] De staatssecretaris.

[2:28:47] Ja, voorzitter, dat zit nog in het antwoordpakketje.

[2:28:50] Daar kom ik op terug.

[2:28:51] En wat de trainingen betreft... staan we altijd voor open om u daar meer informatie over te geven.

[2:28:59] Welke trainingen ook onze ambtenaren krijgen... indien daar vanuit de Commissie Digitale Zaken behoefte aan bestaan.

[2:29:06] Oké.

[2:29:08] Dan gaat nog een vraag van mevrouw Katman...

[2:29:16] Ja.

[2:29:17] Gaan wij algoritmes onder de AI-verordening stopzetten als ze niet voldoen?

[2:29:22] Wat zijn verboden AI-systemen volgens de AI-verordening?

[2:29:26] Overheden worden actief aangemoedigd om hun huidige AI-systemen in kaart te brengen.

[2:29:32] Als het gaat om een verboden AI-systeem moet dit worden stopgezet.

[2:29:35] Verboden AI-praktijken zijn AI-systemen met een dusdanig risico op de inbreuk op grondrechten, gezondheid en veiligheid dat ze niet zijn toegestaan.

[2:29:45] Dan nog een vraag van mevrouw Kaltman.

[2:29:47] Voldoet Nederland vanaf volgende week aan de AI-verordening?

[2:29:51] Duidelijk ja of nee, meneer de staatssecretaris.

[2:29:55] Het antwoord is... Dit is geen grapjasserij.

[2:30:03] Het antwoord is ja.

[2:30:04] Voor zo bekend voldoet de Nederlandse overheid aan de eerste bepalingen van verboden AI-systemen.

[2:30:12] Dan een vraag van de PVV.

[2:30:16] Van de heer Valize.

[2:30:18] Staat vast.

[2:30:21] En die is heel cryptisch.

[2:30:24] Dat dat uitkomsten uit risicoselecties niet bewaard of gedeeld worden voor andere toepassingen.

[2:30:29] Nee, is niet cryptisch.

[2:30:33] En dan had u het met name geloof ik ook over de Belastingdienst.

[2:30:37] Ja.

[2:30:38] Er is geen aanleiding om te veronderstellen dat uitkomsten van de risicoselecties bewaard of gedeeld worden voor andere toepassingen die betrekking hebben op een specifieke belastingplichtige.

[2:30:48] Wel is het zo dat de Belastingdienst algemene informatie kan vergaren uit risicoselecties.

[2:30:53] Wanneer bijvoorbeeld een bepaald onderwerp veel uitgeworpen wordt...

[2:30:58] Dan kan de Belastingdienst die informatie gebruiken om de communicatie op dat onderwerp aan te passen.

[2:31:03] Opslag kan wel plaatsvinden in het kader van de archiefwet.

[2:31:10] Dan had u een interruptie van mevrouw Kapman.

[2:31:13] Ja, voorzitter.

[2:31:16] Want ik was nog heel even flabbergasted van dat antwoord.

[2:31:19] Dat de staatssecretaris met zulke volle overtuiging zegt dat we volgende week aan de AI-verordening doen.

[2:31:25] Omdat de Rekenkamer net een rapport heeft gepubliceerd waaruit blijkt dat we de helft van de AI-systemen die gebruiken niet in beeld hebben.

[2:31:31] Dat we geen risicoanalyses doen.

[2:31:33] Dus ja, we weten natuurlijk wat we niet weten, dan is het makkelijke antwoord, we voldoen eraan wat ik weet het niet.

[2:31:39] Maar daar ging mijn vraag natuurlijk over.

[2:31:42] Als het zo slecht gesteld is met, we weten niet wat we gebruiken, we weten de risico's niet van wat we gebruiken.

[2:31:48] En het erge is ook nog, dat als we het gebruiken, dan meten we niet eens of we nou de doelstelling van het gebruik halen.

[2:31:55] Als we dat weten, dan moeten we dus ongelooflijk veel zorgen hebben over of we wel aan die AI-verordening voldoen.

[2:32:02] Het woord is aan de staatssecretaris.

[2:32:07] Voorzitter, waar het specifiek om gaat is de verboden AI-systemen.

[2:32:13] Dus niet alle AI-systemen.

[2:32:17] Dus daar hebben we nagekeken.

[2:32:23] Een vervolgvraag van mevrouw Katman.

[2:32:26] Is er dan ook gekeken naar de helft van de AI-systemen die we niet in beeld hebben?

[2:32:29] Of is er gekeken naar de helft van de systemen die we in beeld hebben?

[2:32:33] Want dat zijn de systemen die we in beeld hebben.

[2:32:37] De staatssecretaris.

[2:32:43] Ik twijfel even om het antwoord te geven.

[2:32:46] Ik ben even aan het kouwen op het antwoord.

[2:32:49] Deze pak ik even in het tweede termijn mee om het juiste antwoord hierop te geven.

[2:32:53] Want u vond dat ik daar net heel erg stellig was.

[2:32:55] Dat was niet uw bedoeling.

[2:33:04] Dan heeft u nog een interruptie van de heer Vermeer.

[2:33:06] Ja, volgens mij had ik er nog eentje.

[2:33:10] Ja, voorzitter, wat ik wel wat ingewikkeld vind... over die discussie over illegaal, verboden... of het klopt of niet en of er al voldoende overzicht is... wij kunnen dat niet controleren, want er staat maar een paar procent in de registers...

[2:33:25] Maar wat als een systeem bijvoorbeeld 100 hits geeft en er maar 5 aan de mens voorlegt?

[2:33:34] Dan is het een combinatie van een geautomatiseerd besluit en een besluit wat aan een menselijke toetsing voorgelegd wordt.

[2:33:42] Dus stel voor, box 3, iemand heeft bezwaar gemaakt.

[2:33:47] Allerlei mensen hebben bezwaar gemaakt.

[2:33:48] Het systeem zit een algoritme in en die zegt van de honderd bezwaren die ingediend zijn, heb ik er vijf voorgelegd om af te wikkelen, want de rest voldoet niet aan de voorwaarden.

[2:34:00] Maar dat krijgt dan... Dus hoe gaat u in vredesnaam toetsen?

[2:34:07] Of hoe kan de overheid nou toetsen als het nog niet bekend is wat die dingen allemaal doen?

[2:34:14] Of ze daarmee dan wel aan deze eis voldoen.

[2:34:16] Want dat lijkt me namelijk heel ingewikkeld.

[2:34:18] Want het is niet zo dat een systeem alleen maar iets voorlegt of niet doet.

[2:34:24] Maar er zitten ook tussenselecties in een algoritme altijd die bepaalde mensen eruit pikken.

[2:34:28] Dus hoe denkt de staatssecretaris dat dit probleem opgelost moet worden?

[2:34:34] En ik weet niet of hij dat zo even kan beantwoorden.

[2:34:38] Nou, u heeft de vraag zo lang gesteld dat meneer de staatssecretaris voldoende tijd heeft gehad om er even over na te denken.

[2:34:43] Dus het woord is aan de staatssecretaris.

[2:34:47] Ja, nou weet u voorzitter, het algoritme moet meer worden gevuld ter gister.

[2:34:54] En het moet ook sneller gaan.

[2:34:55] En zoals ik aangegeven in het begin, dat ik ook op het niveau van de ministerraad dit gewoon nog een keer naar voren zal brengen.

[2:35:02] Om de volgende keer als we hier zitten op basis van nog meer informatie met u een debat te kunnen voeren.

[2:35:11] U mag een korte bevolking stellen.

[2:35:14] Voorzitter, en wanneer komt de staatssecretaris op het moment dat hij zegt... en vanaf die datum mag een algoritme wat gewoon niet in het register staat niet meer gebruikt worden?

[2:35:26] Het woord is aan de staatssecretaris.

[2:35:32] Oh ja, er zitten nog wat antwoorden in.

[2:35:36] in deze vraag waar ik hierop terugkom.

[2:35:40] Ik heb aangegeven, helemaal in het begin... ook op basis van toegankelijkheid... hoe het gaat met de geschiedenis op dit soort dossiers... in de Tweede Kamer, helaas.

[2:35:52] En ik ben wel van plan om zo rond de zomer...

[2:35:56] Want het register zit in een versnelling, nog niet een hele grote versnelling, maar aan het vullen ervan zit wel een versnelling.

[2:36:02] Omdat we ook vorig jaar brieven hebben toegezonden naar de overheidsorganisaties om voor de zomer te meten of dat effectief is dan wel dat het een eenmalige versnelling was.

[2:36:13] En dan wil ik een afweging maken hoe we dit verder gaan oppakken.

[2:36:19] Wetgeving dan wel andere wijze.

[2:36:22] Maar ik wil er wel duidelijk bij zeggen, wetgeving betekent niet altijd dat het dan ook geluisterd wordt.

[2:36:28] Dus het moeten combinaties zijn van wetgeving, brieven, mensen erop aanspreken en ook zenden vanuit mijn kant.

[2:36:37] Met steun natuurlijk ook van de Tweede en waar nodig ook van de Eerste Kamer.

[2:36:42] Maar het is niet zo als u mij hier vier jaar laat zitten.

[2:36:47] En als de kiezer dat wil, misschien acht of twaalf jaar.

[2:36:51] Dat ik hier over twaalf jaar zit en dat ik zeg van nou joh, we zijn van twee naar vier procent gegaan.

[2:36:56] Dan hebben we echt iets verkeerd gedaan.

[2:36:59] Dat is in ieder geval mijn instelling ook op dit dossier.

[2:37:01] Ik wil gewoon een resultaat zien.

[2:37:05] Dank u wel, voorzitter.

[2:37:08] Kan het kabinet uitleggen... Nee, even kijken hoor.

[2:37:13] Ja, nog één vraag op dit pakketje verantwoorden inzet AI en algoritme.

[2:37:17] En daarna ga ik over naar transparantie van het register.

[2:37:20] Kan dit kabinet uitleggen hoe Nederland aan de rest van de verordening gaat voldoen?

[2:37:24] Wanneer moeten welke stappen worden gezet?

[2:37:25] Vraag van GroenLinks, PvdA trouwens.

[2:37:28] En hoe kan ik als Kamerlid...

[2:37:30] erop vertrouwen dat dit lukt.

[2:37:32] En ik is mevrouw Katman in deze.

[2:37:34] Het kabinet is al bezig met de voorbereiding van de implementatie en uitvoering van de AI-verordening.

[2:37:39] Er wordt gewerkt aan een uitvoeringswet.

[2:37:41] Daarnaast moet elk ministerie een kaart brengen welke stappen nodig zijn voor compliance met de verordening voor de betreffende sector.

[2:37:49] En ik zal deze vraag ook doorgeleiden aan de minister van Economische Zaken, die de implementatie van de AI-verordening coördineert.

[2:37:58] Dan ga ik naar het pakketje.

[2:38:01] Pakket.

[2:38:03] Transparantie en registratie.

[2:38:04] Mevrouw Koekoek.

[2:38:08] Is de staatssecretaris met haar eens dat het algoritmeregister een essentiële rol speelt voor het inzichtelijk maken voor burgers waarom een bepaalde beslissing is genomen?

[2:38:18] Het algoritmeregister speelt inderdaad

[2:38:22] een grote rol in transparantie richting burgers.

[2:38:25] En ik spoor daarom alle instanties binnen de Rijksoverheid aan... en onze mede-overheden... om de informatie over het gebruik van algoritmes te registreren... in het algoritmeregister.

[2:38:37] En dit sluit aan op mijn woorden uit het vorige blokje.

[2:38:41] Mevrouw Katman, wat is het grote plan van de overheid... met het algoritme... Hoe later de avond, hoe moeilijker het wordt, hoor.

[2:38:51] Al...

[2:38:54] En hoe vullen we dat dan in?

[2:38:56] Uw Kamer heeft in de motie Dekker-Abdoulaziz uit juni 2023 gevraagd om alle hoogrisico-AI-systemen op te nemen.

[2:39:06] Daarom en vanwege de aankomende AI-verordening is daar de focus nu op gelegd.

[2:39:12] De afspraak met departementen is expliciet dat tenminste het hoogrisico AI-systemen betreft.

[2:39:18] Maar veel organisaties publiceren al meer.

[2:39:23] Ik zal mij verder inspannen voor het registreren van alle relevante algoritmes.

[2:39:27] En maak daarvoor afspraken binnen de overheid.

[2:39:29] En dit sluit ook aan bij wat ik hiervoor heb gezegd.

[2:39:33] Als ook dat ik voor de zomer de ballons wil opmaken.

[2:39:36] En dit dossier ook actief bij de Nederlandse digitaliseringstrategie wil betrekken.

[2:39:41] Dan een vraag van de heer Ergin van Denk.

[2:39:46] Voorzitter, vorig jaar bleek dat slechts 5% van de systemen opgenomen waren in het algoritmeregister.

[2:39:52] Hoeveel procent van de algoritmen zijn nu opgenomen in het algoritmeregister?

[2:39:57] Het is niet bekend wat het totale aantal impactvolle algoritmen binnen de overheid is.

[2:40:03] En ik zie dat overheidsorganisaties hard werken aan het vullen van het register met als eerste stap de analyse van algoritmes binnen hun eigen organisaties.

[2:40:10] Sinds 1 januari 2024 is het aantal algoritmes met 170% toegenomen en het aantal organisaties met 200%.

[2:40:22] Dan nog een vraag van de heer Ergin.

[2:40:32] Ik heb niks gezegd, voorzitter.

[2:40:35] Kan de staatssecretaris in mei of juni een update geven van het percentagealgoritme... dat dan is ingevuld in het algoritmeregister?

[2:40:46] Op verantwoordingsdag, voorzitter, de derde woensdag in mei... zal inmiddels een jaarrapportage bedrijfsvoeringrijk een update worden gegeven... over de voortgang en het vullen van het register door de departementen.

[2:40:57] De departementen zullen hier rapporteren hoeveel hoog risico-AI...

[2:41:02] en hoeveel impactvolle algoritmes zij in 2024 hebben geregistreerd... en hoeveel zij nog voor het eind van 2025 verwachten te registreren.

[2:41:14] Een vraag van mevrouw Koekoek van de heer Ergin van Denk... en mevrouw Katman, GroenLinks PvdA.

[2:41:21] Is de staatssecretaris het eens dat iedereen inzage moet kunnen hebben... in informatie en algoritmen die de overheid...

[2:41:30] over zich gebruikt en waardoor ze kunnen worden geraakt.

[2:41:33] Nou, dat is eigenlijk wat ik er net over had en deze vraag nog lag.

[2:41:38] En hoe verhoudt een motiveringsplicht in een algemene wet bestuursrecht... als de staatssecretaris niet de voorstellen van Open State Foundation wil overnemen?

[2:41:47] Het huidige motiveringsbeginsel ziet niet expliciet toe op algoritmische besluitvorming.

[2:41:53] Ik ben het met u eens dat transparantie belangrijk is... en het kabinet wil zich inzetten voor transparantie...

[2:41:59] en rechtbescherming bij het gebruik van algoritmes.

[2:42:02] Een van de manieren om dit te bereiken is bijvoorbeeld via het register.

[2:42:07] Ook onderzoek ik de mogelijkheden voor wetgeving, zoals aangegeven, die hierbij aansluit.

[2:42:12] En met de internetconsultatie algoritmische besluitvorming en de AWB.

[2:42:18] En ik kom daar binnenkort bij u op terug.

[2:42:23] En binnenkort is eind Q1, begin Q2.

[2:42:28] En is de staatssecretaris het ermee eens, vraag van mevrouw Koekoek en de heer Ergin, dat de positie van burgers ten opzichte van de overheid moet worden versterkt door het register wettelijk te verplichten?

[2:42:42] Nou, het is eigenlijk dezelfde vraag.

[2:42:45] En dan is het antwoord ook hetzelfde.

[2:42:47] Ik kijk ernaar en kom er rond de zomer op terug.

[2:42:52] En de heer Buijzen, kan gesteld worden dat de informatie...

[2:42:56] ...die bijgehouden wordt in het algoritmeregister afdoende is... ...of zijn er verbeterpunten?

[2:43:01] Het algoritmeregister bevat velden... ...die ertoe dienen de transparantie over waarborgen te vergroten.

[2:43:09] De verplichte velden bieden de belangrijkste informatie.

[2:43:12] Daarnaast zijn er niet-verplichte velden... ...zoals een veld om te verwijzen naar een uitgevoerde mensenrechttoets bijvoorbeeld.

[2:43:20] Deze niet-verplichte velden worden niet altijd ingevuld.

[2:43:24] Een belangrijk punt...

[2:43:25] Van verbetering is daarom om de organisaties te vragen meer velden in te vullen en meer informatie ter beschikking te stellen.

[2:43:33] Ik ga mij daar ook voor inzetten, want het zou zonde zijn als de software die is gebouwd niet volledig als applicatie goed wordt gebruikt.

[2:43:44] Nog een vraag van de heer Buijzen, voorzitter.

[2:43:53] Ja, die heb ik ook al beantwoord.

[2:43:55] wat de rol van de Nederlandse digitaliseringstrategie in deze is.

[2:44:00] Dus daar hoef ik niet meer op in te gaan met uw welnemen.

[2:44:04] Hoe kijkt de staatssecretaris aan tegen het vijfsterrenmodel?

[2:44:07] Het vijfsterrenmodel is een ambitieuze manier... om te kijken naar de transparantie van algoritmes.

[2:44:12] Het is een interessant model.

[2:44:14] Dit betrek ik ook bij de brief van april... waarbij ik inga op de motie om zich seksdijksta... over de wetenschappelijke standaard.

[2:44:22] Dan een vraag van de heer Vermeer...

[2:44:25] Hoe verhoudt het algoritmeregister zich tot de diverse registers die al door gemeentes zijn gemaakt?

[2:44:33] Het algoritmeregister heeft geen relatie met andere registers.

[2:44:38] Het wordt niet vanuit de gemeentelijke registers gevuld.

[2:44:44] Dan nog een vraag van de heer Vermeer.

[2:44:45] Is de benodigde capaciteit aanwezig?

[2:44:48] En wie bepaalt wat hoog risico is en wat de voorwaarden hiervoor zijn?

[2:44:53] Het kost inderdaad tijd en capaciteit om te analyseren welke systemen er zijn en de benodigde informatie te verzamelen en af te stemmen.

[2:45:05] Inmiddels is er een inventarisatie bij gemeenten en departementen.

[2:45:10] Voor zover ik weet afgerond en alleen bij departementen, niet bij gemeenten.

[2:45:16] Ik ga ervan uit dat departementen zich nu klaarmaken voor de volgende fase.

[2:45:21] En voor het bepalen van hoog risico AI-systemen heb ik een handreiking geschreven voor het inventariseren, identificeren en klassificeren van AI-systemen om hiermee overheidsorganisaties te helpen AI-systemen juist in te schatten.

[2:45:40] Dan heeft u nog een vraag van de heer Van Meer.

[2:45:43] Ja, voorzitter.

[2:45:45] Wat is er precies de naam van die handrekening?

[2:45:47] Weet de staatssecretaris dat zo?

[2:45:49] Of kan hij dat in de tweede termijn anders even melden?

[2:45:53] Dat ik die er even bij kan zoeken.

[2:45:59] Ik ga u daar in de tweede termijn het antwoord op geven.

[2:46:03] Wat de naam is van de handrekening.

[2:46:05] Dan nog een vraag van de heer Vermeer.

[2:46:07] Een algoritme is volgens de BBB te omschrijven als een oplossing voor een probleem dat op een wiskundige manier is beschreven.

[2:46:14] Gaat het register wel voor zorgen voor de nodige transparantie?

[2:46:19] Ja, het register is een belangrijk middel om de nodige transparantie te regelen.

[2:46:23] We zijn op dit moment met de internetconsultatie, algoritmische besluitvorming en de AWB aan het analyseren welke aanvullende maatregelen nodig zijn om onder andere transparantie te verbeteren.

[2:46:36] Eind van dit kwartaal, begin volgend kwartaal, wordt deze analyse met uw Kamer gedeeld.

[2:46:41] De heer Verliesen vroeg nog hoe het mogelijk is dat het zo ingewikkeld is een simpel algoritme te beschrijven en aan het register toe te voegen.

[2:46:52] De eerste stap in het vullen van het register is het in kaart brengen van de gebruikte algoritmes.

[2:46:58] Dit neemt best wel veel tijd in beslag, net als het begrijpelijk en correct beschrijven van het algoritme.

[2:47:07] Maar ook hiervan geldt, ik denk dat ik wat specifieker naar dit onderwerp ga kijken, dat ik dit ook kan versnellen.

[2:47:15] Daar waar we meer handvatten kunnen geven aan degene die het register moeten vullen.

[2:47:23] Er is aangegeven dat het algoritmeregister in 2025 up-to-date moet zijn.

[2:47:28] Wat is er van de kant van de Kamer nodig om te bevorderen dat we algoritmes ook daadwerkelijk

[2:47:37] in het register hebben staan.

[2:47:38] Dank u voor deze vraag.

[2:47:40] We willen ervoor zorgen dat er ook toezicht komt bij de lokale overheden.

[2:47:44] Wanneer de landelijke politiek dit ook doorgeeft aan lokale politiek, dan zijn we samen sterk.

[2:47:50] En vooral uw controlerende en adviserende taken aan mij zorgen ervoor dat we dit vraagstuk goed op de inhoud kunnen behandelen.

[2:48:00] Dan, voorzitter, het blokje overruggen van mijn kant.

[2:48:13] Voorzitter, een tweetal overige vragen.

[2:48:21] Een vraag van de heer Ergin van Denk, voorzitter.

[2:48:26] Motie 2021.

[2:48:27] Het ADR-onderzoek, drie punten dat aantrekt.

[2:48:34] Aantal zaken niet goed geregeld zijn.

[2:48:36] Bij BUSA niet gekeken naar etniciteit en geboorteplaats.

[2:48:41] Binnenlandse zaken heeft u aangegeven.

[2:48:42] Geen toets uitgevoerd naar volledigheid en juistheid.

[2:48:46] En bij VWS non-discriminatie niet uitgevraagd.

[2:48:49] Bij OCW niet alle organisaties betrokken.

[2:48:53] Kijkende naar het rapport van ADR vraagt u. Is de Stas tevreden met de operatie datavervuiling of herstellen van datavervuiling?

[2:49:02] De ADR beschrijft dat departementen waarborgen hebben getroffen voor een accurate en volledige uitvoering van motie 21.

[2:49:13] De toetsing op oneigenlijk gebruik is verschillend uitgevoerd.

[2:49:17] Dit is in lijn met de ruimte voor departementen een eigen aanpak te kiezen en daarover te rapporteren.

[2:49:23] En ik zet mij in voor meer transparantie over algoritmes in brede zin, zoals via het algoritmeregister.

[2:49:30] En bij het voldoen aan nieuwe wet- en regelgeving, zoals de AI-verordening, via het algoritme kader.

[2:49:38] En dan heeft u een interruptie van de heer Ergen.

[2:49:42] Voorzitter, ik kan nog een aantal voorbeelden noemen... wat eigenlijk past in het beeld waarbij er op dit moment... mogelijk nog sprake is van vervuilde data bij diverse ministeries.

[2:49:55] Even los van alle algoritmediscussie die we net hebben gevoed.

[2:49:59] Separaat daarvan hebben we op dit moment... is er sprake van datavervuiling die niet is aangepakt.

[2:50:06] De regering heeft volgens aangegeven, motie 21 hebben we afgedaan...

[2:50:11] Volgens heeft DENK gevraagd, weet je wat, laat dat even extern checken door het ADR.

[2:50:15] En het ADR komt met een waslijst aan zaken die niet zijn uitgevoerd.

[2:50:21] En ik hoor van de staatssecretaris hier dat hij zich gaat inzetten om dataverveiling te voorkomen of tegen te gaan.

[2:50:29] Kan de staatssecretaris op het minst aangeven wat hij daarmee bedoelt?

[2:50:32] Wat gaat hij nou precies doen?

[2:50:34] Want het is al gebeurd.

[2:50:36] Onderzoeken zijn uitgevoerd.

[2:50:37] En die data, die zingen, die het nog steeds rond op verschillende departementen.

[2:50:42] En ik wil gewoon van de staatssecretaris horen wat hij gaat doen om die operatie wel te laten slagen.

[2:50:48] De woorden zijn aan de staatssecretaris.

[2:50:50] Dank u voor die vraag.

[2:50:51] Ik heb die luister niet voor me.

[2:50:52] In tweede termijn kom ik daarop terug.

[2:50:57] Uw microfoon.

[2:51:00] De laatste vraag is van de VVD.

[2:51:03] Wie ziet toe op het gebruik van ontwerpprincipes van digitale overheidsdiensten?

[2:51:08] Er is geen toezicht, maar ik stimuleer organisaties met kennis en instrumenten om de transformatie te maken naar werken vanuit klantbeleving in plaats van hoe het was als we dat als overheid zouden organiseren.

[2:51:23] Specifiek voor de digitale diensten is het NL Design Systeem ontwikkeld waarmee overheden eenvoudiger en sneller toegankelijkheid inclusief en gebruikersvriendelijk kunnen ontwikkelen.

[2:51:35] Vorige week hebben we hier ook al over gesproken.

[2:51:38] En ik faciliteer een groot netwerk van overheidsprofessionals uit alle lagen van de overheid die met elkaar aan deze transformatie en mensgerichte dienstverlening werken.

[2:51:54] Dan waren dat de antwoorden op de vragen.

[2:51:58] Dan heeft u toch nog een interruptie van de heer Buijsen van de VVD.

[2:52:03] Ja, ik vind het in alle eerlijkheid toch wat sumier, deze reflectie.

[2:52:06] Ik had graag iets meer bij stil willen staan.

[2:52:09] Dan ga ik daarom ook maar gewoon vragen.

[2:52:11] Want mijn eerdere vraag was... zijn die ontwerpprincipes voor diensten bijvoorbeeld bij de Belastingdienst... dezelfde als bij de ministerie van Financiën, CBR, het Waterschap... en ook op lokale schaal gemeenten Amsterdam of kleinere gemeentes... maar wel zelfbewuste gemeenten zoals gemeente Boekel.

[2:52:26] Mijn eigen gemeente, meneer Vermeer.

[2:52:29] Maar...

[2:52:30] Ja, ik zou dat toch even, want dit is zo elementair, een fundamentele zaak van hoe kijk je er tegenaan, van hoe wij diensten ontwerpen.

[2:52:38] Ook gezien de achtergrond van dat we natuurlijk al heel lang onderweg zijn met het ontwikkelen van digitale diensten.

[2:52:46] En we ook niet zomaar een afslag kunnen nemen van Greenfield.

[2:52:49] Het is allemaal wel al daar.

[2:52:51] Ik zou dat toch met de staatssecretaris nog even wat meer over uit willen dijen.

[2:52:55] En ik zou willen vragen om daar iets dieper op te reflecteren.

[2:52:59] Het woord is aan de staatssecretaris.

[2:53:01] Ja, mijn eerste reactie is... ik denk niet dat alle ontwerpprincipes volledig uniform en gestandardiseerd zijn binnen de overheid.

[2:53:12] Omdat eigenlijk vanaf het begin, toen we begonnen te digitaliseren, zeiden we... iedereen kan zijn eigen gang gaan.

[2:53:21] Rijk, gemeenten, provincies, waterschappen, ZBO's.

[2:53:25] En rijk dan ook ministeries.

[2:53:27] Dat moeten we strakker gaan trekken.

[2:53:30] En vandaar ook dat ik in mijn inleiding ook aangaf dat als het gaat om standaardiseren, en het gaat dan ook over ontwerpprincipes, ik ga niet alles wettelijk opleggen ofzo, maar dat we in ieder geval met elkaar in discussie moeten gaan over hoe we dat gaan verbeteren.

[2:53:45] En het mooie is dat binnen de NDS, die gedragen wordt door verschillende overheidslagen, we daar een mooi podium hebben om dit verder met elkaar te bespreken.

[2:53:55] Als er ook al andere podia's zijn natuurlijk, andere overlegorganen binnen de overheid.

[2:54:00] Maar het is dan weer een niveauotje hoger waar iedereen bij zit.

[2:54:04] Heeft u nog een korte vervolgvraag van de heer Buijsen?

[2:54:08] Ja, dus als ik het goed begrijp, gaan wij in de NDS echt wel een stevige paragraaf terugzien over die ontwerpprincipes, waar ook mensen die daarmee bezig zijn in de buitenwereld, ik heb de laatste tijd een aantal contacten opgedaan die daar gewoon betrokken bij zijn, waar die mensen zich ook in herkennen dat een fundamentele zaak gaat, dat we toe moeten als overheid, decentraal en nationaal, naar meer uniformering van die ontwerpprincipes.

[2:54:31] Als ik dit terug kan lezen in de NDS, zou mij een liefding waard zijn.

[2:54:34] Het woord is aan de staatssecretaris.

[2:54:39] Ik ben even aan het nadenken.

[2:54:40] Waarom?

[2:54:41] Want ik heb tien kantjes vol te schrijven.

[2:54:43] En dat heb ik beloofd.

[2:54:45] Dat wordt de Nederlandse digitaliseringstrategie.

[2:54:47] En daar wil ik niet echt overheen.

[2:54:51] Maar ik ga hierover nadenken.

[2:54:53] Dat zeg ik u toe.

[2:54:55] In de zin dat als ik het heb over standaardisering, dat dit eronder valt.

[2:54:58] Wat niet betekent dat ik vier, vijf alinea's over dit onderwerp kan opschrijven.

[2:55:03] En daarnaast, u spreekt ook in het veld...

[2:55:06] Gaf u aan, vind ik het ook wel fijn, kan ik hier met een kop koffie, dat we de kennis op dit dossier delen.

[2:55:16] Mooi, dat is nog een kopje koffie.

[2:55:18] Dat was het einde van de eerste termijn van staatssecretaris Digitale Zaken, de heer Zolt.

[2:55:25] En dan gaan we door naar de staatssecretaris van Justitie en Veiligheid, de heer Struiken van zijn eerste termijn.

[2:55:34] Voorzitter, allereerst dank aan de commissie voor de uitnodiging voor dit debat.

[2:55:38] Het is de eerste keer dat ik bij uw commissie aantreed in verband met het gegevensbeschermingsrecht.

[2:55:44] Een erg belangrijk grondrecht draagt bij aan de rechtsbescherming van burgers en ook bedrijven.

[2:55:52] Het is een bijzondere dag vandaag.

[2:55:54] Het is nog niet genoemd en ik weet ook niet zeker of u dat allemaal op de radar hebt.

[2:55:59] Ik had het niet, maar het is me verteld.

[2:56:02] Het is vandaag de dag van de gegevensbescherming.

[2:56:06] Want op 28 januari 1981 nam de Raad van Europa het zogenaamde verdrag nummer 108 aan.

[2:56:13] En dat was het eerste juridisch bindende internationale instrument in zaken gegevensbescherming.

[2:56:21] Dus 28 januari als dag van de gegevensbescherming, ook wel dag van de privacy genoemd, met als belangrijkste doel bewustmaking van privacy en gegevensbescherming.

[2:56:34] Een mooi gesternte voor dit debat.

[2:56:40] Ik heb een beperkt aantal vragen te beantwoorden, maar de eerste was dan ook wel een hele moeilijke.

[2:56:45] En eigenlijk was dat een thema, lag ten grondslag aan de vraag van de heer Sig Stijkstra en ook aan de vraag van de heer Ergin.

[2:56:54] En dat gaat eigenlijk over het mensbeeld.

[2:56:57] En hoe dat mensbeeld doorzit, hoe zich dat verhoudt tot risicoselectie bij de inzet van algoritmes.

[2:57:11] Ik denk, discussies, gedachtenwisselingen over het mensbeeld zijn altijd complex.

[2:57:16] Want wat is het mensbeeld?

[2:57:19] Maar, en die vraag is ook gesteld aan de regering bij de algemene politieke beschouwingen.

[2:57:27] En als u het mij vraagt, ligt in het denken van dit kabinet besloten eigenlijk de adviezen van de parlementaire enquêtecommissie Fraude en Dienstverlening.

[2:57:43] En eigenlijk ook het perspectief van de staatscommissie rechtsstaat.

[2:57:47] En dat zijn allebei rapporten die door het kabinet in algemene zin worden omarmd.

[2:57:53] Voor mij betekent dat dat de overheid in al haar handelen, dus ook bij de inzet van algoritmes, als uitgangspunt moet nemen dat de overheid naast de burger staat in plaats van tegenover de burger.

[2:58:08] En daarom is het van belang dat de inzet van algoritmes dus altijd ten dienste staat van de uitvoering van de maatschappelijke opgave van die uitvoeringsorganisaties.

[2:58:20] Dat zegt op zich nog niks over het menbeeld.

[2:58:22] Als we zeggen dat het gaat om de uitvoering van de maatschappelijke opgave.

[2:58:28] Maar als die overheidsorganisatie...

[2:58:31] zich laat leiden door dit mensbeeld, dan reflecteert dat dus ook... waar zij kiest voor de wijze waarop zij uitvoering geeft aan haar maatschappelijke opgave... dan reflecteert dat ook dit mensbeeld, het beeld van de overheid die naast de mens staat.

[2:58:47] En er zijn voorbeelden van inzet van algoritmes of AI-systemen denkbaar... in het kader van dienstverlening aan mensen...

[2:58:55] Wat ik me kan voorstellen is dat algoritmes worden gebruikt om te identificeren de personen die mogelijk moeite hebben met het betalen van een boete of anderszins een risico lopen dat schulden te hoog oplopen.

[2:59:09] Dan kan een algoritme worden ingezet om die mensen te helpen.

[2:59:13] Om die schuldenoploop te verkopen, snel te identificeren met als doel, dat is dan een middel, met als doel om die mensen te helpen.

[2:59:22] De schuldenproblematiek staat vrij scherp op de radar van dit kabinet.

[2:59:27] En we trachten daar op een nieuwe manier naar te kijken.

[2:59:30] En dan kunnen algoritmes daarbij functioneel zijn ter ondersteuning.

[2:59:35] ...van een maatschappelijke opgave die erop gericht is om mensen te helpen.

[2:59:39] Met name in dat geval mensen die in de schulden zitten of dreigen te komen.

[2:59:44] Dan zijn het helpende technieken.

[2:59:48] Maar er zijn natuurlijk ook opgaven die meer zitten in het domein van de rechtshandhaving...

[2:59:53] En ja, die bijdragen natuurlijk gewoon simpelweg bij aan het opsporen van criminelen.

[2:59:59] Dan staat de overheid natuurlijk niet naast de crimineel, maar wel tegenover.

[3:00:03] In beide gevallen is goed denkbaar dat algoritmen en AI worden gebruikt daar waar het aantoonbaar helpt.

[3:00:12] Uiteraard, vroeg ik daar wel aan toe, is elk ministerie zelf verantwoordelijk om af te wegen of en waarvoor algoritmes worden ingezet en hoe ze vervolgens ook worden gebruikt.

[3:00:24] Voor beide, of dat nou met het oog op de rechtshandhaving is of de dienstverlening of hulpverlening, altijd geldt dat we het goed moeten regelen.

[3:00:34] Dat is wat het legaliteitsbeginsel verlangt.

[3:00:37] De overheid moet haar handelen altijd baseren op deugdelijke, duidelijke, wettelijke voorschriften.

[3:00:42] En ook de AVG is op dat punt heel duidelijk.

[3:00:45] De verwerking van persoonsgegevens moet op een grondslag berusten.

[3:00:49] Of de intentie van het betreffende overheidsonderdeel nu is om de burger te helpen of te bestraffen, die duidelijke grondslag moet er zijn.

[3:00:58] Het is vooral daar waar het gaat om bestraffen, dan is het heel belangrijk dat er een goede grondslag is.

[3:01:05] En dat de AVG wordt nageleefd.

[3:01:08] Wat dan vooral belangrijk is, is dat dat onderdeel is van het primaire proces.

[3:01:12] En niet iets wat er ook nog bij gedaan moet worden.

[3:01:15] We moeten ervoor waken dat de dominantie van de doelstelling...

[3:01:22] dat het accent ligt op de doelmatige uitvoering van primaire processen, waarbij de aandacht voor het treffen van een zorgvuldige regeling, die eraan ten grondslag ligt, er soms bij inschiet.

[3:01:34] Het is dus van belang, denk ik, in antwoord op uw beide, de reflectieve vraag die u mij allebei in zekere zin stelde.

[3:01:41] Het is dus van belang dat die vraagstukken, het vraagstuk wat u centraal stelt, vanaf een vroegtijdig stadium deel uitmaakt van het proces.

[3:01:49] Dus dat vanaf begin af aan het goede gebruik van die algoritme is geborgd en niet pas achteraf wordt geconstateerd dat in het proces onvoldoende rekening is gehouden.

[3:01:59] Het mensbeeld dat ik verwoorde, gaat anders zeggen, een mens die ruimte moet krijgen om zich te ontplooien, maar ook een mens die kwetsbaar is en bescherming en ondersteuning verdient, dat is het mensbeeld zoals ik het persoonlijk zou verwoorden, dat moet zo centraler komen te staan en beter gereflecteerd worden in de wijze waarop de overheid voorspellende algoritmes gebruikt.

[3:02:27] En als u daar meer over weet, dan denk ik er graag een keer met u over door.

[3:02:32] In een ander kader.

[3:02:33] Dan brengt mij ook een vraag van de heer Six Dijkstra.

[3:02:37] Die zie ik dan op het onderwerp Preselect.

[3:02:43] Hij noemde het film Minority Report.

[3:02:45] Die ken ik nog niet.

[3:02:47] Ik kijk weinig naar films.

[3:02:49] Maar misschien is dit er een die ik kan aanbevelen bij mijn echtgenoten.

[3:02:55] In het artikel waar het problematiek centraal stelt, het artikel uit het tijdschrift Follow the Money, onderzoeksblad, daarin is aangegeven dat politie en justitie dus al geruime tijd een algoritme gebruiken om te voorspellen of jongeren in een criminaliteit belanden.

[3:03:12] Meer in het bijzonder of er een risico is, hoe groot het risico is op recidieven.

[3:03:17] De tijdschrift schrijft dat de voorspelling dat het algoritme doet in zaken kans op criminaliteit en recidive, dat dat er vaak naast blijkt te zitten.

[3:03:29] Dus het is gewoon niet een deugdelijke wat dat betreft.

[3:03:32] En de gevolgen zijn uiteraard groot.

[3:03:35] Dat noemen we dan een risicotaxatie-instrument, maar in de uitwerking pakt het niet goed uit.

[3:03:42] Uit eerder onderzoek, dat is uitgevoerd in opdracht van mijn ministerie, Justitie en Veiligheid.

[3:03:47] Uit dat eerder onderzoek is al gebleken dat de pre-select recidieve instrument op een aantal punten verbeterd moet worden.

[3:03:56] En daarom is aan het eind van 2024 een verbetertraject gestart.

[3:04:01] En dat moet in de loop van 2025 leiden tot een betere versie van het instrument.

[3:04:06] Dat dus een betere voorspellende waarde zal blijken te hebben.

[3:04:11] Maar het gaat niet alleen om het instrument, het gaat ook om hoe het gebruikt wordt.

[3:04:16] Want wat ik wil benadrukken is dat het...

[3:04:21] Het instrument niet gebruikt wordt en zeker ook niet gebruikt mag worden voor automatische besluitvorming over het vervolgtraject als het gaat om een jeugdige verdachte.

[3:04:32] Het moet worden ingezet, dit instrument, deze algoritme, als advies bij een besluit naast andere informatie over diezelfde jongeren.

[3:04:42] Met andere woorden, het besluit wordt dan genomen door het Openbaar Ministerie in overleg met de ketenpartners.

[3:04:47] Daarmee is er, of moet er zijn, een substantiële menselijke tussenkomst, zoals voorgeschreven door de AP.

[3:04:55] Naar aanleiding van het verzoek van de vaste Kamercommissie Justitie en Veiligheid zal ik een schriftelijke reactie op dit artikel van Follow the Money doen toekomen aan uw Kamer voorafgaand aan het debat wat ik zal hebben over bescherming van persoonsgegevens en digitale grondrechten aanstaande 6 februari.

[3:05:14] Dus op korte termijn zal ik met, zoals verzocht, met een reactie naar uw Kamer komen.

[3:05:23] Dat brengt mij op de laatste vraag die ik moet beantwoorden.

[3:05:26] Een vraag die ik al eerder heb mogen beantwoorden.

[3:05:29] Onder andere in het debat met het kabinet van uw Kamer op 15 januari.

[3:05:36] In zaken de parlementaire enquête, fraude en dienstverlening.

[3:05:39] Dat betreft de financiering van de autoriteit persoonsgegevens.

[3:05:44] De autoriteit persoonsgevens heeft in het kader van de kabinetsformatie inderdaad gevraagd om veel meer budget.

[0:00:00] 111 miljoen geloof ik.

[3:05:54] Waar ze dit jaar een budget hebben van 49 miljoen.

[3:05:59] Ze vragen dus om twee keer zoveel dan ze al krijgen.

[3:06:02] Waarbij ook nog wel relevant is dat het budget wat ze krijgen, die 49 miljoen, een verdubbeling is ten aanzien van wat ze vijf jaar geleden hadden.

[3:06:11] Ik heb ook in het plenaire debat al gewezen op een internationale vergelijking die toch in dit geval wel een referentiepunt kan zijn.

[3:06:23] AVG-toezichthouders in andere EU-lidstaten die hetzelfde takenpakket hebben, die hebben substantieel minder budget.

[3:06:31] Het budget wat wij in Nederland aan de AP toekennen is veel omvangrijker dan het budget in andere vergelijkbare landen.

[3:06:38] Dus we zitten in de Europese top.

[3:06:40] En sinds dat onderzoek van vijf jaar geleden is het budget dus ook verdubbeld.

[3:06:47] Ik gaf al eerder aan dat ik denk dat een budget moet worden vastgesteld op basis van de taken die een instantie heeft.

[3:06:55] En als er nieuwe of extra taken worden toegekend, moet er uiteraard extra budget komen.

[3:07:01] Maar leidend zijn de taken die een instantie of autoriteit heeft.

[3:07:09] Ik merk nog op dat de autoriteit persoonsgevens een evaluatie laat uitvoeren naar het eigen functioneren.

[3:07:17] Dat onderzoek is klaar, maar de autoriteit persoonsgevens heeft het nog niet met mijn departement gedeeld.

[3:07:23] Ik weet dus nog niet welke conclusies dat behelst, maar ik ga ervan uit dat dat ook een reflectie geeft op de taken die de autoriteit heeft en het daarvoor benoven budget en overigens de taken die zij wenst te krijgen.

[3:07:36] En dan kan het ook gaan over de daarbij benodigde budget... als wij, u en wij, kiezen om die nieuwe taken inderdaad bij de autoriteit neer te leggen.

[3:07:47] En dan heeft u een interruptie van de heer Siks-Dijkstra.

[3:07:51] Ja, dank u wel, voorzitter.

[3:07:51] Eigenlijk nog op het vorige punt, als het gaat om pre-select recidive.

[3:07:58] Ik raad overigens de film Minority Report van harte aan.

[3:08:02] Maar behalve dat, de staatssecretaris zegt het algoritme...

[3:08:07] is een advies en daarmee wordt ook voldaan aan de eis... dat pas na betekenisvolle menselijke tussenkomst... de gevolgen voor betrokkenen van de selectie als risico in werking treden.

[3:08:18] Dat is slechts een van de vijf algemene eisen die de AP stelt... als het gaat om risico-selectie-algoritme.

[3:08:25] De andere is dat risico op discriminatorenverwerkingen is onderzocht en ondervangen.

[3:08:29] Periodiek wordt onderzocht of zich desalniettemin discriminatorenverwerkingen voordoen...

[3:08:33] De selectie als risico heeft niet automatisch ook andere aanmerkelijke gevolgen.

[3:08:37] En de risicoselectie is voldoende kenbaar voor betrokkenen.

[3:08:40] En ik zou ook wel graag zien dat de staatssecretaris daarop ingaat.

[3:08:43] Ik snap dat hij misschien niet dat allemaal paraat heeft.

[3:08:45] Maar ik zou dan wel graag zien dat dat onderdeel uitmaakt van de kabinetsreactie op het artikel van Follow the Money.

[3:08:52] Omdat het wel direct doorvertaalt naar hoe wij met z'n allen omgaan met risico's met een hoge impact voor burgers.

[3:09:02] U wijst terecht op die andere vereisten.

[3:09:07] Dus dat moet ook onderdeel uitmaken.

[3:09:08] Enerzijds van de analyse van wat het nu doet en anderzijds van het verbetertraject.

[3:09:12] Ik denk dat dit allemaal kernelementen zijn in het verbetertraject.

[3:09:16] Ik kan daar nu niet in detail op reflecteren.

[3:09:19] Ik weet ook niet of dat lukt in de brief die we dus al in de kwestie van dagen moeten schrijven.

[3:09:24] Maar daar zal zeker in staan dat het evident is dat op al deze punten ook dit instrument moet voldoen aan de vereisten die worden gesteld.

[3:09:30] Dat is evident.

[3:09:31] En als dat niet blijkt te kunnen, dan moet het niet worden gebruikt.

[3:09:43] De discussie over de uiteraard persoongegevens en welk budget hoort daarbij... die hebben we eerder gevoerd in Raad Plenair.

[3:09:49] En mijn aftronk ook juist van die discussie was... we moeten voorkomen dat het er wel eens niet is voor tussen de AP en het kabinet.

[3:09:56] Want uiteindelijk wil je allemaal hetzelfde.

[3:09:57] Je wil goed toezicht.

[3:09:59] En ik begrijp dat ieder orgaan vindt dat ze veel budget nodig hebben.

[3:10:03] En ik begrijp dat het kabinet zegt, we willen daar zuinig mee omgaan.

[3:10:06] Dus vandaar dat ik vroeg, kan dan uiteengezet worden...

[3:10:10] waar die inschatting vandaan komt vanuit het kabinet.

[3:10:13] Ik begrijp nu dat de AP eigen onderzoek doet.

[3:10:15] Maar eigenlijk zou je als Kamer, om goed te kunnen wegen... ook een inschatting moeten krijgen vanuit het kabinet, denk ik.

[3:10:22] Vanwaaruit zij dan als kabinet de conclusie trekken... dat budget hoeft nu nog niet omhoog.

[3:10:27] En daar zoek ik een beetje naar.

[3:10:28] Want voor mij blijft het nu wel steken in een welisniet.

[3:10:31] Dus ik wil daar voorbij, ik wil uit hierin passen.

[3:10:33] Het woord is aan de staatssecretaris.

[3:10:42] Wat ik bedoelde te zeggen is dat het uiteindelijk ook gaat over de vraag... welke taken willen we dat de autoriteit persoonsgegevens heeft.

[3:10:51] Daar heeft de autoriteit zelf een duidelijk beeld van.

[3:10:54] Dat is ook een goed model.

[3:10:56] Die ziet voor zichzelf additionele taken.

[3:10:59] Dus daar zit een keuze in welke taken leggen we bij de AP...

[3:11:04] Er zit een analyse in hoeveel geld de AP dan nodig heeft voor de taken die zij heeft.

[3:11:11] En die analyse kun je op verschillende manieren maken.

[3:11:14] Die kun je als een soort streefgetal hanteren.

[3:11:17] Die kun je ook op basis van hoeveel uren kost het onderzoek.

[3:11:20] Dat is meer ook onderdeel... Dat is wat ik impliciet bedoelde, daar waar het gaat om de bekostiging, het bekostigingsmodel.

[3:11:27] Dat is onderdeel van frequent overleg met de AP...

[3:11:32] En wellicht dat de evaluatie die de AP verricht op beide punten daar ook meer inzicht in geeft.

[3:11:38] Maar ik merk ook op dat het ook gaat om de taakopvatting van de AP.

[3:11:43] Daar is de AP natuurlijk vrij in, want het heeft een grote mate van zelfstandigheid.

[3:11:47] Maar dat ontslaat ons niet...

[3:11:49] ...ons allen ook in deze Kamer daarover te spreken.

[3:11:52] Kijk, taken zijn natuurlijk ook schaalbaar.

[3:11:54] Toezicht is schaalbaar.

[3:11:56] Er zit ook een keuze in hoeveel tijd je aan bepaald toezicht wil besteden.

[3:12:03] En dat zou onderdeel moeten zijn van het gesprek met de Autoriteit Persoonsgegevens.

[3:12:06] De brede dialoog met de Autoriteit Persoonsgegevens.

[3:12:10] Ik heb, en dat weet u, want dat heb ik eerder vermeld...

[3:12:15] Al eerder gesignaleerd bij de autoriteit persoonsgegevens dat we maatschappelijk een beetje een probleem hebben, wat ik maar noem de handelingsverlegenheid.

[3:12:22] Dat er heel veel mensen, organisaties, personen bang zijn dat ze de regels in zaken gegevensbescherming schenden.

[3:12:32] En dat daardoor maar allerlei dingen niet meer doet.

[3:12:35] Dat mensen minder doen dan wellicht wel mogelijk is.

[3:12:38] En dat doet denken dat we in Nederland, en de autoriteit zou daar een rol in kunnen hebben, de focus een beetje verlegt naar algemene advisering over wat er wel kan.

[3:12:49] in plaats van een handelingsverlegenheid te creëren door straffen, door boetes en dergelijke.

[3:12:55] Dus ook daar zit eigenlijk een vrij principiële discussie, een visie zowel, over de toekomst en de wijze waarop de AP de taken invult.

[3:13:08] Een lang antwoord om aan te geven dat er heel veel factoren zijn die beïnvloeden hoeveel budget de AP dan nodig heeft.

[3:13:16] Dat is de dialoog die we voortdurend moeten voeren en die zal ook onderdeel zijn van mijn gesprekken van de AP in de komende tijd.

[3:13:25] Dan heeft u nog een aanvullende vraag van mevrouw Koekoek.

[3:13:30] Ja, want ik waardeer het zorgvuldige antwoord.

[3:13:36] Tegelijkertijd denk ik dat het nuttig is voor de Kamer ook, omdat wij budgetrecht hebben, dat je onderdeel bent van dat gesprek.

[3:13:46] Laat ik het dan herformuleren.

[3:13:47] Ik zou graag een manier zoeken dat wij als Kamer onderdeel zijn van het gesprek.

[3:13:51] En op dit moment kan ik me voorstellen dat het kabinet zegt... ik ben in gesprek met de autoriteit uit de persoongegevens... en we moeten ook samen zoeken naar wat is een goed takenpet... wat vinden wij passen bij Nederland.

[3:14:02] Maar dat...

[3:14:04] Dat kan niet leiden tot een conclusie zonder dat de Kamer daarbij betrokken wordt.

[3:14:07] Dus vandaar ook mijn verzoek om zo'n schriftelijk overzicht.

[3:14:10] Dat is mijn suggestie van zo zou je de Kamer op een goede manier kunnen betrekken.

[3:14:15] Kan ook in de vorm van scenario's of opties.

[3:14:19] Als de AP sus en zo zou doen, deze drie taken krijgt, dan schatten wij dit budget in.

[3:14:25] Als optie twee dan dit budget.

[3:14:28] Want dan ben je als Kamer meer geïnformeerd... en ook dus meer betrokken bij dat gesprek.

[3:14:32] Volgens mij is dat nuttig en ook nodig.

[3:14:37] Het woord is aan de staatssecretaris.

[3:14:40] Ik herken wat mevrouw Koek ook zegt.

[3:14:43] Het is evident dat de Kamer er belang bij heeft.

[3:14:45] En wij trouwens niet alleen de Kamer.

[3:14:47] Wij allemaal belang bij hebben dat wij samen wat dat betreft verstandige keuzes maken.

[3:14:53] En dat de Kamer ook het inzicht moet krijgen om die keuzes op gezette tijden te maken.

[3:14:59] Dus het is niet voor niks dat ik...

[3:15:03] Dat ik accent leg op een voortdurende dialoog over de rol en taken van de autoriteit.

[3:15:11] Nogmaals, dat is primair ook haar eigen domein.

[3:15:15] Maar niet alleen, want wij gaan daar ook over.

[3:15:18] Des te meer omdat wij gaan over de financiering dus ook.

[3:15:22] Dus ik herken de behoefte die ik ook onderstrijf.

[3:15:25] En ik zal mij inzetten om daar adequaat en op de juiste momenten de benodigde informatie te verschaffen.

[3:15:34] Maar ik doe geen toezegging om dat nu in een concrete brief naar de Kamer te sturen.

[3:15:40] En dan heeft u ook nog een interruptie van mevrouw Katman.

[3:15:44] Ja, dank voorzitter.

[3:15:45] En ook ik wil de staatssecretaris bedanken voor zijn zorgvuldige antwoord.

[3:15:48] Maar het roept ook vragen op.

[3:15:51] En ik vind het eigenlijk dat wij als Kamer niet meer kunnen zonder een schriftelijke brief.

[3:15:57] Dus ik begrijp de vraag, schriftelijke brief is altijd schriftelijk...

[3:16:01] Zonder dat het op schrift staat.

[3:16:03] Ik begrijp de vraag van mevrouw Koek ook heel goed.

[3:16:05] Want tot nu toe, we hebben daar ook als rapporteurs van de commissie Digitale Zaken... een klein onderzoekje gedaan bij de begroting.

[3:16:13] Is het gewoon een blackbox voor ons wanneer...

[3:16:18] Het toezicht zou moeten groeien.

[3:16:19] Bijvoorbeeld als je het hebt in correlatie tot Europese wetgeving.

[3:16:22] Er komt ongelooflijk veel op ons af.

[3:16:24] Wij krijgen heel vaak dan een briefje.

[3:16:26] Heeft geen impact op toezichtstaken.

[3:16:28] Dat lijkt me heel raar.

[3:16:29] Want het is 100% gaat het over.

[3:16:31] Ook wat onze toezichthouder voor aan de lat staat.

[3:16:34] Dus we hebben al bij de begroting gezien.

[3:16:35] Het is een black box.

[3:16:36] Dan hebben we ook nog een toeslagenmisdaad.

[3:16:39] Goed woord van Denk.

[3:16:41] Waarvan de hele Kamer zegt, dat mag in ieder geval nooit meer gebeuren.

[3:16:45] Iedereen verbindt aan die uitspraak andere consequenties.

[3:16:49] Maar er is wel door heel veel partijen gevraagd, pak nou dat hele pakket.

[3:16:52] En één pakket is nog gewoon een stevige toezichthouder.

[3:16:56] En dan vind ik het ook kort door de bocht van de staatssecretaris om te zeggen... ja, we moeten ook even kijken, want misschien moeten ze wel meer hun taken verleggen.

[3:17:02] naar advies geven over wat er wel kan.

[3:17:05] Als iemand vindt dat die AVG een welkanwet is, dan is het de AP zelf.

[3:17:10] Maar ze hebben al hun handen vol en ze zijn al onderbezet... om die burgerbeschermtaken uit te voeren.

[3:17:15] Dus als de staatssecretaris dat zegt, dan betekent het weer een afweging... voor juist meer kosten, zodat ze die taak erbij kunnen doen.

[3:17:22] Want ik hoop dat het niet betekent dat als ze...

[3:17:25] ons meer gaan vertellen over wat wel kan, dat ze dan minder burgers gaan beschermen.

[3:17:29] En we kunnen niet meer anders dan dat wij van u op schrift krijgen welke implicaties, de Europese wetgeving, hoe wilt u dat er gekeken wordt, waar vindt u, dan kunnen we in gesprek.

[3:17:38] Maar we kunnen niet steeds met een soort mondeling terugkoppelingetje van de gesprekken die gaan als Kamer ons werk doen.

[3:17:46] Dus ik hoop gewoon dat de staatssecretaris zijn standpunt wil herzien en ons alsnog gewoon een brief wil geven, zodat wij als Kamer gewoon ook professioneel mee kunnen doen aan dat gesprek.

[3:17:57] De woorden zijn aan de staatssecretaris.

[3:18:00] Voorzitter, zoals ik al zei, op het moment dat er nieuwe taken worden toegekend aan autoriteit persoonsgegevens, zeker ook wanneer die uit Europa komen, dan vindt het hele spectrum van toetsen plaats, met inbegrip van de uitvoering en dergelijke.

[3:18:13] En daar zit altijd een financiële component aan.

[3:18:16] Dat betekent altijd dat bij een nieuwe taak er extra budget komt.

[3:18:22] Dat is evident.

[3:18:24] Voor het overige heb ik u duidelijk gemaakt, met heel veel woorden, dat mij heel duidelijk is dat we daar een beter beeld van moeten krijgen, ook ikzelf.

[3:18:34] In de zin van dat we steeds weer opnieuw een analyse hebben moeten kunnen maken over wat doet de AP en hoeveel geld heeft de autoriteit daarvoor nodig.

[3:18:46] Dat is dus iets wat mij leidt in mijn verantwoordelijkheid voor de AP.

[3:18:53] Maar ik wil nu niet een schriftelijke brief toezeggen waarin ik dat precies uiteenzet.

[3:18:59] Dat zal onderdeel zijn van mijn analyses van wat de AP nodig heeft.

[3:19:03] En waar u daar een keuze heeft te maken op het moment dat het erover gaat, bijvoorbeeld bij de begrotingsbehandeling...

[3:19:10] dan dient u het inzicht te krijgen wat u daartoe in staat stelt.

[3:19:13] Maar ik ga nu niet een schriftelijke brief toe zeggen.

[3:19:17] Een vervolgvraag tot mevrouw Kapman.

[3:19:19] Ja, dank u voorzitter.

[3:19:20] Maar ik probeerde nou juist te schetsen dat bij de begrotingsbehandeling... wij dus dat inzicht niet krijgen.

[3:19:24] Al jaren niet.

[3:19:26] We hebben er zelfs als rapporteurs onderzoek naar gedaan.

[3:19:28] En wat was de conclusie?

[3:19:30] Het is een black box.

[3:19:31] We hebben geen inzicht.

[3:19:32] En geen één begrotingstuk heeft dat inzicht gegeven afgelopen keer.

[3:19:37] Dat is nou juist het probleem.

[3:19:39] Dus als u niet wil toezeggen en ons professioneel onderdeel wil maken van het gesprek, dikke prima.

[3:19:45] Maar dan wil ik nu in ieder geval wel dat dus dan wel wordt toegezegd dat die schriftelijke stukken wel bij de begroting zitten deze keer.

[3:19:51] Want dat is dus niet onderdeel van een soort van normale cyclus.

[3:19:55] Dat is niet.

[3:19:56] Dus dan wil ik de toezegging, deze keer gaan we regelen dat u wel adequate stukken heeft, zodat u daar wel goed over kan oordelen.

[3:20:04] En dat zal dan deze begroting voor het eerst zijn.

[3:20:07] Dan is dat in ieder geval de minimale toezegging die we hier moeten krijgen.

[3:20:10] Want anders kunnen wij gewoon nooit onderdeel worden van dat gesprek.

[3:20:14] En ik vind die vraag van mevrouw Koek echt terecht.

[3:20:16] Het woord is aan de staatssecretaris.

[3:20:21] Voorzitter, ik heb uitvoerig uiteengezet dat het een brede analyse vergt van de rol en de taken van de autoriteit persoonsgegevens.

[3:20:28] En allerlei keuzes wat dat betreft ook.

[3:20:33] Ik heb al eerder gezegd in antwoord op mevrouw Koekoek, maar tijdens de begroting van de parlementaire enquête, het rapport van de parlementaire enquêtecommissie, dat dat thans geen aanleiding is te denken dat er een tekort is.

[3:20:45] Dat blijkt niet uit de overleggen die wij met de autoriteit hebben.

[3:20:49] En bij deze algemene observaties laat ik het.

[3:20:52] Ik ga geen concrete toezeggingen doen voor een schriftelijke brief.

[3:20:58] Een interruptie van de heer Vermeer.

[3:21:02] Ja, voorzitter, ik denk dat we hier wel iets aan de orde hebben wat dan nu zweeft.

[3:21:11] Omdat mevrouw Katman eigenlijk als laatste zegt, dan maar geen brief, maar een duidelijke onderbouwing bij de begroting.

[3:21:20] En over het algemeen zijn de begrotingen niet op dat niveau onderbouwd.

[3:21:28] Maar kan de staatssecretaris wel toezeggen dat dat bij de eerstvolgende begroting voor dit onderdeel dan wel het geval zal zijn?

[3:21:36] Want dan maakt het de brief overbodig wellicht.

[3:21:41] Alleen dan kunnen we pas beoordelen als we de begroting in huis hebben.

[3:21:45] De staatssecretaris.

[3:21:46] Voorzitter, dat is in essentie dezelfde vraag die mevrouw Katman zei.

[3:21:49] En ik heb uitdrukkelijk gezegd dat ik op dit punt geen toezeggingen doe.

[3:21:52] Ik heb wel toegezegd, in algemene zin, ik heb weergegeven dat ik goed kijk en kritisch meedenk.

[3:21:58] En ook in de zin van wat zijn de taken en wat voor geld is daarvoor nodig als het om de autoritaire persoonsgegevens gaat.

[3:22:05] Dat zal dus onderdeel ook zijn van wat ik de Kamer daarover informeer.

[3:22:09] Het zal onderdeel zijn van het debat op 6 februari in algemene zin.

[3:22:13] Wat de rol van de AP is.

[3:22:15] En daar wil ik het bij laten.

[3:22:21] Vervolgt u uw inbreng?

[3:22:24] Nog een kleine interruptie van mevrouw Katman.

[3:22:26] We zijn al over de interrupties heen.

[3:22:28] Dat geldt ook voor meneer Vermeer.

[3:22:30] Maar dit is gewoon van de orde.

[3:22:32] Want eigenlijk vraagt de Kamer gewoon... we willen geïnformeerd worden.

[3:22:36] En zegt eigenlijk de staatssecretaris, ja, dat ga ik gewoon niet doen.

[3:22:39] Ik heb een gesprek, maar wij hebben gewoon een professionele baan.

[3:22:43] En wij kunnen niet, omdat u gesprekken heeft in kamertjes waar wij niet bij zijn... waar wij dan niet over gerapporteerd worden, ons werk doen.

[3:22:51] En de staatssecretaris zegt, ja, dat komt dan als het komt.

[3:22:54] Maar dan is het toch... Als wij dan vragen, komt het dan bij de begroting?

[3:22:58] Nou, dan is het antwoord nee.

[3:22:59] Kan de staatssecretaris dan in ieder geval aangeven bij welk...

[3:23:03] we dan stukken kunnen verwachten.

[3:23:05] Want 6 februari is in algemeenheid, daar hebben we ook weer geen inzicht, het is een heel normale vraag.

[3:23:10] Het is gewoon, kunt u de Kamer informeren, staatssecretaris?

[3:23:13] Dat is echt gewoon een soort onderdeel van ons dagelijks werk.

[3:23:17] Dat is gewoon wat hier gevraagd wordt.

[3:23:19] En als het dan niet is in een brief op deze vraag, het is niet bij de begroting, gaan we ook geen inzicht geven, dan is er gewoon de vraag, oké, nou, dan zijn wij open voor ieder moment dat het wel kan.

[3:23:30] En het is echt, sorry dat ik hier een beetje op aansla, maar het is gewoon echt de vraag, wilt u de Kamer informeren?

[3:23:36] Dat is echt een hele soort no-brainer in dit huis.

[3:24:04] Wilt u er nu op terugkomen of in de tweede termijn?

[3:24:07] Misschien is het goed dat ik dat in de tweede termijn doe.

[3:24:10] Dan wachten we even tot tweede termijn.

[3:24:11] Dan mag u u toch vervolgen.

[3:24:15] Interruptie van mevrouw Koekoek.

[3:24:16] Nou, dank voorzitter.

[3:24:17] Ik wou wachten tot de tweede termijn.

[3:24:19] Maar ik denk dat het goed is en fijn is als u staat dat u dat reflectie neemt.

[3:24:23] Kijk, juist in het plenaire zaal, omdat er werd gezegd... daar is thans nog geen aanleiding voor.

[3:24:28] Daar komt mijn vraag ook uit vandaan.

[3:24:30] Ik...

[3:24:31] Zou ik misschien wel willen.

[3:24:33] En dat is niet persoonlijk in de staatssecretaris.

[3:24:34] Maar ik kan het kabinet niet op de blauwe ogen geloven.

[3:24:36] Dus die wil ik dan alvast nog meegeven.

[3:24:39] Dan hoef ik dat ook in mijn tweede termijn niet nog eens te benadrukken.

[3:24:42] Maar daar komt ook mijn verzoek vandaan.

[3:24:44] Want er is thans geen aanleiding voor.

[3:24:46] Dat blijft tot nu toe...

[3:24:48] door onderbouwing de motivatie van het kabinet om te zeggen... wij zijn met gesprekken bezig, maar we gaan niet verder.

[3:24:53] De Kamer wil horen waarom dan thans niet.

[3:24:56] En dat mag bij de begroting, als er daadwerkelijk een begroting is.

[3:24:59] Kan ook eerder, dan kan de Kamer ook mee nadenken over die taken.

[3:25:03] Dus vandaar komt die vraag voor ze.

[3:25:04] Dat wil ik wel even verduidelijken, zodat we niet langs elkaar in praten.

[3:25:07] Voorzitter, mag ik daar dan op reageren?

[3:25:10] Kijk, daar waar het gaat om de taken onder de AVG is er een rapport van KPMG.

[3:25:15] Dat heeft Banpretus bepaald voor de benodigde budget voor de uitoefening van die taken.

[3:25:20] Daar blijft het binnen.

[3:25:22] Dus het is in lijn met dat KPMG rapport.

[3:25:26] Ik heb in dat Kamerdebat aangegeven dat het erop lijkt, en zo leest de brief van de AP ook, dat het meer een prognose is van een gewenste invulling van taken in de komende tijd.

[3:25:43] De brief is niet een reflectie van tekorten die er nu bestaan.

[3:25:48] Dus de beschikbare budgetten doen voldoen thans.

[3:25:51] De actuele status is dat de AP het budget heeft dat de AP nodig heeft... in ieder geval voor de AVG-taken die haar zijn toegekend.

[3:25:58] Zoals bepaald en berekend en beoordeeld door KPMG.

[3:26:04] Dat is wat ik heb bedoeld en ook thans weer herhaal... dat er geen aanleiding is te denken dat de AP op dit moment... niet voldoende budget heeft voor de taken die ze uitoefent...

[3:26:18] Een gevaarlijke vraag.

[3:26:20] Dank u wel voor deze opheldering.

[3:26:22] Ik denk dat het goed is dat we dit nu even doen als Kamer.

[3:26:26] Want daar zit dan denk ik ook de zorg.

[3:26:27] En daar sluit ik me aan bij de woorden van mevrouw Katman.

[3:26:29] Want er komen nieuwe taken aan, dat weten we.

[3:26:32] En dan is de vraag, welke beleggen we bij de AP en op wat voor manier?

[3:26:36] En dat gesprek, dat loopt.

[3:26:39] Maar dat moet eigenlijk tegelijk lopen met het inzicht voor de Kamer.

[3:26:42] Omdat de Kamer daarover mee kan beslissen.

[3:26:45] En ook daarin goed geïnformeerd te worden over financiële keuzes.

[3:26:49] En daarin zit ook die vraag, want die constatering heb ik ook meegekregen van de rapporteurs.

[3:26:53] Wij kunnen hier geen goede digitale zakenbegroting behandelen.

[3:26:57] Maar dit is dan wel een heel...

[3:26:59] Een belangrijk onderdeel van wat we richting de voorjaarsnoten met elkaar moeten bespreken.

[3:27:03] En ook waar we aan deze kant van de zaal ook voldoende informatie over moeten krijgen.

[3:27:09] De staatssecretaris.

[3:27:10] Ja, voorzitter, heel concreet zal de AI-verordening mogelijk leiden tot extra taken voor de autoritaire persoonsgegevens.

[3:27:18] In dat kader zal een begroting worden gemaakt.

[3:27:22] Er zal worden vastgesteld in overleg met de AP hoeveel budget ze daarvoor nodig hebben in aanvulling van het bestaande budget.

[3:27:30] En van die analyse zal u uiteraard deelgenoot worden gemaakt.

[3:27:34] Dus voor die extra taak zal dat inzicht worden gegeven.

[3:27:38] De discussie zit meer op het bestaande takenpakket en de overige in de toekomst gewenste of voorziene taken.

[3:27:49] Wat het bestaande budget betreft, heb ik verwezen naar KPMG, hebben wij geen indicatie dat er thans onvoldoende geld beschikbaar is voor de taken die de autoriteit nu heeft onder de AVG.

[3:28:00] En wat die mogelijke taken in de toekomst en de invulling daarvan, daar zitten die strategische keuzes in.

[3:28:07] Dat is dat bredere debat over visie op de rol van de AP naast andere instanties en instanties, daar waar het gaat om gegevensbescherming.

[3:28:18] Dus dat is een breder maatschappelijk debat.

[3:28:20] Wat begint bij dat bredere maatschappelijke debat?

[3:28:23] Over taken en rollen en niet bij geld.

[3:28:27] Want geld is dan een complement, is een volgende fase.

[3:28:31] Dus we moeten eerst met elkaar vaststellen wat willen wij in Nederland graag dat de AP gaat doen.

[3:28:36] En dan kunnen we daarna spreken over hoeveel geld is daarvoor nodig.

[3:28:40] Additioneel.

[3:28:45] Ik denk dat dat een uitstekende verheldering is.

[3:28:47] Bent u daarmee aan het einde van de inbreng?

[3:28:49] Of ik zie nog dat er nog altijd vragen zijn bij mevrouw Kapman en mevrouw Koekoek.

[3:28:55] Ja, we zitten al ver over het aantal interrupties in.

[3:28:58] En we hebben ook nog maar een half uur voor dit debat.

[3:29:00] Dan is er nog een aanvullende vraag van de heer Ergen.

[3:29:06] Ik heb nog één interruptie.

[3:29:07] Ik probeer even het beet te pakken.

[3:29:09] Volgens mij zijn er een aantal dingen.

[3:29:11] Aan de ene kant heeft de AP zelf een berekening gemaakt.

[3:29:15] Er is het KPMG-rapport.

[3:29:17] Maar er is ook de vraag van wat klopt er nou wel... of wat is nou wel logisch wat dan in de berekening van het AP staat.

[3:29:26] En dat is volgens mij een analyse die ambtenaren op het departement standaard maken...

[3:29:32] Als ze iets zien.

[3:29:34] En de vraag is of we die kunnen krijgen.

[3:29:36] Kijk, we kunnen het nu tijdens dit debat aan de staatssecretaris vragen.

[3:29:41] En dan kunnen we heel makkelijk zeggen, ja, artikel 68, wij willen die informatie.

[3:29:46] Als de staatssecretaris hier nee blijft verkopen, dan zegt hij eigenlijk tegen deze commissie, dien maar een WOVO-zoek in.

[3:29:51] Want via die WOVO-zoek krijgen we die stukken alsnog.

[3:29:53] Maar volgens mij moeten wij, die kan niet opgaan.

[3:29:56] Dus ik probeer even de interrupties, volgens mij waren het er zes interrupties, even samen te vatten.

[3:30:01] De vraag is...

[3:30:03] Er is een analyse van AP, er is een rapport van KPMG, wellicht nog meer binnen het departement.

[3:30:09] Informeer ons nou daarover, want wij willen weten of het AP op dit moment, maar ook richting de toekomst, gewoon voldoende capaciteit heeft.

[3:30:17] En zeker ook met de ambities waar wij het vandaag over hebben.

[3:30:20] Iedereen wil dat er meer controle komt op de algoritme, of dat gewoon voldoende is.

[3:30:25] En het zou toch heel raar zijn als de Kamercommissie aan de staatssecretaris vraagt, informeer ons nou...

[3:30:31] En de staatssecretaris zegt, nee, maar op dat punt ga ik geen toezeggingen doen.

[3:30:35] Volgens mij is dat niet de bedoeling, voorzitter.

[3:30:38] Voorzitter, ik heb vermeld dat autoriteit persoonsgegevens zelf bezig is met een evaluatie.

[3:30:44] We gaan er maar even vanuit dat dat kan doorgaan als een ZBO-evaluatie.

[3:30:52] Het is een ZBO en ZBO's moeten evaluaties doen.

[3:30:55] Ze kiezen ervoor om zelf die evaluatie te doen.

[3:31:00] En dat zou moeten zijn een ZBO-evaluatie.

[3:31:02] Dat zal nadere informatie opleveren.

[3:31:05] Daarnaast zijn er de reguliere gesprekken die er zijn met de orthopedische gegevens.

[3:31:11] Ik kondig u al aan dat wij op die evaluatie uiteraard zullen reageren.

[3:31:15] Die evaluatie zult u krijgen, bij mijn weten.

[3:31:21] En ook onze reactie erop.

[3:31:24] Maar dat is onderdeel van een proces wat gaande is, wat in de komende maanden speelt.

[3:31:28] En ik heb uiteraard gehoord wat ik weet, dat uw Kamer goed geïnformeerd wil zijn...

[3:31:33] Uiteraard, zou ik zeggen.

[3:31:36] Maar laten we eerst die evaluatie afwachten.

[3:31:39] En dan kunnen we op die basis opnieuw bezien wat er nodig is om daar een goede vaststelling van te maken.

[3:31:44] Nogmaals, dat KPMG-rapport is bij mijn weten een extern rapport.

[3:31:53] Ik heb niet eerder gehoord dat het KPMG-rapport niet meer leidend zou zijn, dat dat niet meer juist zou zijn.

[3:31:59] En op die basis herhaal ik nog een keer dat wij geen indicatie hebben dat ze thans geen middelen hebben om de bestaande taken uit te oefenen.

[3:32:07] Ik val in herhalingen, voorzitter.

[3:32:12] Het is van de orde.

[3:32:13] We zitten hier niet bijvoorbeeld in een bedrijf een managementvergadering te doen.

[3:32:17] We zijn de Tweede Kamer.

[3:32:18] Dus een rapport van KPMG is een politiek document.

[3:32:22] Daar heeft iedereen een andere politieke afweging.

[3:32:24] En de staatssecretaris, heel fijn, de afweging die hij maakt... en wat kan het kabinet krijgen, hoe zij het rapport interpreteren.

[3:32:31] Maar dat betekent niet dat de hele Kamer dat ook doet...

[3:32:34] Dat is gewoon onderdeel van het politieke debat.

[3:32:37] En daarom hebben wij de afwegingen nodig.

[3:32:39] De cijfers die eronder liggen.

[3:32:40] En ook van de AP zelf.

[3:32:42] Zodat je dat politieke debat goed met elkaar kan maken.

[3:32:46] Het zou wel een beetje gek zijn.

[3:32:48] Dat zou ons werk allemaal niet goed doen.

[3:32:50] Als we zulke rapporten allemaal hetzelfde gaan zitten interpreteren.

[3:32:53] Dat is nou juist de vraag.

[3:32:55] Sorry voorzitter.

[3:32:56] Ik vind het gewoon een heel gek gesprek waar we in zitten.

[3:33:00] We vragen echt letterlijk gewoon informeer de Kamer.

[3:33:03] En zo'n KPMG-rapport is onderdeel van een debat.

[3:33:07] Omdat de staatssecretaris zegt, kijk dit rapport dat wij allemaal zeggen.

[3:33:10] Ja, daar zijn we helemaal eens.

[3:33:15] De staatssecretaris.

[3:33:17] Ik wil alleen maar zeggen dat het KPMG-rapport van enige tijd geleden gedeeld is met uw Kamer.

[3:33:22] Verder, dat beschikt u over.

[3:33:30] Nog een kleine verduidelijking vanuit de heer Vermeer?

[3:33:34] Ja, voorzitter.

[3:33:34] Want ik vraag me af hoe we in deze discussie verzegd geraakt zijn.

[3:33:38] En waar het vandaan komt dat we nu aan beide kanten daar gehard naast in zitten.

[3:33:46] de staatssecretaris misschien niet de ideeën van dat hij niet wil dat wij hier al op een interne discussie die hij met de AP heeft nog vooruit willen lopen.

[3:33:57] En dat hij vraagt om ruimte van de Kamer om even dat op orde te krijgen.

[3:34:01] Dan zou ik dat snappen.

[3:34:04] Maar als het punt gewoon is van...

[3:34:08] Ik wil eigenlijk die informatie niet geven.

[3:34:09] Of ik kan het niet geven.

[3:34:11] Dan snap ik dat eigenlijk gewoon niet helemaal.

[3:34:14] Dus ik wil graag aan de staatssecretaris vragen.

[3:34:17] Is het een kwestie van timing?

[3:34:19] Gezien de gesprekken die hij nu aan het voeren is en het hele proces.

[3:34:23] En is de staatssecretaris bang dat dat verstoord wordt?

[3:34:26] Want ik vind ook als er geen geld... Als de beoordeling is van de staatssecretaris dat er geen extra geld nodig is...

[3:34:32] Maar dat men misschien op een andere manier moet werken, dan kunnen we het daar ook een keer over hebben.

[3:34:36] Want het is niet zo dat geld alles oplost.

[3:34:41] Tenminste, dat is in ieder geval niet mijn visie.

[3:34:44] Dus misschien kan de staatssecretaris iets beter duiden waarom hij er gehandhaast in zit.

[3:34:48] Of waarom hij dit, tenminste ik voel het gewoon, een lastige instelling vindt van de Kamer.

[3:34:55] En waar hij misschien een oproep aan ons kan doen...

[3:34:59] Waarom hij liever heeft dat we even ons rustig houden of... Ik weet het niet.

[3:35:04] Staatssecretaris.

[3:35:06] Voorzitter, het is in het geheel niet de intentie om er geharnast in te zitten...

[3:35:10] Sterker nog, ik heb vrij veel moeite genomen om u deelgenoot te maken van de wijze waarop wij hiermee bezig zijn.

[3:35:16] En uw inzicht te geven in het bredere discussie die gaande is.

[3:35:23] En de heer Vermeer verwoordt dat veel beter dan ik.

[3:35:27] Maar hij heeft ook veel meer ervaring hier misschien.

[3:35:30] En het is misschien inderdaad dat ik u vraag om de tijd te geven om de evaluatie, dezelfde evaluatie van de AP af te wachten.

[3:35:39] Dat is een ZBO-evaluatie en dat geeft naar onze verwachting meer zicht op de taken die de AP heeft en voor zichzelf ziet.

[3:35:50] Dat daarvoor door de AP...

[3:35:52] ...benodigde middelen in haar eigen schatting.

[3:35:54] En dan kunnen wij daar ook over spreken om daar een nadere onderbouwing van te krijgen.

[3:36:00] Hoe zij zelf die getallen koppelen aan hun bestaande of gewenste taken.

[3:36:06] Dus inderdaad vroeg ik, denk ik, voorzitter, om tijd om die evaluatie af te wachten... ...zodat we daarover, daarna, daarover met u verder kunnen spreken.

[3:36:19] Voorzitter, ik zou de staatssecretaris aan kunnen geven.

[3:36:22] Bedankt voor zijn toelichting.

[3:36:24] Hoe hij die tijdlijn voor zich ziet, zodat wij niet op het verkeerde moment ongeduldig worden.

[3:36:32] Wanneer kan de Kamer een menukaart tegemoet zien?

[3:36:36] Voorzitter, ik zei u al dat daar verluidt die evaluatie af is, maar we hebben hem nog niet gekregen.

[3:36:43] Dus ik kan niet helemaal goed inschatten of die evaluatie is wat u van ons verwacht bij een ZBO-evaluatie.

[3:36:53] Dus dat maakt het wat lastiger om te zeggen...

[3:37:00] Ik kan er niet zonder meer van uitgaan dat we met die evaluatie hebben wat nodig is bij een ZBO-evaluatie.

[3:37:07] En ik heb dus ook geen idee in hoeverre er de informatie in staat die het mogelijk maakt snel te reageren.

[3:37:16] Maar voor zover ik weet zal de AAP de evaluatie met u delen zelf ook.

[3:37:20] Anders zullen wij dat doen.

[3:37:22] En dan kunnen we ook een betere indicatie geven van de termijnen waarop we daarop in een reflectie komen.

[3:37:31] Dan denk ik dat we daarmee dan de beantwoording hebben waar we het mee mogen doen.

[3:37:36] Hebben we wel een beetje zicht wanneer dat dat gedeeld wordt vanuit de AP?

[3:37:39] Of in ieder geval van u of dat Q2, Q3?

[3:37:44] Ja, dus nog dit kwartaal, maar vooruit.

[3:37:47] Dank daarvoor.

[3:37:48] Voorzitter, even... Hebben we dan een toezegging?

[3:37:52] Ja, ja, ja.

[3:37:53] Gewoon even voor de... Dat lijkt mij een toezegging... Voor het verslag.

[3:37:57] Ik ben heel benieuwd hoe u die gaat verwoorden dan, maar dat zien we straks.

[3:38:00] Toezegging dat als de evaluatie er is, dat hij naar ons toekomt.

[3:38:06] We proberen er een mooie toezegging van te formuleren.

[3:38:11] Meneer Maat, tot u daarmee aan het einde van uw inbreng voor de eerste termijn bent gekomen.

[3:38:15] Dan kijken we even naar de zijde van de Tweede Kamer.

[3:38:17] Welke leden er een tweede termijn willen doen?

[3:38:21] En dat zijn allereerst de heer Siks Dijkstra.

[3:38:32] Dank u wel, voorzitter.

[3:38:34] Ik wil ook de staatssecretaris beiden bedanken voor hun beantwoording.

[3:38:38] Ik waardeer ook specifiek de lange overdenking die de staatssecretaris van Justitie gegeven heeft... als het gaat om mensbeeld in relatie tot algoritmes.

[3:38:47] Dat waardeer ik.

[3:38:49] Wat betreft...

[3:38:53] ...algoritmes op orde brengen binnen de overheid.

[3:38:55] Ik twijfel op geen enkele manier aan de intenties van de staatssecretaris Diza... ...als het gaat dat hij dat op orde wil hebben.

[3:39:03] Dat zie ik, dat merk ik.

[3:39:04] Tegelijkertijd blijft het wel steeds ook in termen van het aanspoelen van overheden... ...inspannen dat iedereen zich gaat registreren.

[3:39:12] En daarmee ben ik ook nog niet helemaal gerust op wat hij noemt...

[3:39:18] De inventarisatie gaat plaatsvinden door het netwerk publieke dienstverleners.

[3:39:21] Omdat dat weer een uitvraag is.

[3:39:23] En het is al niet bekend hoeveel hoogimpact-algoritmen er binnen de overheid zijn.

[3:39:28] En de Algemene Rekenkamer constateert steeds... eerst een kwart van de overheid weet niet eens in welke cloud die zit.

[3:39:34] Weet niet hoeveel AI-algoritmes er zijn, hoeveel andere soorten algoritmes.

[3:39:37] Terugkeerend thema.

[3:39:40] Daar wil ik wel de staatssecretaris vragen om nog even op...

[3:39:43] te reflecteren van hoe kunnen we daar nou echt ook meer grip op krijgen... dat het iets minder vrijblijvend wordt allemaal.

[3:39:50] En ik wil daarbij ook een vooraankondiging doen voor een twee minuten debat... afhankelijk van de beantwoording... waarin we daar nog het verder met elkaar over kunnen hebben.

[3:40:01] Dank u wel.

[3:40:03] Dank voor hun inbreng.

[3:40:03] Tweede termijn.

[3:40:04] En dan is het woord aan de heer Ergin van Denk voor zijn tweede termijn.

[3:40:07] Ja, voorzitter.

[3:40:08] Ik heb een aantal interessante zinsneden tenminste.

[3:40:10] Dit debat heb ik genoteerd.

[3:40:12] De staatssecretaris gaat hulpmiddelen uitreiken aan mede-overheden.

[3:40:17] Aan de hand van de analyse gaat de staatssecretaris kijken naar...

[3:40:21] De staatssecretaris heeft aangegeven u kunt deze vraag morgen stellen tijdens een debat.

[3:40:25] Hij heeft de vragen zelfs doorgeleid naar de minister van Buza.

[3:40:29] Hij gaat kijken naar, hij gaat op het niveau van de ministerraad, gaat hij het aan beoordeel brengen, aansporen.

[3:40:36] Voorzitter, dat zijn allemaal termen die op zich prima zijn.

[3:40:42] die bijdragen aan bewustzijn en het aanpakken van uitdagingen.

[3:40:47] Maar volstrekt te weinig om de grote uitdagingen... die we vandaag allemaal hebben geschetst.

[3:40:53] En we komen echt van allemaal andere politieke partijen.

[3:40:56] Maar volgens mij, als het gaat om algoritmes... hebben we allemaal een verhaal van... Nou, het is... We moeten...

[3:41:02] We moeten ervoor zorgen dat op z'n minst transparantie mogelijk is.

[3:41:06] En als transparantie mogelijk is, moeten we vervolgens ook gaan kijken naar extra waarborgen.

[3:41:11] En hoe we die gaan inbouwen.

[3:41:12] En voorzitter, ik heb het gevoel alsof we eigenlijk naar aanleiding van dit debat niet heel veel zijn opgeschoten.

[3:41:18] En ik zou de beide staatssecretarissen willen vragen om bij de aankomende...

[3:41:25] ...commissiedebatten, bij hun aankomende activiteiten, brieven... ...om ook rekening te houden met het ongeduld van deze commissie.

[3:41:31] En niet omdat wij heel graag dingen tijdens debatten... ...alvast kant-en-klare antwoorden willen.

[3:41:39] Maar we willen gewoon stappen maken.

[3:41:40] En die stappen worden al jarenlang niet gemaakt in deze commissie.

[3:41:44] En ik hoop dat we bij een eerstvolgende debat... ...dat we hier staan tegenover twee staatssecretarissen, misschien meer...

[3:41:50] Die eigenlijk zekerder zijn van de uitspraken die ze doen.

[3:41:54] Als ze ferme uitspraken doen die niet na vijf seconden weer in moeten trekken.

[3:41:58] Voorzitter, dat is alleen de hoop die ik uit wil spreken.

[3:42:01] En ik zal een aantal inhoudelijke moties tijdens het twee minuten debat graag indienen.

[3:42:06] Dank u wel.

[3:42:08] Dank voor uw bijdrage, heer Ergin.

[3:42:09] En dan is het woord aan mevrouw Koekoek van de partij Volt.

[3:42:14] Dank voorzitter.

[3:42:14] Ik sluit me aan bij de woorden van collega Ergin.

[3:42:17] Want ik heb heel veel gehoord.

[3:42:19] Er wordt verwezen naar later in de tijd.

[3:42:22] April, zomer, eind van het jaar.

[3:42:24] Maar ook naar andere commissies.

[3:42:26] Naar EZ, naar Binnenlandse Zaken.

[3:42:27] Terwijl het idee van...

[3:42:29] Deze commissioner net was dat alles wat raakt aan digitalisering... dat dat hier ook terugkomt.

[3:42:34] Waarom?

[3:42:35] Omdat de wereld zo snel digitaliseert.

[3:42:38] En wat je nu ziet bij algoritmes... en waar denk ik ook het ongeduld van de Kamer vandaan komt... is dat we hebben gezien hoe zwaar het mis kan gaan...

[3:42:45] dat we eigenlijk continu achter de feiten aanlopen... wat zowel kabinet als Kamer volgens mij zeer ongemakkelijk vinden.

[3:42:52] En de zorg die ik hier proef, of in ieder geval bij mezelf leeft... is dat je dat blijft behouden als we in dit tempo met elkaar door blijven werken.

[3:43:01] En daar zit bij mij in ieder geval ook de urgentie... waarom ik onderdeel wil zijn als Kamerlid van het debat over... wat is dan de maatschappelijke taak van de AP... en met bijbehorende keuzes, waar ook financiën bij horen...

[3:43:13] Omdat we ambities hebben en daar ook de risico's in willen ondervangen.

[3:43:18] Omdat het niet nog een keer zo gruwelijk mis mag gaan.

[3:43:21] Dus daar zit er urgentie in.

[3:43:22] Dat is inderdaad een mooie oproep of de staatssecretaris daar rekening mee kunnen houden.

[3:43:26] Maar op enig moment wordt de welwillendheid van de Kamer ook wel omslaan.

[3:43:32] naar ongeduld, naar frustratie, naar we gaan het afdwingen.

[3:43:34] En ik wil dat moment voorkomen.

[3:43:36] Want op het moment dat je tegen elkaar komt te staan... dan gaan we helemaal geen grote stappen snel thuis krijgen.

[3:43:42] En dat moet juist wel in dit onderwerp.

[3:43:46] In dat kader had ik nog één vraag die volgens mij nog open is blijven staan... om toch nog een concreet antwoord over te vragen.

[3:43:54] Ik had namelijk gevraagd over algerips openbaar maken... of dat ook op zo'n manier kunnen doen... en of dat ook de ambitie is van dat kabinet... dat ook wetenschappers en journalisten kunnen meekijken.

[3:44:02] Dan heb je gewoon meerdere paar ogen.

[3:44:03] Je hebt een AP nodig, je hebt een welwillend kabinet nodig... maar ook andere buitenstaanders, experts, die daarop kunnen meekijken.

[3:44:10] Daar wil ik het graag bij laten voorzetten.

[3:44:12] Dank.

[3:44:14] Dank voor uw inbreng voor de tweede termijn.

[3:44:16] En dan is het woord aan de heer Buissen voor zijn tweede termijn inbreng namens de VVD.

[3:44:23] Dank u wel, voorzitter.

[3:44:26] Mijn aandacht ging in dit debat uit naar de ontwerpprincipes voor overheidsdiensten.

[3:44:31] En de constatering die ik heb mogen doen is dat er eigenlijk geen of heel weinig toezicht is vanuit het departement BZK.

[3:44:39] De staatssecretaris heeft wel gesproken dat het strakker moet.

[3:44:41] En dat er ook wel een intern netwerk is om daar veel beter en gestructureerder het gesprek over te voeren.

[3:44:48] En dat eigenlijk de NDS, de Nationale Digitalisering Strategie, een heel mooi podium is om dat te faciliteren.

[3:44:56] En hij heeft mij toegezegd na te denken om het in de NDS te doen.

[3:45:00] Maar ik zou eigenlijk gewoon een toezegging willen dat hij gewoon één of twee zinnen besteedt in de NDS op het...

[3:45:06] op het element van ontwerpprincipes voor die digitale dienstverlening.

[3:45:11] Dus ik zou gewoon deze toezegging willen vragen aan de staatssecretaris.

[3:45:14] Dank u wel.

[3:45:17] Hartelijk dank voor uw bijdrage voor de tweede termijn.

[3:45:19] En dan geef ik het woord aan de heer Van Meer namens de BBB voor zijn tweede termijn.

[3:45:25] Ja, voorzitter, we hebben nog een paar antwoorden te goed voor de tweede termijn.

[3:45:30] Maar ik wil in ieder geval de staatssecretaris en alle mensen die naast en achter hun staan bedanken voor de antwoorden op de vragen.

[3:45:41] Eén ding is mij wel duidelijk, dat wij nog een behoorlijke weg te gaan hebben om alles goed, transparant en inzichtelijk en compleet te krijgen.

[3:45:50] En ik denk wel dat het verstandig is, waar we straks ook even over hadden in de interruptie, dat er wel een moment komt dat er gezegd wordt van datgene wat gewoon niet transparant beschikbaar en compleet beschikbaar is, mag gewoon niet meer ingezet worden.

[3:46:06] Maar hopelijk is dat niet nodig en lukt het de staatssecretaris om de boel snel op de rit te krijgen.

[3:46:13] Dank u wel.

[3:46:15] Heel hartelijk dank voor uw inbreng voor de tweede termijn.

[3:46:16] Dan geef ik het woord aan mevrouw Katman namens GroenLinks Partij voor de Arbeid voor haar tweede termijn.

[3:46:21] Ja, voorzitter.

[3:46:22] Ik wil ook de staatssecretaris bedanken voor hun beantwoording en voor wat nog gaat komen.

[3:46:28] Ook natuurlijk de mensen achter de schermen inderdaad.

[3:46:30] Heel goed, meneer Vermeer.

[3:46:34] Ik vond het een mooie suggestie van staatssecretaris Sabo om te kijken of we als commissie zo'n cursus kunnen doen.

[3:46:44] Dan zou ik ook een tegenvoorstel willen doen aan de staatssecretaris.

[3:46:50] Ik hoop dat hij bekend is met de Toekomstkamer.

[3:46:52] Vroeger ook wel de stichting Toekomstbeeld der Techniek.

[3:46:55] Die hebben ook een suggestie gedaan... over wat we kunnen verbeteren met de algoritmeregisters.

[3:47:02] Omdat eigenlijk in alle stukken van de overheid staat... waarom willen we dat register nou?

[3:47:06] Het allerbelangrijkste doel is dat vertrouwen terugwinnen.

[3:47:09] En ook dus dat vertrouwen in dat de...

[3:47:12] ...algoritme die we gebruiken, dat we die kunnen vertrouwen.

[3:47:15] Maar hoe kunnen we nou dat vertrouwen als doelstelling hebben... ...als maar 9% van de Nederlanders weet wat een algoritmeregister is?

[3:47:24] dan gaat er dus iets volledig mis.

[3:47:25] En zij hebben ook voorhandreikingen gedaan... net als het vijfsterrenmodel van die andere organisaties... waar de staatssecretaris naar wil kijken.

[3:47:34] Dus ik hoop dat hij in gesprek wil met die toekomstkamer... om te kijken hoe we mogelijk op een andere en betere manier... dus die doelstelling van vertrouwen beter kunnen halen.

[3:47:49] En over de AP denk ik hebben we voldoende gezegd, voorzitter.

[3:47:52] Want dit is echt afsluitend.

[3:47:53] Maar ik denk dat het ook echt ervandaan komt dat we het nogal hebben over iets vandaag.

[3:47:58] Over iets wat maar niet vlot.

[3:48:00] En waar echt mensen in Nederland door vermorseld kunnen worden.

[3:48:03] En ook zijn vermorseld.

[3:48:05] En het is traag en het gaat moeilijk.

[3:48:07] En we weten allemaal dat het beter moet.

[3:48:10] En de AP speelt daar tot nu toe in ieder geval een cruciale aanjagende rol in.

[3:48:15] En we hebben zo vaak al aan de bel getrokken... dat we dus beter dat gesprek willen voeren over die AP... die dus die belangrijke rol heeft.

[3:48:25] Ook om dit vlot te trekken en om hierover te signaleren.

[3:48:28] Om dat goed te krijgen.

[3:48:30] Toen zijn we al honderd keer van het kastje naar de muur gestuurd.

[3:48:32] Nee, dan moet u bij de staatssecretaris zijn, dan moet u bij JV zijn... dan moeten we bij dit, dan moeten we bij dat zijn.

[3:48:38] En als je dan nu met een soort voldongen feit zit... dat je het idee hebt dat je weer niet geïnformeerd wordt... dan op een gegeven moment denk je...

[3:48:45] Ja, welke voortgang moeten we dan nog wel geloven?

[3:48:50] En daar zat het gewoon even hoog.

[3:48:54] Hartelijk dank voor uw inbreng in de tweede termijn.

[3:48:58] Als voorzitter draag ik nu even mijn voorzitterschap over aan de heer Sieks-Dijkstra.

[3:49:01] Opdat ik zelf ook een inbreng kan doen.

[3:49:04] Het woord is aan de heer Valize namens de PVV voor zijn tweede termijn.

[3:49:09] Ja, voorzitter, dank voor het woord.

[3:49:10] Allereerst wens ik heel graag de organisatie... maar ook de staatssecretarissen en de ambtelijke ondersteuning te bedanken... en ook de mede-collega's voor hun uitstekende inbreng... allemaal tijdens het debat.

[3:49:22] Ik heb verder geen punten voor de tweede termijn.

[3:49:25] Wel zou ik, zoals gezegd, iedereen hartelijk willen danken.

[3:49:35] Dank u wel.

[3:49:35] Dan geef ik het voorzitterschap bij deze weer over aan u.

[3:49:38] Heel hartelijk dank voor het voorzitterschap, heer Siks-Dijkstra.

[3:49:41] En dan kijk ik even naar mijn rechterzijde aan de kant van het kabinet.

[3:49:45] Of zij nog even een korte schossing benodigen voor de beantwoording.

[3:49:48] Vijf minuutjes, tien minuutjes, tien minuutjes.

[3:49:51] We hebben nog wel even de mogelijkheid om wat uit te lopen.

[3:49:55] Overleg ik even een klein ogenblikje.

[3:49:58] We kunnen nog een klein beetje uitlopen, dus tien minuten is akkoord.

[3:50:01] Ik schors de vergadering tot half tien.

[3:59:47] In goede avond allemaal.

[3:59:49] Welkom terug bij de commissie Digitale Zaken.

[3:59:51] Het debat over de inzet, algoritme en dataethiek bij de Rijksoverheid.

[3:59:56] Het is de tweede termijn van het kabinet en het woord is aan de heer Zabo, staatssecretaris Digitalisering.

[4:00:05] Dank u wel, voorzitter.

[4:00:07] Ik probeer zo goed mogelijk de antwoorden ook vanuit de tweede termijn te behandelen en wat vragen die nog uit de eerste termijn er lagen.

[4:00:16] We beginnen even over de tweede termijn.

[4:00:18] De heer Siks-Dijkstra over de reflecties en dat we minder vrijblijvend met elkaar op dossiers om moeten gaan.

[4:00:34] Ik heb er even over na zitten denken.

[4:00:36] U heeft zelf in de Kamercommissie voor Digitale Zaken een aantal hoofdthema's.

[4:00:46] die er staan, zoals inclusie en dat soort zaken.

[4:00:50] Wij komen ook met wat thema's vanuit de Nederlandse digitaliseringstrategie.

[4:00:54] En het lijkt mij ook goed voor toekomstige debatten om te kijken of die...

[4:00:59] goed op elkaar passen.

[4:01:00] Want ik heb u ook niets voor niets uitgenodigd op 4 november... met de benen op tafel om te kijken van waar gaan we nou op lopen.

[4:01:06] Het moet goed passen.

[4:01:08] Alleen straks ook in de debatten moet het ook goed passen.

[4:01:10] Zodat als we resultaten willen hebben op dossiers... we ook dezelfde taal spreken.

[4:01:15] Dus die handreiking doe ik om in ieder geval... ik weet niet precies hoe we het gaan doen, moeten we even naar kijken... om die discussie met de commissie te voeren.

[4:01:24] Dan Denk, die had het ook onder andere over transparantie.

[4:01:29] En daar heeft Volt... Even kijken hoor.

[4:01:37] Waar heb ik het?

[4:01:40] Ja, over meekijken inderdaad onder transparantie heeft Volt het ook over gehad.

[4:01:44] Of journalisten en wetenschappers ook kunnen meekijken op algoritmes.

[4:01:47] Ja, we horen op dit moment al van wetenschappers dat ze veel met het algoritmeregister bezig zijn.

[4:01:52] Dat vind ik belangrijk, want het was ook een van de doelen.

[4:01:55] Het algoritmeregister is ontwikkeld om ook de informatiebehoeften van journalisten en wetenschappers te vullen.

[4:02:01] Dat heb ik ook in het debat aangegeven.

[4:02:03] En in de doorontwikkeling van het register wordt ook de gebruikersbehoefte meegenomen...

[4:02:08] En dus niet alleen van de wetenschappers en de journalisten, maar ook anderen die het register benaderen.

[4:02:15] Dan de ontwerpprincipes waar de VVD op is ingegaan.

[4:02:19] Ik heb al gepoogd om toe te zeggen dat in die digitaliseringsstrategie daar wordt ingegaan.

[4:02:25] Via standaardisatie ook, onder andere.

[4:02:28] Maar ik zou ook specifiek dit begrip benoemen.

[4:02:32] Want het lijkt me ook wel verstandig voor de discussie... dat aan het begin van de discussie iedereen weet van waar ligt je prioriteit.

[4:02:37] Standaardisatie ligt ook natuurlijk op andere dossiers.

[4:02:40] Maar dit is er zeker eentje van, want...

[4:02:42] Als je naast elkaar op verschillende manieren iets aan het ontwerpen bent... vanuit de architectuurgedachte, dan past het niet.

[4:02:48] Sterker nog, we moeten meer regie voeren.

[4:02:50] Dus ontwerpprincipes van boven naar beneden worden ook steeds belangrijker.

[4:02:56] Ja, en dan de BBB over de transparantie aan burgers.

[4:03:01] Ja, helemaal mee eens.

[4:03:05] En de P van de A, cursus...

[4:03:07] aan de Kamer geven.

[4:03:08] Nee, het was niet zo dat ik u een cursus wilde geven, maar dat wat we doen met onze ambtenaren.

[4:03:14] Ik heb begrepen dat mijn voortgangster, heb ik ook in stukken gezien al eerder, ook naar de Toekomstkamer aan het kijken was.

[4:03:19] En als u dat wil, en misschien wil ik dat ook wel, maar daar ga ik nog één keer even heel goed naar kijken, want het moet echt relevant zijn voor beide partijen, wil ik ook graag met ze in gesprek.

[4:03:31] Ja?

[4:03:31] Dus die wordt ook opgepakt vanuit onze kant.

[4:03:35] Dan nog wat additionele vragen uit de eerste termijn.

[4:03:43] Ja.

[4:03:45] Dat is de makkelijkste vraag van de heer Vermeer.

[4:03:49] Hoe heet ook alweer die handreiking?

[4:03:52] Nou, meneer Vermeer, het wordt geen quizvraag, maar het heet gewoon de handreiking algoritmeregister.

[4:03:59] Dus...

[4:04:01] En daar staat onder categorie A de maatregelen van hoogrisicomodellen.

[4:04:08] En we kunnen het ook opsturen als u dat wil, als daar behoefte aan is.

[4:04:14] Oké, dan een vraag nog van de heer Ergin met betrekking tot de lijst die u had.

[4:04:23] Ik heb nu één A4'tje, dus ik hoop dat ik alles heb.

[4:04:27] Die lijst is gedeeld en in de Kamerbrief van 2 december 2024 melden wij dat wij de aanbevelingen van de ADR allemaal oppakken.

[4:04:35] Dat zijn dus die eerste vier.

[4:04:37] En de vijfde, daar waren we wat meer terughoudend in.

[4:04:41] Want daar ging het met name over Sierra Rijk...

[4:04:45] die dan vooraan moest gaan lopen over zelf kijken ook naar voortgang en resultatenrapportages.

[4:04:53] Wat we wel hebben aangegeven daar, dat we wel kunnen kijken dat die rapportages eenduidig naar de Kamer komen.

[4:05:00] Ik ga zelf even kijken of we ook een eenduidig format hebben.

[4:05:03] Als dat niet zo is, dan ga ik alsnog dit laatste onderwerp zelf oppakken.

[4:05:07] Maar als het allemaal leesbaar is voor iedereen, dan laten we het zo.

[4:05:13] Binnen interruptie van de heer Erwin.

[4:05:15] Voorzitter, wat moet ik begrijpen onder oppakken?

[4:05:19] Dat de staatssecretaris ervoor gaat zorgen dat er tekortkomingen... en ik heb er een paar genoemd, er zijn er veel meer, dat die worden... Het gaat om het wijzen van rapporteren naar de Kamer.

[4:05:30] U mag de microfoon even aanzetten.

[4:05:32] Het gaat om de wijze van rapporteren naar de Kamer.

[4:05:35] En daar was de aanbeveling van de ADR.

[4:05:37] In het verlengde van de voortgaande kan worden overwogen dat vanuit CIO Ruik de voortgang en resultaten worden gerapporteerd.

[4:05:44] Maar goed, iedereen rapporteert voor zichzelf.

[4:05:46] Maar als we dat moeten clusteren in begrijpend Nederlands, dan doe ik dat graag.

[4:05:52] De laatste vraag, voorzitter.

[4:05:54] Maar het ADR zegt ook... die constateert een aantal tekortkomingen... zoals dat bepaalde uitvragen niet zijn getoetst, et cetera.

[4:06:03] Betekent dat ook het overnemen van de aanbevelingen... dat die tekortkomingen in de komende periode... wel worden opgepakt en worden weggewerkt?

[4:06:11] Laat ik het even zo stellen.

[4:06:13] Het woord is aan de staatssecretaris.

[4:06:15] De specifieke vraag van ons aan de departementen was of ze die tekortkomingen zelf oppakken.

[4:06:23] Dus dan ga ik er ook vanuit dat die ook worden opgepakt en worden verwerkt.

[4:06:30] Ja?

[4:06:31] Oké, heb ik nog wat laten liggen, voorzitter?

[4:06:34] Ik kijk even naar de Kamerleden.

[4:06:41] Interruptie van de heer Siks-Dijkstra.

[4:06:42] Er stond nog een vraag van mij uit.

[4:06:46] De staatssecretaris kwam met een heel kort antwoord op mijn verduidelijkingsvraag... als het ging hoe verhoudt de inzet die nu gaat plaatsvinden... voor de inventarisatie van algoritme... zich tot de eerdere inzetten van de staatssecretaris had gezegd... dat gaan we niet meer doen.

[4:07:03] De staatssecretaris.

[4:07:04] Ja, voorzitter.

[4:07:05] Dank u wel.

[4:07:10] Dat had ook te maken met het verzoek van de lid Itzinga.

[4:07:15] Lid Itzinga ging uit van het advies van de landsadvocaat.

[4:07:17] En uit het AP-advies blijkt dat selectie-instrumenten wel degelijk toegestaan zijn.

[4:07:21] Mids aan een aantal waarborgen wordt voldaan.

[4:07:23] Op basis daarvan is zo'n inventarisatie niet nodig.

[4:07:29] Om zicht te krijgen op de uitvoeringspraktijken gaat de NPD.

[4:07:34] Uitvoeringsorganisaties vragen om aan de hand van twee selectie-instrumenten per organisatie...

[4:07:39] aan te geven hoe om wordt gegaan met de door de AP genoemde waardborgen.

[4:07:46] En op basis van de uitkomsten die ik u voor het eind van het jaar stuur... wil ik bekijken wat er nodig is om organisaties verder te ondersteunen... bij het voldoen aan de waardborgen uit het AP-advies.

[4:07:59] Vervolgvraag van de heer Siks-Dijkstra.

[4:08:01] Maar dan even ons helemaal afpellen.

[4:08:05] Om uiteindelijk te komen maken tot een lijst van algoritmes... die al dan niet voldoen aan het advies van de AP... heb je toch zo'n inventarisatie nodig van algoritmes... die volgens het advies van de landsadvocaat onwettig zouden zijn... maar waarvan de AP nu zegt het mag onder bepaalde waarborgen.

[4:08:23] Dan kom je toch uiteindelijk bij dezelfde lijst met algoritmes uit.

[4:08:27] Of zie ik dat verkeerd?

[4:08:28] In principe is dat dezelfde inventarisatie.

[4:08:30] Het woord is aan de staatssecretaris.

[4:08:32] Ja, klopt.

[4:08:32] Het is gewoon een paralleeltraject.

[4:08:36] Oké, dan nog een verhelderende vraag van de heer Siks-Dijkstra.

[4:08:39] Dan begrijp ik niet helemaal waarom de regering in zijn brief heeft aangegeven... af te zien van de inventarisatie, als dit in principe hetzelfde is.

[4:08:47] De staatssecretaris.

[4:08:50] Het ging over illegale praktijken.

[4:08:52] En de AP zegt dat het geen illegale praktijken zijn.

[4:08:57] We komen toch weer in een discussie terecht.

[4:08:59] De heer Siks-Dijkstra.

[4:09:01] Dat begrijp ik.

[4:09:02] Ik begrijp dat de omstandigheden anders zijn.

[4:09:04] Maar in principe is uiteindelijk de uitkomst hetzelfde.

[4:09:08] Of niet?

[4:09:08] Of zie ik dat verkeerd?

[4:09:09] Eigenlijk staat de secretaris nu nog meer werk.

[4:09:12] Want nu moet hij ook in kaart brengen welke aan welke voorwaarden voldoen.

[4:09:15] In plaats van een lijst met enkel de algoritmes die...

[4:09:19] onder de oude lezing van de AVG illegaal zouden zijn... zou hij nu diezelfde lijst moeten opstellen... met dan ook nog... en welke van de vijf waarborgen van de AP ze voldoen.

[4:09:29] Ik bedoel, dat wil ik heel graag.

[4:09:32] Maar in principe vindt die inventarisatie nog steeds plaats.

[4:09:34] Het woord is aan de staatssecretaris.

[4:09:37] Het gaat om de menselijke tussenkomst... en daar kijken we specifieker naar.

[4:09:46] Maar als dit... Ja?

[4:09:54] Uw microfoon.

[4:09:57] Heb ik alle vragen beantwoord?

[4:09:59] Ik heb niet goed opgelet, want ik kreeg ook een ander berichtje waar ik even mee bezig was.

[4:10:09] Excuses daarvoor.

[4:10:10] Maar ik had nog de vraag of er nog een onderzoek loopt bij de Algemene Rekenkamer naar een algoritme en welke.

[4:10:18] Ik heb hem te pakken, voorzitter.

[4:10:19] Staatssecretaris.

[4:10:21] Ja, de Algemene Rekenkamer doet dit jaar onderzoek... naar een beperkt aantal algoritme als onderdeel van haar verantwoordingsonderzoeken.

[4:10:28] Het is mij niet bekend om welk algoritme dit onderzoek zich afgelopen jaar heeft gefocust.

[4:10:33] En ik kan dit uitvragen bij de Algemene Rekenkamer... indien u wenst en kan u hierover informeren.

[4:10:42] Dan heeft ze nog een interruptie van de heer Vermeer.

[4:10:46] En wanneer kan dat?

[4:10:47] Want dan kan dat goed opgenomen worden in de toezeggingen.

[4:10:51] Staatssecretaris.

[4:10:54] Dat we dat gaan uitvragen?

[4:10:58] Ik ga hem zo spoedig mogelijk uitvragen.

[4:11:02] Morgenochtend acht uur.

[4:11:04] En dan zal ik u daarna informeren wanneer we de resultaten kunnen krijgen.

[4:11:10] En dan heeft u nog een interruptie van mevrouw Katman.

[4:11:13] Ja, voorzitter.

[4:11:14] De staatssecretaris zou nog even terugkomen in tweede termijn... op het raadsel van voldoen aan de AI Act.

[4:11:21] Als we de helft van de AI die we toepassen niet in beeld hebben... en maar 2% van de algoritme is geregistreerd... hoe weten we dan dat we aan de AI Act voldoen?

[4:11:33] Het woord is aan de staatssecretaris.

[4:11:38] Organisaties hebben, omdat dit prioriteit had, specifiek naar de verboden AI-praktijken gekeken.

[4:11:45] Dit gaat dus om een beperkt aantal toepassingen.

[4:11:48] De volgende fase van de AI-verordening, de hoogrisico AI-systemen en transparantieverplichtingen, gaat per augustus 2026 in.

[4:11:55] Ja.

[4:12:00] Hoop ik, voorzitter, dat ik alle vragen heb beantwoord.

[4:12:04] Heeft het nog een interruptie van de heer Erdingen?

[4:12:08] Voorzitter, ik heb nog een openstaande vraag over met AP... die naar de Nederlandse wetgeving heeft gekregen.

[4:12:14] Dat staat ook in het rapport, in het advies van het AP... als het gaat om geautomatiseerde algoritme.

[4:12:24] Maar tegelijkertijd hebben we ook het Shoeva-arrest... waarin een Europese rechter de definitie vrij strikt heeft genomen.

[4:12:32] De staatssecretaris zou daar in de tweede termijn op terugkomen.

[4:12:36] Ik zie hem vragend kijken...

[4:12:38] Ik vind het ook prima als ik hier een schriftelijke reactie op krijg.

[4:12:41] Maar ik wil die reactie, ik wil die analyse... die ik eigenlijk nu inmiddels al twee keer heb gezet... die wil ik graag zien van de staatssecretaris.

[4:12:49] Het woord is aan de staatssecretaris.

[4:12:50] Ja, voorzitter.

[4:12:52] Het antwoord ligt niet op mijn bureau nu.

[4:12:54] Dus u krijgt van mij een schriftelijk antwoord.

[4:12:57] Op welke termijn?

[4:13:00] Niet morgenochtend acht uur.

[4:13:05] Ik hoor hier Q1 en die loopt af, dus dat is denk ik binnen twee maanden.

[4:13:13] Voorzitter, kunnen we gewoon de gebruikelijke beantwoording van een schriftelijke vraag, een termijn, dat is volgens mij drie weken, kunnen we dat gewoon aanhouden in plaats van twee maanden voordat ik een antwoord krijg op een vraag?

[4:13:27] In de geest van dit debat en onze toekomstige samenwerking kan ik dit toezeggen.

[4:13:32] Nou, dat lijkt me een mooie toezegging aan de heer Ergin.

[4:13:36] Het woord is aan de staatssecretaris van Justitie en Veiligheid, de heer Struiken, voor zijn tweede termijn.

[4:13:46] Voorzitter, ik hecht eraan u allen en ook mevrouw Kappen een bijzonder te danken, ook voor haar opmerking aan het eind.

[4:13:54] Want terechtbrengt zij naar voren dat we...

[4:13:58] voor ogen moeten houden allemaal dat de AP een buitengewoon belangrijke rol verspilt in onze samenleving, juist op het vlak van gegevensbescherming.

[4:14:06] Dat onderschrijf ik volledig.

[4:14:09] En we moeten daar een constructieve dialoog met elkaar en met de AP over hebben, hoe we die rol verder vorm kunnen geven.

[4:14:17] Het advies...

[4:14:19] Eén van de adviezen van de AP is buitenkom belangrijk, juist vandaag.

[4:14:21] Dat stond op de agenda.

[4:14:23] Daaruit blijkt het grote belang van de AP.

[4:14:25] Dus wat mij betreft bestaat daar geen misverstand onder.

[4:14:30] En voor het overige dank ik u dat ik hier aanwezig mocht zijn in deze commissie.

[4:14:35] Dan kijk ik naar mijn linkerzijde.

[4:14:36] Ik zie dat er verder geen onbeantwoorde vragen zijn.

[4:14:40] Dan dank ik de staatssecretarissen voor de beantwoording van de tweede termijn.

[4:14:45] En dan zal ik nog even kort recapituleren.

[4:14:48] Wij hebben een aantal toezeggingen.

[4:14:51] Het eerste punt is dat de heer Siks-Dijkstra een twee minuten debat heeft aangevraagd.

[4:14:58] Vervolgens hebben we de toezegging van staatssecretaris Digitalisering Concrijksrelaties dat de Kamer voor april 2025 per brief geïnformeerd zal worden over de motie Omzicht-Signis Dijkstra in zaken wetenschappelijke standaard voor modellen en algoritmes die overdwingbaar, openbaar en navolgbaar zijn.

[4:15:15] En zal hier tevens ingaan op het vijfsterrenmodel voor algoritmes.

[4:15:21] Dat klopt, voorzitter.

[4:15:23] Dank u wel voor de bevestiging.

[4:15:25] Dan hebben wij nog van de staatssecretaris van Digitalisering en Koninkrijksrelaties verwacht de Kamer voor het eind van 2025 te informeren over de analyse van de casuïstiek bij het netwerk van publieke dienstverleners.

[4:15:37] Inderdaad, klopt.

[4:15:38] Dank u wel.

[4:15:40] Dan hebben we staatssecretaris van Digitalisering en Koninkrijksrelaties zegt toe dat de Kamer op verantwoordingsdag 2025 middels een jaarrapportage bedrijfsvoeringrijk wordt geïnformeerd over het vullen van het algoritmeregister.

[4:15:53] Klopt, voorzitter.

[4:15:55] Dan hebben wij toezegging.

[4:15:57] De staatssecretaris van Digitalisering en Koninkrijksrelaties zegt toe... de Kamer eindt Q1, begint Q2 te informeren over de vraag van het lid Koekoek... aangaande de motiveringsplicht in de herziene AWB.

[4:16:12] Klopt, voorzitter.

[4:16:14] Dan hebben we de staatssecretaris van Digitalisering en Koninkrijksrelaties zegt toe... dat in de Nederlandse digitaliseringsstrategie de term ontwerpprincipes zou worden meegenomen... naar aanleiding van vraag van de heer Buissen van de VVD.

[4:16:26] Klopt.

[4:16:27] Dank u wel.

[4:16:28] De staatssecretaris van Digitalisering en Koninkrijksrelaties zegt toe... bij de Algemene Rekenkamer te inventariseren over de onderzoeken over algoritmes... en zal de Kamer om nader informeren over de uitkomst hiervan... naar aanleiding van de vraag van Let Vermeer van de BBB.

[4:16:41] Klopt.

[4:16:41] Dank u wel.

[4:16:42] De staatssecretaris van Digitalisering en Koninkrijksrelaties zegt toe binnen drie wijken nog schriftelijk terug te komen op de opgevraagde analyse benoemd door het lid Erwin van Denk.

[4:16:52] Klopt.

[4:16:53] Dank u wel.

[4:16:54] En de staatssecretaris Rechtsbescherming zegt toe een schriftelijke reactie met de Kamer te delen op het genoemde artikel van Follow the Money in zaken preselect recidiven voor het debat bescherming persoonsgegevens en digitale grondrechten 6 februari aanstaande.

[4:17:09] Hier, dank u wel.

[4:17:10] En staatssecretaris rechtsbescherming zegt toe dat... zodra de zelfevaluatie van de autoriteit passantsgegevens gereed is... en dat is na verwachting eind Q1... spoedig daarna de staatssecretaris een reactie hierop met de Kamer zal delen.

[4:17:24] Dan zie ik verder in op een aanmerkingen.

[4:17:26] Dank ik iedereen voor het mooie debat wat we gevoerd hebben... aan de aanwezigheid en beantwoording van de vragen.

[4:17:31] En sluit ik het debat bij deze.