Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Inzet algoritmes en data-ethiek

[0:00:00] Dataethiek. Welkom aan al mijn collega's in de Tweede Kamer en bijzonder welkom aan twee bewindspersonen,

[0:00:08] staatssecretaris Financiën de Heer van Rij en staatssecretaris Van Huffelen.

[0:00:13] Ik denk, gezien de tijd die we hebben en het aantal Kamerleden, dat we wel kunnen starten met denken

[0:00:19] dat vier interrupties in twee gaan lukken.

[0:00:23] Als iedereen het een beetje kort wil houden, dat zou mooi zijn.

[0:00:26] En dan is het woord aan de heer Sjiks Dijkstra van NSC.

[0:00:31] Dank u wel.

[0:00:31] Voorzitter.

[0:00:33] Het Hof van Justitie van Europa heeft onlangs geoordeeld dat geautomatiseerde

[0:00:38] kredietscores strijdig zijn met artikel 22 van de AVG, het verbod op automatische

[0:00:44] besluitvorming.

[0:00:45] De landsadvocaat heeft naar aanleiding daarvan geadviseerd dat het gebruik van

[0:00:48] niet-transparente risicoprofielen via algoritme zonder onderliggende wetgeving

[0:00:53] hoogstwaarschijnlijk illegaal is.

[0:00:54] omdat burgers hierdoor rechtsbescherming missen.

[0:00:58] De gevolgen van deze uitspraak zijn dus behoorlijk verstrekkend.

[0:01:01] Geautomatiseerde risicoprofielen zijn verboden zonder wettelijke grondslag.

[0:01:06] Delen de staatssecretarissen die conclusie?

[0:01:09] Ik zou graag van de staatssecretaris van Digitalisering willen weten

[0:01:13] hoeveel overheidsdepartementen nog meer gebruik maken van algoritmen en selectiemethodes

[0:01:17] die op basis van dit advies mogelijk in strijd zijn met de AVG op dit punt.

[0:01:21] Mijn collega Itzinga heeft daarom ook het verzoek gedaan om een lijst

[0:01:26] met potentieel onrechtmatige algoritme naar de Kamer te sturen.

[0:01:30] Hier is inmiddels een uitstelbrief opgekomen en op welke termijn,

[0:01:32] vraag ik aan de staatssecretaris, kunnen wij deze lijst verwachten?

[0:01:36] De echte vraag is, overzien wij als parlement de gevolgen van deze uitspraak?

[0:01:40] Want als we de conclusie kunnen trekken dat niet-transparente risicoprofielen

[0:01:44] zonder wettelijke grondslag in strijd zijn met de AVG,

[0:01:47] dan moeten of een hoop algoritmes uit gebruik genomen worden

[0:01:50] of er moet een hoop nieuwe wetgeving komen.

[0:01:53] En laten we het dan ook grondig aanpakken,

[0:01:55] want een wettelijke versteviging van overheidsalgoritme lijkt ons hard nodig.

[0:01:59] Is de staatssecretaris dat met ons eens?

[0:02:02] Het debat dat wij hier als Kamer door gaan svoeren

[0:02:04] over de wenselijkheid en wetmatigheid van algoritme

[0:02:07] is altijd achteraf, als er iets misgaat en mensen in de verdrukking komen.

[0:02:12] Mijn fractie vindt er best wat voor te zeggen

[0:02:13] dat nieuwe, impactvolle algoritme die persoonsgegevens verwerken

[0:02:17] bijvoorbeeld niet alleen in het algoritmeregister vastgelegd worden,

[0:02:20] ...maar ook bijvoorbeeld via een voorhangprocedure van wetgeving langs de Staten-Generaal gaan.

[0:02:26] Dit zodat de Tweede Kamer ze aan de voorkant kan inzien...

[0:02:29] ...en we indien nodig er een debat over kunnen voeren.

[0:02:32] Want dan zijn algoritmes echt democratisch geborgd.

[0:02:36] Hoe kijkt de staatssecretaris daar tegenaan?

[0:02:39] Dan wil ik het graag nog even hebben over het implementatiekader algoritme, het IK.

[0:02:43] De staatssecretaris heeft de Kamer een flinke lijst gestuurd van de normen en maatregelen...

[0:02:47] ...binnen de overheid voldaan moet worden...

[0:02:49] ...om algoritme met een groot impact in te zetten.

[0:02:52] Laat ik vooropstellen, ik waardeer de inzet van de staatssecretaris...

[0:02:55] ...om grip te krijgen op algoritme binnen de overheid.

[0:02:58] Dat willen we volgens mij allemaal, ook in deze Kamer.

[0:03:00] Zie ook alle moties die hierop zijn ingediend de afgelopen jaren.

[0:03:04] Vorige maand is na het duo-debat ook nog een motie aangenomen...

[0:03:07] ...over een verplichte algoritme APK.

[0:03:10] En ik sluit niet uit dat er bij het volgende algoritme-schandaal...

[0:03:13] ...weer een stapeltje kaders bovenop komt.

[0:03:15] Het is allemaal sympathiek en goed bedoeld natuurlijk...

[0:03:17] Maar ik ben wel een beetje bang dat we door de bureaucratische bomen

[0:03:20] het bos niet meer zien en dat we hier goed gedrag willen afdwingen

[0:03:24] met regeldruk.

[0:03:26] Wat we eerder zagen bij de Belastingdienst, het UAV,

[0:03:29] de gemeente Rotterdam en DUO, is dat het namelijk volstrekt duidelijk was

[0:03:33] dat de algoritme die ingezet werden om fraude op te sporen

[0:03:36] niet rechtmatig waren.

[0:03:38] Of, laat ik het helder verwoorden, dat ze regelrecht discrimineerden.

[0:03:42] En dat het vaak ook niet het probleem was dat dit niet tijdig gesignaleerd was,

[0:03:45] ...maar dat de verantwoordelijke personen gewoon alle waarschuwingen in de wind sloegen...

[0:03:48] ...en vrolijk doorgingen met de inzet.

[0:03:51] Het is een kwestie van slecht bestuur in zo'n geval.

[0:03:54] Maar een oprechte vraag aan de staatssecretaris.

[0:03:56] Zijn de huidige beleidskaders werkbaar voor alle departementen?

[0:04:00] Kunnen alle grote problemen die binnen de overheid rondom algoritmes spelen...

[0:04:04] ...niet veel beter aangepakt worden door vast te houden aan een paar kernachtige principes...

[0:04:08] ...en aangewetens tot bestuur?

[0:04:10] In plaats van met een heel groot ICA, met IAMA's en met alles wat daarbij komt kijken.

[0:04:14] Het principe is als, houd je aan de grondwet en aan de AVG,

[0:04:18] wees transparant richting burgers en zorg voor goed toezicht.

[0:04:21] Ik heb wat toezicht betreft overigens liever een sterke,

[0:04:24] goed geëquipeerde autoriteit persoonsgegevens

[0:04:27] met echte doorzettingsmacht dan al die dure externe consultancybureaus

[0:04:30] die dan door de persoonlijke data van burgers moeten spitten.

[0:04:34] Een laatste vraag die ik ook stel, mede namens de ChristenUnie.

[0:04:38] Hoe staat het met de uitvoering van de aangenomen motie Leid en Ceder

[0:04:41] over het uitwerken van meer samenhang tussen waardekaders.

[0:04:46] Voorzitter, ik rond af. Ik geloof in de schoonheid van eenvoud.

[0:04:50] En ik weet dat ik hier de strijd met de onverbiddelijke tijdgeest aanga.

[0:04:53] Maar misschien wordt het tijd om eens van het dogma af te stappen...

[0:04:55] dat de overheid altijd en overal maar meer data-driven moet zijn.

[0:04:59] Niet alles wat kan, moet ook.

[0:05:01] Want daar waar het de verwerking van persoonsgegevens betreft...

[0:05:04] delven meer dan eens de personen achter de gegevens het onderspit.

[0:05:07] Dank u wel.

[0:05:10] U heeft een interruptie van de heer Van Baarle van Denk.

[0:05:14] Klopt, voorzitter.

[0:05:15] Ik dank de heer Sik-Stijkstra voor zijn inbreng.

[0:05:18] Ik vraag me wel af hoe ik zijn inbreng exact moet wegen.

[0:05:22] Want hij heeft het over het dilemma tussen

[0:05:23] aan de ene kant de noodzaak door het scheppen van normen

[0:05:26] en aan de andere kant het niet doorslaan

[0:05:28] in een woud van de regelgeving.

[0:05:32] Hoe moet ik dat nou zien?

[0:05:34] Bepleit de heer Sik-Stijkstra namens NSC nou dat we

[0:05:38] de zaken die we met elkaar in gang gezet hebben

[0:05:40] namelijk het vastleggen van normen

[0:05:43] dat we dat in algemenere termen zouden moeten gaan doen.

[0:05:47] Dus dat we niet de goede praktijkstappen die je kan doorlopen om zaken non-discriminatoir te maken,

[0:05:53] dat je dat niet moet vastleggen en liever algemene principes.

[0:05:57] Of begrijp ik het dan verkeerd?

[0:06:00] Het punt wat ik wilde maken, ik dank de heer Van Baarle voor zijn vraag,

[0:06:03] is dat we soms als Kamer in de reflex kunnen schieten dat wanneer er een volgend algoritmeschandaal is,

[0:06:09] ...er een hele lijst moties komt met nieuwe maatregelen die getroffen moeten worden...

[0:06:13] ...waardoor de samenhang soms nog wel eens verloren gaat.

[0:06:16] Laat ik vooropstellen, nondiscriminatoire eigenschappen van algoritmes...

[0:06:20] ...lijkt mij een basisprincipe, eentje waar we altijd aan moeten houden.

[0:06:23] En mijn oprechte vraag aan de staatssecretaris is...

[0:06:25] ...met alle moties die er zijn geweest en alle extra kaders...

[0:06:29] ...is die samenhang er nog wel? Dat is mijn vraag.

[0:06:32] En is het niet makkelijker om het te versimpelen?

[0:06:35] Want mijn punt is vaak ook, vaak als er een nieuw overheidsschandaal is rondom algoritmes,

[0:06:41] wordt dat wel geconstateerd.

[0:06:42] Is er wel een functionarische gegevensbescherming of iemand anders,

[0:06:45] die aangeeft er wordt gediscrimineerd en het is het probleem dat daar niet naar geluisterd wordt.

[0:06:49] En lijkt me dat daar de bottleneck zit.

[0:06:51] En dat we moeten oppassen om meer kaders en meer regeldruk in te voeren,

[0:06:56] daar waar eigenlijk een vereenvoudiging en goed toezicht het echte probleem zou moeten oplossen.

[0:07:04] En u heeft een interruptie van de heer Krul van het CDA.

[0:07:08] Ik dank de heer Siks-Dijkstra voor zijn betoog.

[0:07:10] Ik stel eerst een open vraag.

[0:07:12] Ik ben heel erg benieuwd hoe de heer Siks-Dijkstra dan kijkt naar dat begrip goed toezicht.

[0:07:17] Hoe zou de heer Siks-Dijkstra bijvoorbeeld fraudeopsporing wegen...

[0:07:21] en het belang van fraudeopsporing en de toezicht houdende functie die de overheid hoort te hebben?

[0:07:26] In het licht van ook deze uitspraak van Trof, waar ik zelf ook uitgebreid op terug ga komen.

[0:07:32] Omdat het ook gewoon kan betekenen dat beslisregels...

[0:07:34] die misschien helemaal niet zozeer algoritmisch zijn,

[0:07:39] dat we die straks ook niet meer kunnen gebruiken.

[0:07:41] En hoe weegt de rol van de overheid als het gaat om gewoon fraudeopsporing?

[0:07:47] Dank, voorzitter. Ik hoor twee vragen.

[0:07:49] Toezicht en fraudeopsporing zijn natuurlijk wel twee andere dingen.

[0:07:52] Als het gaat om toezicht, ik vind het goed dat de autoriteit persoonsgegevens

[0:07:56] tegenwoordig een afdeling heeft die specifiek ziet op toezicht op algoritmes.

[0:08:02] Tegelijkertijd, ja, fraudeopsporing zal in enige mate moeten plaatsvinden...

[0:08:07] en dat kan niet altijd handmatig.

[0:08:10] Dus ik denk niet dat we eraan ontkomen dat we in sommige gevallen algoritmes gaan inzetten.

[0:08:14] Waar het Hof over heeft geoordeeld, is dat zonder stevige wettelijke basis dat niet mag.

[0:08:20] Dus ik zou zeggen, laten we die wettelijke basis verstevigen.

[0:08:22] Laten we ervoor zorgen dat de algoritmes die wel ingezet worden...

[0:08:25] en die enige impact hebben op de rechtszekerheid of de rechtsbescherming van burgers...

[0:08:29] ...dat we daar met z'n allen de kaders voor afstellen en daar ook goed op kunnen controleren.

[0:08:34] Via een toezichthouder, via transparantie naar de burgers...

[0:08:36] ...en mijn vraag zou ook zijn, misschien ook met een rol voor de Kamer, via voorhang.

[0:08:44] Voorzitter, vervolgvraag.

[0:08:45] Dus als ik het goed begrijp, zegt de heer Siks-Dijkstra, bijvoorbeeld als het gaat om...

[0:08:51] ...geautomatiseerde besluitvorming als bijvoorbeeld fiscale gegevens...

[0:08:55] ...die eigenlijk gewoon nodig zijn om op een goede manier fraude te kunnen opsporen...

[0:08:59] En daarvan zegt de heer Sikstra, ja, dat is gewoon nodig.

[0:09:03] En daar is dan ook niet, zeg maar, datgene van zijn betoog waar het om gaat.

[0:09:07] Want dat is wel een grote zorg die ik heb.

[0:09:09] Als ik het juve arrest goed lees, dan lijkt het namelijk dat ook dat...

[0:09:13] binnen die geautomatiseerde besluitvorming valt.

[0:09:15] En dat lijkt mij een onwenselijke situatie.

[0:09:19] Ja, dank. Ja, hoe ik de uitspraak lees...

[0:09:22] maar dan ben ik ook wel benieuwd naar de duiding van de staatssecretarissen daar...

[0:09:25] is dat het voornamelijk ligt aan een gebrek aan additionele wetgeving...

[0:09:29] bovenop de AVG die dit zou moeten toestaan.

[0:09:32] Omdat die automatische besluitvorming aan zich in strijd is met de AVG.

[0:09:36] Ik denk niet dat we naar een situatie toe moeten...

[0:09:39] ...waarin elk geval handmatig getoetst moet worden.

[0:09:41] Ik denk dat we af en toe wel wat kritischer mogen zijn...

[0:09:43] ...waar zetten we algoritmes voor in, ja of nee?

[0:09:45] Maar dat kan ik in het geval van de Belastingdienst...

[0:09:47] ...nu niet op deze afstand een uitspraak over doen.

[0:09:51] Maar juist dat we goede wettelijke borging moeten hebben...

[0:09:53] ...voor datgene wat we wel doen.

[0:09:57] Interruptie van mevrouw Van der Werf.

[0:10:00] Ik hoorde dat collega Sik Strijkstraat had over de procedure bij algoritmes...

[0:10:05] bij de overheid via een voorrangprocedure.

[0:10:08] Ik snap die gedachtegang, maar er zitten ook risico's aan.

[0:10:11] Zeker als je bij toeslagen kijkt, waarbij ook vanuit de politiek de druk is opgevoerd.

[0:10:17] Zou je dat dan niet open source willen maken?

[0:10:20] Zodat meerdere experts mee kunnen kijken en je minder gevoelig bent...

[0:10:24] voor de politieke wind die er waait?

[0:10:28] Interessante vraag.

[0:10:30] Nou, ik denk...

[0:10:32] En als ik open source even interpreteer als...

[0:10:36] transparant vastleggen, dus algoritmeregister...

[0:10:38] ja, maar tegelijkertijd zou ik denken van...

[0:10:41] als er een nieuw algoritme in werking wordt getreden...

[0:10:44] wat grote impact heeft op burgers, omdat het persoonsgegevens verwerkt...

[0:10:47] omdat het enige profilering van burgers teweeg brengt...

[0:10:51] dat we daar ook een debat over moeten kunnen voeren.

[0:10:53] Ik zeg niet dat elke keer als er een nieuwe komt dat we dan gelijk een debat moeten aanvragen...

[0:10:56] maar in sommige gevallen zal het kunnen voorkomen...

[0:10:58] Dat we denken, dit is kritiek, dit is iets waarvan je in elk geval het debat zou willen voeren.

[0:11:05] En dat we dat dan samen doen.

[0:11:07] En bij voorhang is het ook niet zo dat je noodzakelijk over alles een debat voert.

[0:11:10] Maar wanneer je dat aanvraagt, dat dat er dan wel komt.

[0:11:16] Vervolgvraag van mevrouw Van der Werf.

[0:11:18] Nou voorzitter, ik wil eigenlijk mijn inbreng beginnen.

[0:11:21] Ik dacht u heeft een vervolgvraag, nou dan is het woord aan u mevrouw Van der Werf.

[0:11:24] Nou voorzitter, ik vond het een antwoord waar ik mee kon leven.

[0:11:28] Dus dan was ik de volgende in de rij.

[0:11:31] When you invent the ship, you also invent the shipwreck.

[0:11:36] Aldus de Franse filosoof Paul Virilio.

[0:11:39] En dat is een uitspraak waar ik aan moest denken als het gaat om generatieve AI.

[0:11:44] We hebben een schip uitgevonden waar we ontzettend veel nieuwe dingen mee kunnen.

[0:11:49] En dat biedt enorme mogelijkheden waar we de vruchten van moeten plukken.

[0:11:53] Maar het heeft ook slechte gevolgen en daar moeten we als politiek maatregelen voor treffen.

[0:11:57] Bijvoorbeeld in het verhogen van het bewustzijn van mensen over wat mag en wat niet mag met

[0:12:04] het gebruik van AI.

[0:12:05] Terwijl de een een leuk dansfilmpje maakt van een politicus via deepfake, proberen criminelen

[0:12:11] moedwillig mensen op te lichten en af te persen met andere deepfakes.

[0:12:16] En gelukkig is dat strafbaar.

[0:12:18] Net zoals niet iedereen misschien doorheeft dat Chad GPT artikelen met auteursrecht citeert.

[0:12:24] Er zijn natuurlijk regels verbonden aan het gebruik daarvan.

[0:12:28] Kan de staatssecretaris daarop reflecteren?

[0:12:31] Wat is er nodig dat particulieren deze kansen en gevaren goed gaan begrijpen?

[0:12:36] Want, voorzitter, dit wordt niet alleen maar gebruikt in het bedrijfsleven.

[0:12:39] Iedereen gaat hiermee aan de haal.

[0:12:42] Onze wetten en regels lopen online mateloos achter vergeleken met de fysieke wereld.

[0:12:48] Dat is ook al vaak voorgekomen bij debatten als het gaat om veiligheid.

[0:12:52] Daarom is het belangrijk om onze weerbaarheid te vergroten.

[0:12:56] Ik zag onlangs een onderzoek van Humo, waarin een journalist liet zien dat hij met een nieuw

[0:13:00] TikTok-account binnen vier likes een fuik werd ingetrokken van extreem gewelddadige

[0:13:06] inhoud.

[0:13:07] Een ander onderzoek laat weer zien dat juist eenzame jongens vrouwonvriendelijke Andrew

[0:13:12] Tate-achtige content krijgen voorgeschoteld.

[0:13:15] Ondanks dat de AI-Act in elk geval transparantie zal vereisen over dit soort algoritmes, is

[0:13:22] het vooral in ons belang dat we ons weerbaarder maken tegen de werking hiervan, zeker als

[0:13:29] het gaat om kwetsbare jongeren en kinderen.

[0:13:33] Wat is de volgende stap na die AI-Act?

[0:13:35] Hoe gaan we van transparantie naar ingrijpen tegen zaken als radicalisering en polarisering,

[0:13:42] vraag ik de staatssecretaris.

[0:13:43] En in hoeverre wordt er, bijvoorbeeld binnen de AI-Act, uitvoering gegeven aan de aangenomen

[0:13:49] motie van D66 en de VVD om ontwrichtende algoritme te verbieden?

[0:13:55] Voorzitter, dat vraagt ook om wat meer hygiëne bij onze eigen algoritmes.

[0:14:00] Er is een algoritmeregister wat inzichtelijk moet maken hoe de algoritmes van de overheid

[0:14:04] werken.

[0:14:05] Maar deze heeft geen verplichtend karakter en algoritme over bijvoorbeeld opsporing en

[0:14:10] criminaliteitsbestrijding zijn uitgesloten.

[0:14:13] Dat is niet onlogisch, maar er zit natuurlijk wel een spanning achter.

[0:14:18] Deze algoritmes zorgen bijvoorbeeld voor dat de flitspaal de foto van het kenteken koppelt.

[0:14:23] Dat zijn natuurlijk niet de meest risicovolle algoritme, maar juist die bijvoorbeeld over

[0:14:28] impactvolle beslissingen gaan, die zou je op een goede manier moeten en willen uitleggen.

[0:14:33] Kan de staatssecretaris hierop ingaan?

[0:14:37] Ten slotte, ik begon mijn verhaal met de kansen die AI ons te bieden heeft en daar zou ik

[0:14:42] ook mee willen eindigen.

[0:14:44] Want bijvoorbeeld het bedrijfsleven past AI al volop toe om het werk sneller, efficiënter

[0:14:49] en leuker te maken.

[0:14:51] Als AI onze saaie administratieve taken uit de handen kan nemen, houden we meer uren over

[0:14:57] voor het uitdagende werk.

[0:14:59] En toch blijft de inzet daarvan binnen overheden en zeker bijvoorbeeld gemeenten nog heel erg

[0:15:04] beperkt.

[0:15:05] En hoe mooi zou het zijn als een ambtenaar de tijd die hij of zij moet steken in het

[0:15:10] schrijven van standaardbrieven, kan steken in het helpen van een burger die klemmers komen te zitten

[0:15:15] en die de gemeente om hulp vraagt. Voorzitter, ik hoor graag een reactie van de staatssecretaris

[0:15:22] en ik ben benieuwd of zij met ons kan meedenken wat hier mogelijk is.

[0:15:29] Ik zie geen interrupties, dan is het woord aan de heer Valise van de PVV.

[0:15:34] Ja, voorzitter, dank voor het woord. Mijn inbreng is niet zo groot, dit maal slechts drie onderwerpen.

[0:15:40] implementatiekader van algoritme, de voortgang van het algoritmeregister en

[0:15:44] de opschaling van het algoritme, van de algoritme toezicht houden.

[0:15:47] Voor wat betreft het eerste onderwerp, het ICA, deze is ontwikkeld op verzoek van

[0:15:52] de Kamer met als doel om overheden te ondersteunen bij het verantwoorde

[0:15:55] inzet van algoritmes. En we lezen in de brieven dat het een

[0:15:57] levend document is dat verder doorontwikkeld zal worden.

[0:16:00] Het ICA is een lijn gebracht met belangrijke onderwerpen die al mede de

[0:16:03] basis hebben gevormd voor de AI-verordening, de AI-act, die er inmiddels ook door is.

[0:16:07] Vandaar de volgende vragen aan de staatssecretaris.

[0:16:10] In hoeverre is het ICA nu bekend?

[0:16:13] Weten de departementen ervan en hoe zijn de ervaringen in het veld?

[0:16:17] En ook wil de PVV graag weten, nu de AI-Act een feit is,

[0:16:20] gaat deze nog verder dan het ICA en op welke punten?

[0:16:23] Maar ook omgekeerd gaat de ICA ergens verder op in dan de AI-Act.

[0:16:29] Dan de voortgang van het algoritmeregister, voorzitter.

[0:16:32] De Kamer heeft gevraagd om de publicatie van algoritmes van de overheid

[0:16:36] te verplichten. De staatssecretaris schreef in de verzamelbrief

[0:16:39] algoritme reguleren en in de brief opschaling algoritme toezicht,

[0:16:43] dat ze er niet voor heeft gekozen om registratie te verplichten,

[0:16:47] omdat zij dit in samenhang wil bezien met de definitieve tekst van de AI-act.

[0:16:52] Voorzitter, de PVV wil duidelijk stellen dat wat in Europa speelt geen beweegreden

[0:16:56] is of kan zijn om geen gehoor te geven aan een oproep van de Kamer.

[0:16:59] Dat gezegd hebbende wil de PVV nu graag van de staatssecretaris vernemen

[0:17:03] hoe zij nu, nu de AI-verordening er is, gehoor zal geven aan deze oproep.

[0:17:09] We hebben inmiddels vernomen dat er op het ogenblik

[0:17:11] 340 algoritmes in het register staan,

[0:17:14] voornamelijk aangeleverd vanuit de gemeenten.

[0:17:17] En, voorzitter, via u, waarom kan dit register niet gewoon

[0:17:20] al chockvol zitten met gebruikte algoritmes?

[0:17:23] Is het omdat er te pas en te onpas gewerkt wordt in de selectie van data?

[0:17:26] Wordt er niet vooraf nagedacht bij de departementen

[0:17:29] over hoe algoritmes dienen te worden opgesteld?

[0:17:32] Want dat vind ik schokkend.

[0:17:33] Het is belangrijk om daar goed over na te denken.

[0:17:35] Immers, als je in een sequentiële opvolging twee filters verwisselt,

[0:17:40] kan dat een heel andere uitkomst bieden.

[0:17:43] Ofwel, als je bij een legobouwpakket van een brandweerkazerne

[0:17:45] op pagina 12 begint met de instructie,

[0:17:48] en dan op verschillende plekken in het boekje de instructies opvolgt,

[0:17:51] dan heb je uiteindelijk geen brandweerkazerne.

[0:17:55] Is er dan geen verslaglegging?

[0:17:57] Je verzint iets, je verantwoordt dat en krijgt een akkoord vanuit de hogere hiërarchie.

[0:18:02] En indien dat niet het geval is,

[0:18:03] Hoe is het dan mogelijk en wat gaat de staatssecretaris eraan doen om dit onder controle te krijgen?

[0:18:11] En tot slot, voorzitter, dan kom ik aan het laatste onderwerp, de opschaling van het algoritme

[0:18:15] toezicht houden.

[0:18:16] Autoriteit persoonsgegevens heeft de directie coördinatie algoritmes in het leven geroepen

[0:18:21] voor het toezicht houden.

[0:18:23] In het kader daarvan, of van de aanscherping, moet zij nu tweemaal per jaar een risicoanalyse

[0:18:27] algoritmes Nederland uitvoeren en een kaart brengen welke publieke loketten er zijn om

[0:18:31] algoritme gerelateerde problematiek te melden en in hoeveel burgers deze loketten weten

[0:18:36] te vinden.

[0:18:37] Er staat niet bij of dit tot extra regeldruk leidt, maar de PVV zou graag van de staatssecretaris

[0:18:41] voornemen of de capaciteit er wel is om deze doelen te realiseren en wat de impact gaat

[0:18:45] zijn van de Europese wet en regelgevingen, zoals de AI-verordening, de dataverordening

[0:18:49] en de digitale dienstenverordening, op de beschikbare capaciteit.

[0:18:54] En ik las reeds over de toename van de financiële middelen over de komende jaren, een verdubbeling

[0:18:58] in 2024 ten opzichte van 2023 en 3,6 miljoen in de opvolgende jaren, maar ik bedoel dus

[0:19:05] qua personeel en in relatie tot wat er nog aankomt.

[0:19:08] Dus niet in de financiële middelen, want die zijn toereikend, neem ik aan.

[0:19:11] En voorzitter, daarmee ben ik aan het einde van mijn betoog gekomen.

[0:19:15] Dank u.

[0:19:17] U heeft een interruptie van de heer Van Baarle en daarna een van mevrouw Van der Werff.

[0:19:22] Ja, voorzitter.

[0:19:24] We hebben al heel erg lang een discussie in

[0:19:26] dit huis over de toepassing van van algoritme uiteraard en ook over

[0:19:32] in hoeverre de overheid maatregelen zou moeten nemen om ervoor te zorgen dat die

[0:19:36] algoritme geen discriminerende werking hebben. Er zijn vele voorstellen gedaan in de Kamer

[0:19:40] om waarborgen in te bouwen, om algoritme niet een discriminerende werking te laten hebben.

[0:19:46] En die heeft de PVV altijd, laat ik zeggen, in de meeste gevallen niet gesteund. Vaak met

[0:19:53] een argumentatie dat de PVV eigenlijk principeel niet zoveel moeite heeft met het gebruiken

[0:19:58] van nationaliteit en etniciteit als risicoclassificatie. En de PVV vond dat eigenlijk

[0:20:05] best een goed, goede indicator om fraude te achterhalen en mensen te profileren.

[0:20:13] Ik vraag me af wat de positie van de PVV nu is.

[0:20:20] Ja, voorzitter, dank voor het woord.

[0:20:22] Ik vind dat dat aan de departementen thuishoort waar die algoritme bepaald worden.

[0:20:26] Dus dat zijn de verschillende commissies, zoals ze er zijn,

[0:20:30] wordt dan beoordeeld of iets is toegestaan of niet is toegestaan,

[0:20:32] of het verantwoord is of niet verantwoord.

[0:20:35] Dus dat moet per onderdeel bekeken worden.

[0:20:38] Het doel, hij ligt inmiddels.

[0:20:41] Een vervolgvraag van de heer Van Baarle.

[0:20:44] Ja, voorzitter.

[0:20:46] Per geval bekijken per ministerie, maar ik vraag de PVV daar een visie op te geven.

[0:20:52] Het gebruik van nationaliteit, afkomstgerelateerde gegevens.

[0:20:55] We hebben daar verschrikkelijke dingen over meegemaakt.

[0:20:58] Bij DUO.

[0:20:59] Toeslagen misdaad was er een voorbeeld van.

[0:21:02] En als Kamer willen we daarvoor kader stellen.

[0:21:05] U zegt het doel, hij ligt inmiddels.

[0:21:06] betekent dat dat de PVV dus vindt dat je nationaliteit, etniciteit als indicatoren in zou mogen zetten

[0:21:14] als dat in de optiek van de PVV een effectief instrument zou moeten zijn

[0:21:19] terwijl we hier als Kamer meerdere malen hebben uitgesproken met elkaar

[0:21:22] dat het gewoon onwenselijke indicatoren zijn omdat het mensen wegzet op basis van afkomst, huidskleur

[0:21:29] en dat soort verwerkelijke zaken.

[0:21:35] Wanneer je alles gaat verbieden, kun je geen trends onderzoeken en dan kun je ook helemaal

[0:21:38] niets analyseren.

[0:21:40] Dus ik zie er geen probleem in om per departement te bekijken welke algoritmes zijn toegestaan

[0:21:47] en waarom ze moeten worden toegestaan, als er maar een maatschappelijke verantwoording

[0:21:50] wordt afgelegd waarom een bepaald onderzoek wordt ingezet.

[0:21:57] Ik was benieuwd hoe de PVV zelf staat tegenover het wel of niet verbieden van de algoritmes

[0:22:03] in het verplichten van algoritmes in het register?

[0:22:11] Het verplichten van algoritmes in het register is een goede zaak.

[0:22:14] Je moet inzichtelijkheid bieden als overheid.

[0:22:17] De vervolgvraag van mevrouw Van der Werf.

[0:22:19] Voorzitter, ik vraag het omdat de overheid is natuurlijk heel breed.

[0:22:23] Geldt dat dan ook voor hele kleine gemeenten die maar een beperkte capaciteit hebben?

[0:22:30] Een algoritme vergt niet zo heel erg veel capaciteit om deze uit te schrijven en het register toe te voegen.

[0:22:35] Dus ik snap niet waarom een kleine gemeente zou worden uitgesloten

[0:22:39] van het deponeren van de algoritme in het register.

[0:22:46] Dan is het woord aan de heer Krul van het CDA voor zijn inbreng.

[0:22:49] Voorzitter, ja, dank u wel. Wat dit soort debatten altijd kenmerkt,

[0:22:52] is dat je moet kiezen uit heel erg veel interessante onderwerpen

[0:22:54] in een hele korte tijd.

[0:22:56] En ik heb gekozen voor één onderwerp, waarmee ik niet zeg dat mijn

[0:22:59] inbreng minder groot is dan dat van de heer Verliezen.

[0:23:02] Maar het is wel hetzelfde onderwerp als waar de heer

[0:23:03] Stijkstra ook over gesproken heeft, het Shufa-arrest.

[0:23:07] Dat arrest ging over het Duitse kredietbureau Shufa...

[0:23:10] dat informatie verstrekt over personen aan kredietverleners.

[0:23:13] En deze informatie werd vervolgens gebruikt door die kredietverleners...

[0:23:16] om te bepalen of een lening wel of niet verstrekt werd.

[0:23:19] En het Hof heeft geoordeeld dat het toekennen van automatisch berekende kredietscores...

[0:23:24] niet in overeenstemming is met de AVG.

[0:23:26] En dit betekent een ruime uitleg van het begrip geautomatiseerde besluitvorming.

[0:23:31] waardoor strengere AVG-regels van toepassing zijn.

[0:23:35] Volgens de AVG mag je namelijk niet profileren op basis van geautomatiseerde besluitvorming.

[0:23:40] Deze uitspraak heeft potentieel grote gevolgen voor bijvoorbeeld de handhaving van de overheid

[0:23:46] bij belastingfraude en witwasonderzoek.

[0:23:48] Want ook de landsadvocaat heeft in een recent advies deze brede uitleg van de rechter bevestigd.

[0:23:53] Om een voorbeeld te geven, bij de Belastingdienst worden op basis van signalen automatisch belastingaangiftes

[0:23:59] uit de bak getrokken.

[0:24:00] Als iemand hele hoge aftrekposten heeft, maar een laag inkomen, dan zegt de computer

[0:24:05] ping.

[0:24:06] Dat is een algoritme, maar eigenlijk gewoon een beslisregel.

[0:24:10] En als straks zelfs deze ping van de computer in strijd is met de AVG zonder tussenkomst

[0:24:15] van menselijk handelen, dan zien wij grote problemen.

[0:24:19] Voorzitter, hier heb ik een rits concrete vragen over aan de staatssecretaris.

[0:24:24] Hoe beoordeelt de staatssecretaris de ruime interpretatie van het begrip geautomatiseerde

[0:24:29] besluitvorming door de rechter en het advies van de landsadvocaat.

[0:24:32] In hoeverre is deze uitspraak over een private kredietverlener

[0:24:35] één op één van toepassing op de overheid?

[0:24:38] Gelden er wel of geen andere regels voor organisaties met een wettelijk verankerde taak?

[0:24:42] Is er een verschil als het toezicht alleen plaatsvindt op basis van indicatoren die geen

[0:24:46] persoonsgegevens zijn, zoals fiscale indicatoren?

[0:24:50] Wat zijn de gevolgen van deze uitspraak voor het fraudebeleid van de overheid,

[0:24:53] bijvoorbeeld van de Belastingdienst?

[0:24:54] En mag de Belastingdienst nog op basis van geautomatiseerde signalen onderzoek doen?

[0:24:59] En wat zou het betekenen in de praktijk als dit niet meer mag?

[0:25:03] Kan dan nog alleen handmatig toezicht plaatsvinden en hoe ziet de staatssecretaris dat dan voor

[0:25:08] zich als het gaat om miljoenen belastingaangiftes en de nu al nijpende situatie als het gaat

[0:25:13] om de personele bezetting van de Belastingdienst?

[0:25:16] En welke gevolgen heeft deze uitspraak voor het witwastoezicht, waarin banken ook op basis

[0:25:20] van geautomatiseerde signalen onderzoek doen?

[0:25:23] En tot slot, voorzitter, kan de staatssecretaris toezeggen dat deze uitspraak er niet toe leidt

[0:25:28] dat het complete toezicht en handhavingsbeleid van bijvoorbeeld de Belastingdienst, maar ook

[0:25:32] andere uitvoeringsorganisaties stil komt te liggen.

[0:25:35] Zien we inderdaad het scheepswrak waar net al aan gerefereerd is, zien we dat dan aankomen.

[0:25:42] Voorzitter, kortom, we hebben grote zorgen over de uitspraak van de rechter en ook over

[0:25:46] het advies van de landsadvocaat.

[0:25:48] En wij maken ons zorgen dat deze strenge uitleg van de AVG ervoor gaat zorgen dat fraudeopspraak

[0:25:53] sporing stil komt te liggen. Voorzitter, omdat ik dan toch nog een ander onderwerp wil aansnijden,

[0:25:58] anders is het wel heel eenzijdig, wil ik ook nog een vraag stellen over...

[0:26:02] Voordat u dat doet, u heeft een interruptie van de heer Sik-Steinsta.

[0:26:06] Dank u wel, voorzitter. En dit raakt ook even aan het korte debat dat de heer Krul en ik net

[0:26:11] hadden. Ik ben eigenlijk benieuwd naar zijn visie, want in het verleden is door middel van

[0:26:17] fraudebestrijding, door middel van algoritmes, is er veel fout gedaan, gegaan, zijn schandalen

[0:26:22] Ziet de heer Krul ook niet met deze uitspraak een kans dat we echt kunnen zorgen voor een

[0:26:26] goede wettelijke versteviging van de manier waarop we fraude aanpakken, op een manier

[0:26:29] dat er wel oog is voor mens en recht?

[0:26:33] Ja, dit is een hele terechte vraag en ja, die kansen zien wij.

[0:26:37] Die zien wij zeker, met name als het gaat ook om de verwerking van persoonsgegevens.

[0:26:42] Want daar zitten hele hoge risico's dat mensen inderdaad vermorzeld worden.

[0:26:47] Maar wij zien ook het risico dat we nu in een reflex simpele beslisregels...

[0:26:53] die al heel lang van toepassing zijn, die technisch gezien algoritmes zijn...

[0:26:56] maar eigenlijk de meest simpele functionaliteit hebben...

[0:27:00] dat die op deze manier ook in het verbod terechtkomen, als het ware.

[0:27:07] Waardoor je ook aan de andere kant de taak die je gewoon als overheid hebt...

[0:27:11] namelijk handhaven en voorkomen dat er veel fraude plaatsvindt...

[0:27:18] Dus het is een ontzettend precaire balans die we moeten zoeken en waar het CDA echt een

[0:27:23] onderscheid tussen maakt, is het gebruik van persoonsgegevens zonder tussenkomst van menselijk

[0:27:27] handelen.

[0:27:28] Daar zitten veel te veel risico's in, maar geautomatiseerde besluitvorming op basis van

[0:27:34] fiscale gegevens, de PING als het ware, zonder dat vrezen wij dat het al heel ingewikkeld

[0:27:40] wordt voor de overheid om op de hand te kunnen haven.

[0:27:44] Dan kunt u verder gaan met uw inbreng, meneer Krul.

[0:27:48] Voorzitter, en ik had nog één vraag over toezicht.

[0:27:52] Binnen het samenwerkingsplatform Digitale Toezichthouders, het SDT, zijn vier toezichthouders actief,

[0:27:57] namelijk de ACM, de AVM, de AP en de CVDM.

[0:28:01] En het kabinet overlegt verder met zeven toezichthouders.

[0:28:04] Daar zitten dus nog DNB, CRM en de RDI bij.

[0:28:07] En er is ook nog een werkgroep AI onder de vlag van de inspectieraad,

[0:28:10] waarin meer dan twintig Rijksinspecties, colleges en markttoezichthouders zitting hebben.

[0:28:15] Voorzitter, toen ik dit las dacht ik oei, dit is wel heel versnipperd en gefragmenteerd.

[0:28:20] En zien we dan als het om toezicht gaat door de bomen het bossen nog wel.

[0:28:25] En de toezichthouders zelf geven ook aan dat het heel erg versnipperd en gefragmenteerd is.

[0:28:29] En ik vraag aan de staatssecretaris of zij plannen heeft hoe we dit kunnen versimpelen.

[0:28:33] Dank u wel.

[0:28:35] Dank u wel. Dan is het woord aan de heer Van Baarle van Denk.

[0:28:39] Ja, voorzitter, dank u wel.

[0:28:40] En ik val vandaag in voor mijn collega Ergin, want mijn fractie heeft mij het woord ontnomen op het onderwerp digitale zaken.

[0:28:49] Maar ik heb met veel plezier dat in de afgelopen jaren gedaan, dus ik val vandaag in.

[0:28:53] En voorzitter, die discussie wordt al lang gevoerd over de risico's van de toepassing van algoritme.

[0:28:58] En we hebben inderdaad de misstanden gezien, waar collega Siks-Dijkstra op wees.

[0:29:03] en de discussie die ik altijd met deze staatssecretaris heb gehad is

[0:29:07] ga nou aan de slag met zo'n bindend kader en de staatssecretaris wilde in eerste

[0:29:12] instantie alleen een handreiking samenstellen, de handreiking

[0:29:15] non-discriminatie bij de zijn, wachten op EU regelgeving en die is er nu.

[0:29:23] Voorzitter, als het gaat om die handreiking non-discriminatie bij de zijn

[0:29:27] wel al gelijk een eerste vraag. Ik had in een motie gevraagd dat te delen met

[0:29:31] private partijen ook en om te onderzoeken in hoeverre private partijen ook met die

[0:29:35] handreiking bekend zijn. Wordt dat blijvend gedaan en kan de

[0:29:39] staatssecretaris nou al iets zeggen over of ook in de private sector dat

[0:29:43] toegepast wordt op een manier zoals we dat wensen.

[0:29:47] Dat algoritme kader, waarin gaan we dus de regels in de AI-verordening gaan we

[0:29:52] vastleggen. Wat mij nou niet helder is over dat

[0:29:55] algoritme kader, ik maak dat zelf niet op uit de laatste brief die gestuurd is, is

[0:30:00] dat algoritme kader, is dat nou een soort overzicht, eigenlijk weer een nieuwe

[0:30:03] handreiking, of is het ook bindend? Moet dit verplicht toegepast worden?

[0:30:09] Geldt dat algoritme kader nou alleen voor de overheid, of geldt dat ook voor

[0:30:14] bedrijven? Want de voorbeelden die we zien, bijvoorbeeld de toepassing van

[0:30:17] algoritme in het anti-witwastoezicht, laat zien dat ook private toepassing van

[0:30:22] algoritme enorme impact heeft op bijvoorbeeld of mensen wel toegang hebben

[0:30:26] tot geldelijk verkeer. Een basisrecht.

[0:30:30] De fractie van Denk heeft een motie ingediend, en die is ook aangenomen,

[0:30:34] om voorschriften ten aanzien van non-discriminatie van algoritme in de wet te zetten.

[0:30:38] En als die motie vervolgens wordt uitgevoerd door een niet-bindend kader,

[0:30:42] dan ben ik niet tevreden met de afdoening.

[0:30:45] En voorzitter, hebben we eigenlijk de ruimte als land om dat algoritmekader

[0:30:49] om dat op een scherpere manier in te zetten dan de bepalingen in de AI-verordening.

[0:30:57] Want waar ik me zorgen om maak in de AI-verordening staat bijvoorbeeld de omschrijving van een

[0:31:02] hoog risico algoritme.

[0:31:04] Ik vraag de staatssecretaris eigenlijk, wat is een hoog risico algoritme en een impactful

[0:31:09] algoritme?

[0:31:10] Hoe zorgen we ervoor dat we dat op een manier toepassen dat we ook voldoende waarborgen treffen?

[0:31:16] En tot slot op dit onderwerp de handhaving.

[0:31:20] Wie wordt nou eigenlijk primair verantwoordelijk voor de handhaving, als dat algoritme kaderbindend is?

[0:31:27] Is dat inderdaad de AP, die de waakhond is?

[0:31:30] En is die voldoende toegerust om dat straks ook daadwerkelijk te gaan handhaven?

[0:31:36] Voorzitter, dan het algoritmeregister.

[0:31:38] Lange discussie over of het verplicht wordt.

[0:31:40] Ik kan niet opmaken uit de brief of dat nou daadwerkelijk gaat gebeuren of niet,

[0:31:44] want er zijn moties over aangenomen.

[0:31:46] Het geldt alleen voor publieke instellingen, de overheid,

[0:31:50] maar moeten we dat niet ook gewoon voor private bedrijven gaan doen?

[0:31:52] Impactvolle besluiten, die gaan over de levens van mensen, worden ook privaat genomen.

[0:31:57] En hoe gaan we nou om met de uitzonderingsgronden?

[0:32:00] Want de overheid heeft er nogal een handje van om niet transparant te zijn soms,

[0:32:04] op basis van het belang van de staat of handhaving, komt daar snel een kader voor.

[0:32:09] De bevamde motie nummer 21, de doorlichting van de algoritme.

[0:32:13] We doen daar een externe toets over.

[0:32:16] Loopt die externe toets op schema, dus krijgen we die voor de zomer, en kan de staatssecretaris

[0:32:20] aangeven of we op basis van die doorlichting ook een structureel instrument gaan maken

[0:32:25] om periodiek die algoritme te gaan doorlichten.

[0:32:29] Dan nog twee korte punten.

[0:32:31] We hebben een motie ingediend die is aangenomen om burgers altijd in te lichten als overheidsbesluiten

[0:32:36] genomen zijn op basis van een algoritme of risicoprofilering.

[0:32:39] Ik vraag aan de staatssecretaris, wordt dit nou gewoon vastgelegd in de Algemene Wet Bestuursrecht?

[0:32:44] En tot slot, voorzitter, een motie van mij is aangenomen over een protocol bij geconstateerde discriminatie door algoritme.

[0:32:52] Wanneer kunnen wij dat protocol tegemoet zien?

[0:32:54] Want ik zou daar graag met de staatssecretaris over debatteren voordat dat in dat kader komt.

[0:32:59] Dank u wel, voorzitter.

[0:33:01] U heeft een interruptie van de heer Krul van het CDA.

[0:33:03] Als ik de togen van de heer Van Balen zo hoor krijg ik de indruk dat ik de moties indienen bij dit commissie

[0:33:09] die niet zoveel nut heeft. Ik hoop dat het anders werkt.

[0:33:12] Nee, ik ben wel benieuwd of de heer Van Balen ook een onderscheid maakt tussen enerzijds die persoonsgegevens

[0:33:18] en anderzijds bijvoorbeeld fiscale indicatoren.

[0:33:21] Is de heer Van Balen van mening dat op het moment dat jouw belastingaangifte ergens opgepopt is

[0:33:25] op basis van fiscale indicatoren dat dan nog steeds dat menselijk handelen moet plaatsvinden

[0:33:31] zodat burgers daarover geïnformeerd worden?

[0:33:32] En ziet de heer Van Baarle dan ook niet de situatie dat dat praktisch onuitvoerbaar wordt?

[0:33:40] De vraag is volgens mij of we zouden moeten kunnen blijven werken met een systeem van handhaving

[0:33:49] mits dat gebaseerd is op objectieve criteria en non-discrimineire criteria

[0:33:55] en als het impactvolle besluiten zijn dat er altijd menselijk handelen tussen zit.

[0:34:00] Dat is eigenlijk de vraag.

[0:34:00] En dat is precies eigenlijk de inbreng geweest die de fractie van Denk altijd heeft gehad.

[0:34:05] Namelijk, je moet niet per definitie uitsluiten dat je een geautomatiseerd systeem gebruikt.

[0:34:10] Want dan kunnen we als overheid niet meer functioneren.

[0:34:12] Alleen we moeten ervoor zorgen dat dat niet discrimineert.

[0:34:15] En als het impact heeft op mensen, dat er altijd een menselijke check tussen zit.

[0:34:21] Het woord is aan de heer Meulenkamp.

[0:34:23] Ja, dank u wel, voorzitter.

[0:34:25] De verschillende overheden in Nederland nemen jaarlijks vele miljoenen beslissingen.

[0:34:29] In toenemende mate worden die beslissingen gebruikt gemaakt van algoritmes.

[0:34:32] Ja, platgezegd wordt er data ingevoerd en rolt er aan de achterkant een beslissing uit.

[0:34:37] Er zitten hier kansen aan, maar ook risico's aan het gebruik van algoritmes.

[0:34:41] Zeker met de huidige zeer krappe arbeidsmarkt kan de overheid niet meer zonder het gebruik

[0:34:45] van algoritmes.

[0:34:47] Er kunnen gewoon snel heel veel beslissingen genomen worden.

[0:34:51] Hierdoor blijft de overheid effectief voor haar inwoners.

[0:34:54] Zeker op het gebied van defensie en criminaliteitsbestrijding hebben we gewoon ook algoritmes nodig.

[0:34:59] Echter, er zijn wel zorgen over de inzet van deze algoritmes.

[0:35:02] Mensen willen graag als mens gezien worden en niet als een set van data.

[0:35:07] De affaires die er geweest zijn, zijn net al genoemd.

[0:35:10] Als VVD willen we graag inzetten op een goed functionerende overheid...

[0:35:13] met het oog voor de individuele mens.

[0:35:17] Algoritmes worden wat ons betreft nog te vaak gezien...

[0:35:19] als een technische oplossing voor een technisch probleem.

[0:35:22] Terwijl in onze ogen, of het nu om een ambtenaar gaat...

[0:35:25] of het inzetten van een algoritme...

[0:35:27] de mens altijd centraal moet staan die zich meldt bij die overheid.

[0:35:30] Zeker in een tijd waar het vertrouwen in de overheid historisch laag is,

[0:35:35] is dit een belangrijk onderwerp voor de komende jaren.

[0:35:37] Het geldt niet alleen voor de Rijksoverheid, maar ook voor alle andere overheden.

[0:35:40] We willen dat mensen zich gehoord voelen en daardoor meer vertrouwen krijgen in de overheid.

[0:35:45] Dit vraagt in onze ogen een totale andere manier van werken.

[0:35:48] Weer meer luisteren en praten met de inwoners is daarbij cruciaal.

[0:35:52] Een vraag aan de staatssecretaris, hoe denkt het kabinet dit te bewerkstelligen?

[0:35:57] er werd net ook al even aan gerefereerd door mijn collega van D66,

[0:36:01] kunnen we juist door het inzetten van algoritmes,

[0:36:04] weer meer tijd vrijmaken voor die gesprekken met onze inwoners.

[0:36:07] En dat we daar op actief gaan sturen als overheid.

[0:36:10] En voor ons zou dat echt cruciaal zijn.

[0:36:14] We leven in een tijdperk wat voor prachtige kansen zorgt.

[0:36:18] Zoals we echter, zoals we afgelopen weekend ook weer hebben gezien,

[0:36:21] leven we ook in een uiterst instabiele geopolitieke tijd.

[0:36:27] Het zorgt voor allerlei gevaren.

[0:36:30] Mijn eigen gemeente is al een aantal jaren geleden ook gehackt door een buitenlandse partij.

[0:36:35] En ik heb van dichtbij mogen zien hoeveel paniek dat op de werkvloer zorgt in een gemeente.

[0:36:41] Dat je niet meer weet van hoe kunnen wij onze inwoners nog een uitkering verstrekken.

[0:36:45] En dat mensen gewoon bellen, wij kunnen geen eten kopen.

[0:36:48] En dat je niet weet hoe je daar als lokale overheid mee om moet gaan.

[0:36:54] Daarom heeft de VVD in het verleden ook aangegeven dat de analoge terugvalopties belangrijk zijn.

[0:36:59] In het kader van die terugvalopties diende de VVD ook eerder een motie over die analoge terugvalopties.

[0:37:05] En dat die mee worden genomen in de weerbaarheidsanalyse.

[0:37:08] De VVD is blij dat die motie wordt uitgevoerd en dat er voor eind 2024 nog een update komt van die aanpak.

[0:37:15] Neemt de staatssecretaris ook gemeenten en andere mede-overheden hierin mee?

[0:37:19] In mijn ogen en in de ogen van de VVD is dat echt cruciaal.

[0:37:25] Zeker, nou ja, de inveraring die ik heb gehad als een gemeente gehackt wordt,

[0:37:29] neem alsjeblieft andere gemeenten en provincies mee in die terugvalopties.

[0:37:34] Dus ik, ja, graag uw mening daarover en hoe u dit gaat doen.

[0:37:39] Dan vraag ik aan de heer Sjiks-Dijkscha van NEC om even de voorzittershammer over te nemen

[0:37:45] en om mij het woord te geven.

[0:37:48] Dank u wel. Het woord is aan mevrouw Katman namens de fractie van GroenLinks B.V.A.

[0:37:54] Dank u wel, voorzitter. Het gebruiken van technologie is nooit een doel op zich.

[0:37:59] Net als dat het hebben van een volle boekenkast niks zegt over hoe slim je bent,

[0:38:03] is AI-powered innovatie ook zo'n modewoord wat niks zegt over maatschappelijke waarden.

[0:38:07] Toch sluipten algoritmes en AI overal naar binnen. Soms doen ze goed, soms doen ze kwaad.

[0:38:13] En dan schreeuwt alles in mij toch dat we zorgvuldig moeten zijn.

[0:38:15] We moeten echt af van de technocratische reflex om heilig te vertrouwen in wat een app of algoritme

[0:38:20] ons zegt en het stuur in eigen handen nemen.

[0:38:22] Te vaak laten we vraagstukken over digitalisering aan ons voorbij gaan.

[0:38:26] Het is dus echt tijd om duidelijk te zijn hoe Nederland zich gaat verhouden tot technologie.

[0:38:31] We hebben nu hele mooie kabinetsvisies liggen, zoals die over generatieve AI en de veel geprezen

[0:38:36] werkagenda.

[0:38:37] Maar tegelijkertijd gebruiken gemeenten nog altijd ondergrondelijke algoritme in de fraudeopsporing.

[0:38:42] Experimenteren tabakswinkels nu tegen de wet in met leeftijdsverificatie door gezichtsscans.

[0:38:47] Huisartsen doen triages met AI.

[0:38:49] De systemen in het onderwijs bepalen het leesniveau van mijn kinderen.

[0:38:52] En surveillance op de werkvloer neemt toe.

[0:38:54] Meestal op plekken waar werknemers al een zwakke positie hebben.

[0:38:57] We moeten van visie naar actie.

[0:38:59] En de autoriteit, persoonsgegevens en de WRR strijden allang voor een nationaal deltaplan

[0:39:03] over hoe wij omgaan met algoritme en AI bij overheden, de publieke sector en de private sector.

[0:39:09] Wanneer komt hij er en als hij er niet komt, waarom komt hij er niet?

[0:39:13] Ons kritiek op algoritme- en AI-gebruik eindigt vaak bij de overheid.

[0:39:17] Toch zijn er heel veel commerciële partijen...

[0:39:20] zeker in de publieke sectoren waar je afhankelijk van kunt zijn...

[0:39:23] zoals de schuldenindustrie, zorgverzekeraars en in het onderwijs.

[0:39:26] Daar zien we allerlei gadgets, pilots en experimentjes...

[0:39:29] die voordat je het weet gewoon terecht zijn geworden.

[0:39:32] Ik vind dat je algoritme en AI daar even scherp mag reguleren als bij de overheid.

[0:39:35] Vindt het kabinet dat algoritmegebruik en AI-toepassingen in die private sector goed genoeg in beeld zijn?

[0:39:41] Hoe monitoren we dit beter?

[0:39:44] Hebben we alle verschillende soorten algoritme- en AI-modellen nu goed gedefinieerd?

[0:39:48] Vallen er geen blinde vlekken in definities uit Europese verordeningen en Nederlandse wetgeving?

[0:39:52] Waar staan deze begrippen vastgelegd?

[0:39:54] Ik wil dat de rolverdeling tussen toezichthouders concreet wordt.

[0:39:58] Het is moeilijk om die afspraken aan die waakhonden over te laten.

[0:40:01] Kan de staatssecretaris echt op papier zetten wie eigenlijk wat doet?

[0:40:05] Want dan kan ook de Tweede Kamer met meer inzicht daarop sturen.

[0:40:12] De reflex om over te stappen naar algoritme en AI is goed te begrijpen.

[0:40:15] We komen handjes tekort en schakelen digitale handjes in.

[0:40:18] Toch zie ik daarbij risico's.

[0:40:20] Werknemers verliezen grip op hun werk en daarmee worden mensen ontschold.

[0:40:23] Er is steeds minder kennis van de systemen waarmee we werken.

[0:40:27] Wie is er verantwoordelijk als een algoritme of AI-toepassing foutief te werk gaat?

[0:40:30] Ook als deze is geïmplementeerd met positief advies van bijvoorbeeld een ondernemingsraad.

[0:40:35] Wat kan de overheid doen om het terugdraaien van zo'n implementatie makkelijker te maken?

[0:40:40] Sommige bedrijven moeten een functionaris gegevensbescherming aanstellen.

[0:40:43] Dat is natuurlijk een topidee, want zo maak je iemand verantwoordelijk om op te komen

[0:40:46] voor de privacyrechten van werknemers.

[0:40:49] Kan het kabinet in aanloop naar de actualisatie van de UAVG verkennen of de verplichting van

[0:40:53] een functionaris gegevensbescherming uitgebreid kan worden, bijvoorbeeld naar sectoren waar

[0:40:57] een hoog risico is op surveillance of veel bijzondere persoonsgevens worden verwerkt.

[0:41:02] En dan, tot slot, dingen die je niet ziet, daar kun je moeilijk over oordelen.

[0:41:06] Brieven en beleid kan je fileren, maar een algoritme is voor zowel burgers als politici

[0:41:11] ondergrondelijk.

[0:41:12] En daar moeten we iets aan doen.

[0:41:13] De heer Van Baarle had het hier ook al over.

[0:41:15] Kunnen we ervoor zorgen dat bij elke brief die op de deurmat belandt, bij iemand die door

[0:41:19] een algoritme is geselecteerd als risicogeval, een extra paragraaf wordt toegevoegd met de

[0:41:24] kenmerken op basis waarvan, zoals de heer Krul het zei, de ping is afgegaan en dus dat het inzichtelijk

[0:41:33] is op welke kenmerken diegene geselecteerd is.

[0:41:37] Is dat niet een broodnodig stukje uitleg die mensen in zich heeft over de keuzes die over

[0:41:41] hun hoofd worden gemaakt?

[0:41:43] Dataethiek is altijd politiek.

[0:41:45] Daarom ben ik ook heel blij met dit debat.

[0:41:47] Dit hoort thuis in het hart van onze politieke besluitvorming.

[0:41:50] Dit gesprek is daarom zeker ook niet voorbij.

[0:41:52] En ik kijk uit naar een politiek waarin we aan het stuur zitten bij digitalisering.

[0:41:56] In plaats van dat algoritme dat doet.

[0:42:01] Dank u wel. Ik zie geen interrupties.

[0:42:03] Dus bij deze geef ik de voorzittershammer weer terug aan u.

[0:42:08] Dank u wel. Dan kijk ik even naar rechts, naar de staatssecretarissen.

[0:42:14] Die hebben twintig minuten nodig. Dan kijk ik heel even naar links.

[0:42:18] Is er twintig minuten akkoord of zijn er mensen die zeggen...

[0:42:20] ik heb zelf bijvoorbeeld iets meer tijd nodig voor de lunch.

[0:42:24] Of houden we het bij twintig minuten?

[0:42:28] Precies, ja.

[0:42:29] Anders wordt het misschien weer laat, maar daar is geen behoefe aan.

[0:42:32] Dus twintig minuten.

[0:42:33] Dan schorsen we voor twintig minuten.

[1:04:29] We gaan starten met de beantwoording van de staatssecretarissen.

[1:04:34] Ik denk dat we starten met de staatssecretaris Van Heuvelen.

[1:04:38] Dat klopt, voorzitter.

[1:04:41] Ik zal ingaan op de vragen die gesteld zijn aan mij.

[1:04:45] De staatssecretaris naast mij, de heer Van Rijn, gaat vooral in op het thema

[1:04:52] rondom het SUFAA-arrest.

[1:04:54] Mijn idee zou zijn om eerst te beginnen met een korte inleiding en dan de vragen te beantwoorden.

[1:05:02] Voorzitter. Het is ontzettend belangrijk, zoals ook de leden van uw commissie hebben aangegeven,

[1:05:07] om over dit onderwerp algoritmes en dataethiek met elkaar van gedachten te wisselen.

[1:05:11] Want de inzet van algoritmes en ook AI is steeds vaker een onderwerp van gesprek.

[1:05:17] Het leeft in onze samenleving en zeker ook door de recente technologische ontwikkelingen en wat er

[1:05:23] is fout gegaan in het verleden, is het een onderwerp dat ons bezighoudt.

[1:05:27] En dat is ook heel hard nodig.

[1:05:30] Wat fijn is, is dat we inmiddels op Europees niveau een AI-verordening tot stand hebben gebracht om

[1:05:36] technologie te reguleren.

[1:05:37] We zijn natuurlijk ook heel hard aan het werk om allerlei handreikingen te ontwikkelen en te zorgen

[1:05:43] dat we verantwoord omgaan bij de overheid met AI en algoritmes.

[1:05:48] In de afgelopen tijd hebben we ons ingezet om te zorgen dat het gebruik van algoritmes door

[1:05:53] overheden gereguleerd wordt via het algoritmeregister, een algoritmetoezichthouder en het

[1:06:01] implementatiekader voor algoritmes, om te zorgen dat we daarmee ook daadwerkelijk kunnen zorgen

[1:06:08] dat de toepassing van AI in al zijn ook goede kanten op een verantwoorde manier kan plaatsvinden.

[1:06:17] Ik wilde graag in deze introductie iets meer zeggen over een viertal onderwerpen.

[1:06:25] Als eerste iets meer over die AI-verordening, de Europese wet, het algoritmeregister dat

[1:06:32] we voor de overheid hebben, de toezichthouder en het algoritmekader.

[1:06:37] Ik zal daarbij, als dat enigszins kan, ook ingaan op de gestelde vragen.

[1:06:41] In die AI-verordening, die recent is aangenomen in Europa, komen met name specifieke eisen

[1:06:47] voor AI-toepassingen tot stand.

[1:06:50] Nederland heeft zich heel actief bemoeid met de onderhandelingen voor deze verordening,

[1:06:56] om te zorgen dat er op een goede manier de bescherming van mensenrechten wordt afgewogen

[1:07:02] tegen het belang van innovatie en rechtshandhaving.

[1:07:05] Maar die bescherming van mensenrechten is een belangrijk onderwerp.

[1:07:08] Daarom hebben we ons ook ingezet op het feit dat aanbieders van AI-systemen expliciet de

[1:07:14] risico's voor mensenrechten, zoals discriminatie, moeten beoordelen en tegengaan bij de ontwikkeling

[1:07:21] van hun systemen, om te zorgen dat problemen in een vroeg stadium worden erkend, herkend en aangepakt.

[1:07:28] Niet alleen de aanbieders van dit soort AI-systemen, maar ook de gebruikers met een hoog risico moeten

[1:07:34] extra controles doen.

[1:07:35] Ze moeten risico's beoordelen vanuit de context waarin die systemen worden ingezet en de impact

[1:07:41] die het gebruik heeft voor specifieke groepen in de samenleving.

[1:07:45] Nederland heeft zich ook ingezet voor verbeterde transparantie

[1:07:48] om te zorgen dat overheden zichzelf moeten registreren

[1:07:52] als gebruiker van hoogrisico-AI-systemen en dus niet alleen ook als aanbieder.

[1:07:58] Zo is het zichtbaar wanneer ook een AI-systeem door een overheid wordt gebruikt.

[1:08:03] Er is ook in die AI-verordening een notificatieplicht opgenomen.

[1:08:07] Dus organisaties die AI-systemen met een hoog risico gebruiken

[1:08:10] in hun besluitvorming, moeten dat melden aan degene over wie dat besluit gaat, wie het betreft.

[1:08:18] Dat geldt niet alleen voor overheden, maar ook voor private partijen.

[1:08:23] Nederland heeft zich ook ingezet om de positie van burgers te versterken.

[1:08:27] Zo is er een klachtrecht in de AI-verordening opgenomen om te zorgen dat als je klachten hebt,

[1:08:35] dat je dan ook daadwerkelijk terecht kunt bij een organisatie die daarmee aan de slag gaat.

[1:08:41] Als het goed is, gaat die AI-verordening in het tweede kwartaal van dit jaar, dus in de komende

[1:08:46] weken en maanden, in werking en zal dan vervolgens gebaseerd van kracht worden.

[1:08:53] Een half jaar na de inwerkingstraining worden de bepalingen over de verboden praktijken van kracht.

[1:09:00] Een jaar daarna worden de bepalingen over zogenaamde general-purpose AI-modellen,

[1:09:04] dus algemene AI-modellen, en uiteindelijk twee jaar na inwerking en training de rest van de verordening.

[1:09:12] Van belang is dat ook AI-systemen die al in werking zijn, die er nu al zijn, uiteindelijk ook aan de

[1:09:19] AI-wet moeten voldoen, aan de AI-verordening moeten voldoen, en om de overheidsorganisaties te ondersteunen

[1:09:27] bij het proces, zullen we de AI-verordeningsvereisten opnemen in het algoritmekader en daarmee zorgen dat

[1:09:33] dat het ook zo snel mogelijk voor overheden niet alleen maar duidelijk wordt, maar dat

[1:09:38] zij dat ook kunnen invoeren.

[1:09:41] Dus dit even over die AI-verordening.

[1:09:42] Ik kan niet genoeg onderstrepen hoe belangrijk die verordening is, want die zorgt ervoor dat

[1:09:48] we inderdaad voor zowel publieke als private organisaties in de EU, die willen werken met

[1:09:53] AI en die al werken met AI, voldoen aan eisen die gelden op het gebied van mensenrechten,

[1:10:00] op het griep van transparantie, op de manier waarop je ook klachten kunt indienen.

[1:10:05] En dat is natuurlijk ontzettend belangrijk.

[1:10:07] We zullen in de komende tijd natuurlijk zien

[1:10:09] dat die technologie zich ook verder gaat ontwikkelen.

[1:10:12] En gelukkig biedt de AI-verordening ook de ruimte om daarin mee te gaan.

[1:10:17] Want tijdens de totstandkoming van die AI-verordening

[1:10:20] hebben we ook gezien dat generatieve AI is ontstaan.

[1:10:23] Dat was er nog niet op het moment dat we daarin begonnen.

[1:10:26] En inmiddels is dat ook opgenomen en onderdeel van deze verordening.

[1:10:29] Dan iets over het algoritmeregister, dus dat register dat wij zelf als overheid hebben gemaakt.

[1:10:35] Het is bedoeld om meer transparantie te bieden.

[1:10:38] Het idee is ook dat alle overheidspartijen — die staan er voor een deel ook al in, zowel ministerisch

[1:10:45] als provincie en gemeente — ervoor zorgen dat zij hun algoritmes en hun risicomodellen hierin registreren.

[1:10:53] U heeft een interruptie van de heer Van Baarle van Denk.

[1:10:57] Ja, voorzitter, dank u wel.

[1:10:58] Dank de staatssecretaris voor de beantwoording.

[1:11:01] Een vraag over de AI-verordening.

[1:11:03] Want mijn vraag was, als het gaat om de verwerking van die AI-verordening in dat implementatiekade,

[1:11:10] is dat implementatiekade nou bindend?

[1:11:12] En eigenlijk constateer ik uit de beantwoording van de staatssecretaris dat dat niet bindend is.

[1:11:19] Dat dat een opvatting is van, zo vinden wij dat de AI-verordening geïmplementeerd zou moeten worden

[1:11:28] en dat dat dan verspreid wordt in de richting van de overheid.

[1:11:32] En ook niet in de richting van private partijen.

[1:11:36] Dus de vraag blijft een beetje die ik stelde van die AI-verordening.

[1:11:39] Daar staan een aantal zaken in.

[1:11:42] Overigens is het mij niet helemaal helder wat de scope daarvan is

[1:11:45] en wat de gevolgen daarvan zijn, zowel voor de overheid als bedrijven.

[1:11:48] En dan gaan we dat vatten in een implementatiekader

[1:11:51] waar we geen rechten aan kunnen ontleden omdat het niet bindend is.

[1:11:54] Klopt dat?

[1:11:55] De staatssecretaris.

[1:11:57] Nee, dat klopt niet.

[1:11:57] Die AI-verordening heeft directe werking, dus het is een wet die ook hier in Nederland geldt,

[1:12:02] voor de overheid en voor private partijen.

[1:12:05] Het wordt ingevoerd in stapjes, maar het geldt voor al deze partijen.

[1:12:09] Dat implementatiekader dat wij hebben gemaakt al en wat we hebben gezegd gaan aanscherpen,

[1:12:15] dat is er nou juist op gericht om het voor overheidspartijen zo makkelijk mogelijk te maken

[1:12:19] om ook echt te voldoen aan die AI-act.

[1:12:21] En wat moet je nou precies doen als je een algoritme wil gebruiken?

[1:12:24] Welke toetsen moet je dan doen?

[1:12:26] Hoe moet je die uitvoeren?

[1:12:27] En die toetsen en die elementen zijn verplichtend, want die staan in de AI-verordening in het Nederlands.

[1:12:35] Dus de kern is dat wat je moet doen volgens de AI-verordening, bijvoorbeeld een mensenrechtentoets

[1:12:41] uitvoeren of een DPIA uitvoeren, verplichtend is voor de partijen die daarmee moeten werken.

[1:12:48] Ik vroeg een vraag van de heer Van Baarne.

[1:12:52] Wat wilde u zeggen?

[1:12:53] Ik wilde zeggen dat ik over de specifieke beantwoording van de vraag die u gesteld heeft nog wel even

[1:12:57] En als ik verder kom, maar in het algemeen is dit de regel.

[1:13:01] Dan kunt u verder gaan. En volgens mij was u inderdaad...

[1:13:04] ...inmiddels bij het algoritmeregister.

[1:13:06] En dus de specifieke beantwoording van de vragen, die volgt nog.

[1:13:10] Ja. En dus het inzetten van dat register...

[1:13:15] ...waar inmiddels al 345 algoritmes van 117 organisaties in staan...

[1:13:22] ...is er om inzicht te bieden...

[1:13:24] in welke algoritmes door de overheid worden gebruikt.

[1:13:27] Er is een grote toename in de afgelopen tijd, zowel van organisaties vanuit de Rijksoverheid

[1:13:34] als vanuit de departementen en uitvoeringsorganisaties, maar ook vanuit gemeenten en provincies.

[1:13:40] Maar het idee is natuurlijk dat het algoritmeregister voor 100% gevuld moet worden.

[1:13:46] Met de Rijksoverheidspartijen is ook afgesproken met de departementen dat eind volgend jaar

[1:13:51] Maar alle registers zijn ook in het register opgenomen.

[1:13:55] Het is natuurlijk wenselijk dat dat zo snel mogelijk gebeurd is.

[1:13:59] Ik geloof dat het de heer Krul was — daar roep ik ook alle partijen op om daar zo snel mogelijk mee te starten,

[1:14:07] maar ook te zorgen dat dat register zo snel mogelijk gevuld wordt.

[1:14:10] Want het geeft inzichten aan burgers en journalisten, maar natuurlijk ook aan toezichthouders over welke

[1:14:17] elementen of welke algoritmes bij de overheid worden gebruikt.

[1:14:21] Dan iets over de toezichthouder, kort en goed.

[1:14:24] Ja, uiteraard is toezicht en helder toezicht nodig.

[1:14:29] Het is ontzettend belangrijk dat we de wetgeving die we hebben, handhaven.

[1:14:33] Die AI-act vergt natuurlijk ook dat er goed gehandhaafd wordt.

[1:14:38] Dat gebeurt in het systeem van de verordening op verschillende manieren, maar binnen Nederland hebben

[1:14:43] we die algoritme-toezichthouder binnen de autoriteit persoonsgegevens ingericht.

[1:14:48] Maar we weten ook dat algoritmes op allerlei plekken in onze samenleving worden ingezet.

[1:14:55] De reden dat we hebben gezorgd dat er een coördinerende rol bij de autoriteit,

[1:15:01] persoonsgegevens of AP is, is omdat het van belang is dat we dat op een gecoördineerde manier doen

[1:15:07] door de verschillende toezichthouders vanuit hun specifieke functionaliteit, bijvoorbeeld algoritmes

[1:15:13] in de landbouw.

[1:15:14] Daarvan is het ook goed dat de toezichthouders op de landbouw kennis hebben van dit soort

[1:15:17] en weten hoe zij toezicht zouden moeten houden op dit soort algoritmes.

[1:15:24] Het algoritme kader is dan ook nog een belangrijke.

[1:15:28] We hadden het er net al even over in het debat met de heer Van Baarle.

[1:15:34] Wij vinden het belangrijk dat het voor overheidsorganisaties ontzettend helder is op welke

[1:15:39] wijze zij moeten voldoen aan die AI-act.

[1:15:41] Daar willen we hen ook mee helpen.

[1:15:43] Daarvoor hebben we dat kader gemaakt.

[1:15:44] Een eerste versie was er al vorig jaar.

[1:15:47] Maar dat kunnen we nu aanscherpen, omdat er meer helderheid is over de AI-verordening

[1:15:51] en de regels die daarin gelden.

[1:15:54] Het is natuurlijk heel erg belangrijk dat het ook goed is dat in dat kader staat hoe de rollen en

[1:15:58] verantwoordelijkheden bij de inzet van AI zijn.

[1:16:02] Wat natuurlijk ook vooral belangrijk is, is dat we ervoor zorgen dat dat kader in de komende tijd

[1:16:08] verder wordt ingevuld.

[1:16:09] We doen dat overigens op een hele open manier, zodat iedereen ook kan meekijken.

[1:16:13] We zetten ook al die informatie op github en zorgen ervoor dat iedereen kan meewerken en meedenken

[1:16:20] over de implementatie van dit kader.

[1:16:24] Dat misschien even in het algemeen.

[1:16:26] Met andere woorden, we hebben op een drietalf gronden al werk gedaan.

[1:16:31] De AI-Act gaat ons helpen om dat werk in de komende tijd verder aan te scherpen, om daarmee zowel in

[1:16:38] in de publieke sector, dus bij de overheid, als in de private sector bij bedrijven, te kunnen komen

[1:16:44] tot een verantwoorde inzet van algoritmes.

[1:16:47] Dat is in de afgelopen tijd gebleken ook heel erg nodig.

[1:16:53] Voorzitter. Dan wilde ik voorstellen om in te gaan op de specifieke vragen die gesteld zijn.

[1:16:57] Ik heb een blokje over wet- en regelgeving, een blokje over het algoritmeregister, een blokje

[1:17:04] over toezicht en een klein stukje over het advies van de landsadvocaat.

[1:17:07] Want zoals ik al aangaf, het grootste deel daarvan wordt door mijn collega beantwoord

[1:17:12] en nog een aantal andere punten.

[1:17:19] Dan ga ik beginnen met het blokje van de wet- en regelgeving.

[1:17:25] Dat was de eerste vraag die de heer Siks-Dijkstra heeft gesteld.

[1:17:29] Is er nou voldoende wettelijke kaders?

[1:17:35] Kunnen we daarmee dan ook voorkomen of kunnen we met die kaders ook voorkomen dat er op een

[1:17:40] onverantwoorde manier gebruik wordt gemaakt van algoritmes?

[1:17:44] Wij zien eigenlijk op dit moment dat er inderdaad voldoende kaders zijn, niet in de laatste plaats

[1:17:50] ook door de komst van die AI-verordening.

[1:17:53] Natuurlijk is het zo dat we nog verder moeten werken aan bewustwording en kennis over de

[1:17:56] implementatie.

[1:17:57] We moeten de AI-verordening natuurlijk ook nog implementeren in Nederland,

[1:18:01] helderheid krijgen over wat nou precies de rol van welke toezichthouder wordt

[1:18:05] onder de coördinatie van de AP, maar ook vooral zorgen dat helder wordt

[1:18:10] voor iedereen die aan het werk gaat met algoritmes of al aan het werk is,

[1:18:14] aan welke eisen er moet worden voldaan.

[1:18:17] En dat laatste vind ik zelf ook ontzettend belangrijk.

[1:18:20] In bijvoorbeeld de vergelijking met de komst van de AVG was het voor sommige partijen

[1:18:24] in het begin heel onduidelijk over hoe je nou precies kon zorgen dat je compliant was.

[1:18:30] Hoe je kon voldoen aan de wet is iets wat wij ontzettend belangrijk vinden in de komende tijd,

[1:18:34] om veel tijd en aandacht aan te besteden.

[1:18:36] Maar we denken dat het kader van de AI-verordening, samen met dat implementatiekader dat we ook voor

[1:18:42] de overheid maken, voldoende moet zijn om in ieder geval de regels te kunnen hebben en de regels

[1:18:48] gesteld te hebben die nodig zijn om het op een verantwoorde manier te doen.

[1:18:53] Uiteraard blijven we altijd goed nadenken en kijken of dat ook zo is en of er nieuwe technologieën zijn

[1:18:58] waar we nog extra stappen moeten zetten.

[1:19:00] Maar als u de vraag op dit moment stelt of er voldoende kaders zijn, dan is het antwoord daarop ja.

[1:19:08] U heeft een interruptie van de heer Siksdijkstra.

[1:19:11] Dank u wel, voorzitter, en dank aan de staatssecretaris voor de beantwoording.

[1:19:14] Ik stelde die vraag ook, en ik verwacht dat de staatssecretaris daar nog later op terugkomt,

[1:19:18] in relatie tot dat Shufa-arrest, waar ook gesteld wordt van dat bepaalde wijze waarop wij nu

[1:19:25] als land omgaan met algoritmes mogelijk strijdig is met de AVG en dat extra wettelijke versterking nodig is.

[1:19:32] Deelt de staatssecretaris die conclusie of kijkt ze daar anders tegenaan?

[1:19:36] Staatssecretaris, ik vind het van belang dat we daar vooral nog wat tijd nemen om dat goed uit te zoeken.

[1:19:41] We weten ook dat er nog een vraag ligt, een advies bij de autoriteit persoonsgegevens om hier een helder antwoord over te krijgen.

[1:19:46] Maar het principe van het gebruik van algoritmes moet zo zijn dat alle algoritmes die wij inzetten,

[1:19:53] natuurlijk voldoen aan de bestaande regelgeving, namelijk aan de AVG, maar ook gaan voldoen aan

[1:19:58] de AI-Act. En in principe moeten die beiden een paraplu vormen voor al deze inzet van regels.

[1:20:11] De vraag was ook van de heer Sik-Steykstra of de problemen die bij de overheid zijn opgetreden

[1:20:17] rondom algoritmes niet makkelijker kunnen worden aangepakt met een paar kernachtige principes.

[1:20:24] Ik vind het altijd fijn als we kunnen zeggen dat je iets met heel kernachtige principes moet doen.

[1:20:29] En die hebben we natuurlijk in de basis ook al.

[1:20:31] Die hadden we ook al lang voordat de AVG er was.

[1:20:35] Discriminatie mag niet, bijvoorbeeld.

[1:20:37] We weten ook dat er transparantie belangrijk is.

[1:20:39] Daar hebben we ook wet- en regelgeving voor.

[1:20:42] Maar het is wel van belang dat we met de aanvullende regels die nu gesteld zijn zorgen

[1:20:49] dat er een goede samenhang is.

[1:20:50] Die samenhang wil ik heel erg graag tot uitdrukking laten komen als het over de overheid

[1:20:54] gaat in dat implementatiekader.

[1:20:58] Uiteindelijk zijn die principes die in de AI-act zitten voor een groot deel gebaseerd op principes

[1:21:05] die we eerder met elkaar hebben vastgesteld.

[1:21:07] Non-discriminatie, transparantie, de mogelijkheid om te kunnen klagen, al dit soort elementen zijn

[1:21:15] in de AI-acte opgenomen, maar zijn daar nog eens een keer heel helder gedefineerd op basis van dan ook

[1:21:21] een hele heldere definitie van wat AI is en die combinatie maakt dat we nu veel duidelijker voor

[1:21:28] de private en publieke partijen in heel Europa, maar dus ook in Nederland, kaders hebben.

[1:21:38] Daarmee kunnen we ook zorgen dat er wordt voldaan aan de inzet op het gebied van mensenrechten.

[1:21:46] Dan was er nog de vraag die ook door de NSC is gesteld over de wettelijke grondslag voor het gebruik

[1:21:56] van automatische besluitvorming voor fraudeopsporing.

[1:22:01] Wat natuurlijk ontzettend belangrijk is, is dat, voor welke verwerking je ook doet, je ervoor zorgt

[1:22:06] dat daar een basis voor is in wetgeving, omdat de uitspraak van de landsadvocaat — daar zal mijn

[1:22:14] collega verder op ingaan — en ook op het advies dat we nog verwachten in dat kader van de

[1:22:20] autoriteit persoonsgegevens.

[1:22:22] Dan vroeg D66 zich af hoe uitvoering is gegeven aan de motie om ervoor te zorgen dat ontwrichtendere

[1:22:32] algoritmes worden verboden en hoe die kunnen worden verboden in de AI-verordening.

[1:22:38] Het Europese Parlement heeft ook in de AI-verordening gezegd dat ontwrichtendere algoritmes als

[1:22:47] hoog risico worden gedefineerd.

[1:22:49] Dat betekent dus ook dat we ervoor moeten zorgen dat dit soort hoogrisico-algoritmes worden getest

[1:22:59] en getoetst en voorzien van een keurmerk, voordat ze kunnen worden ingezet.

[1:23:05] Het is dus ook wenselijk dat dit soort ontwrichtende algoritmes niet worden toegepast.

[1:23:11] U heeft een interruptie van de heer Valise van de PVV en daarna van mevrouw Van der Werf.

[1:23:19] Ik hoor de staatssecretaris praten over een keurmerk.

[1:23:23] Ik zag het in de brieven ook vluchtig voorbijkomen.

[1:23:26] Dan wordt het genoemd dat het een CE-keurmerk is.

[1:23:27] Maar hoe is het zichtbaar naar de mensen toe dat dat keurmerk er is?

[1:23:30] Wordt het op de website gepubliceerd?

[1:23:33] Staat het ergens in de broncode van meldmerken?

[1:23:35] Ik zou daar graag een beeldvorming van hebben.

[1:23:38] Hoe kan het achterhaald worden tot het voorzienis van een keurmerk?

[1:23:44] Het gaat inderdaad over die CE-keurmerken.

[1:23:47] Daar gelden sowieso verplichtingen over om dat ook kenbaar te maken.

[1:23:51] Hoe we dat specifiek zullen doen?

[1:23:52] Ik denk sowieso in het kader van de registratie in het algoritmeregister, want dan moet je ook

[1:23:58] aangeven of je aan zo'n keurmerk voldoet.

[1:24:02] Maar er is meer nodig, en daar heeft mevrouw Van der Werff ook nog wat over gevraagd, om

[1:24:05] burgers te informeren.

[1:24:07] Ik denk dat het goed is dat we er nog met elkaar over nadenken hoe we dat precies ook kenbaar

[1:24:10] maken, zodat het voor mensen duidelijk is of een algoritme ook voldoet aan de regels.

[1:24:15] Het is natuurlijk zo dat sommige algoritmes niet zo duidelijk altijd één op één gebruikt worden

[1:24:21] in relatie tot een consument, bijvoorbeeld.

[1:24:26] Maar goed, wanneer een besluit van de overheid gebaseerd op een algoritme is — daar kom ik straks

[1:24:31] nog wel verder op — dan is ook onze bedoeling om te zorgen dat duidelijk is dat het besluit

[1:24:36] mede heeft plaatsgevonden op basis van een algoritme.

[1:24:39] En als dat algoritme een hoogrisico-algoritme is, dan behoort dat natuurlijk ook te voorzien te zijn,

[1:24:44] conform de AI-verordening van zo'n keurmerk.

[1:24:48] Mevrouw Van der Werf.

[1:24:51] Voorzitter, nog even voor de helderheid op de vraag waar de staatssecretaris zojuist op inging

[1:24:55] over die motie van die ontwrichtende algoritmes.

[1:24:59] Ziet u die dan nou ook als onderdeel van modellen met een systemisch risico?

[1:25:05] Dus kunnen we het dan zo zien dat die zo geïnterpreteerd worden in die AI-verordening?

[1:25:12] Voor een deel zit dit ook al in de DSA, dus in de Digitale Dienstenverordening, want die

[1:25:18] stelt eisen aan de — want u had het ook specifiek over in dit geval vaak — over ontwrichtende

[1:25:25] algoritmes, althans informatie die via social media-platforms bij mensen terechtkomt.

[1:25:33] En de Digitale Dienstverordening, DSA, die zorgt ervoor dat er...

[1:25:38] die stelt eisen aan grote platformbedrijven om in te grijpen...

[1:25:41] wanneer er sprake is van illegale content of dit soort ontwrichtende algoritmes.

[1:25:47] En dat kan bijvoorbeeld door die algoritmes ook daadwerkelijk aan te passen.

[1:25:51] En een interruptie van de heer Van Baarle, Van Dijk?

[1:25:54] Ja, voorzitter, over de gevolgen van de AI-verordening...

[1:26:00] en dat kermijk.

[1:26:03] Gewoon dat ik het goed begrijp.

[1:26:04] Volgens mij staan in die AI-verordening een aantal principes.

[1:26:09] Namelijk dat in het geval van een hoog risico algoritme er sprake moet zijn van een mensenrechte toets.

[1:26:15] Die onder andere ziet op non-discriminatie.

[1:26:19] Nu hoor ik dat dat een keurmerk is.

[1:26:23] En mijn vraag is, hoe zorgen we ervoor dat niet bedrijven verantwoordelijk worden om maar gewoon een vinkje te zetten van...

[1:26:33] toetsing uitgevoerd op de manier hoe wij dat willen uitvoeren en dat het ook

[1:26:37] daadwerkelijk een goede toetsing is. Dus volgens mij moet dat principe moet

[1:26:41] vervat worden in praktische regels hoe je dat doet.

[1:26:44] En wie gaat uiteindelijk over dat keurmerk? Wie geeft dat keurmerk?

[1:26:49] Wie toetst dat keurmerk? Wie stelt dat keurmerk vast?

[1:26:52] Want als we dat nu niet weten dan krijgen we dadelijk bedrijven die aangeven van

[1:26:56] nou ik heb een keurmerk approved methode. Ik zal u echt niet discrimineren maar

[1:27:01] Maar wat het keurmerk is, weten we niet.

[1:27:03] De staatssecretaris.

[1:27:07] Ja, dat keurmerk moet... Of die hoogrisico...

[1:27:10] Inderdaad, hoogrisicoalgoritmes moeten voldoen aan een aantal vereisten,

[1:27:14] waaronder inderdaad dat je mensenrechtentoetsen hebt moeten doen

[1:27:16] enzovoort enzovoort.

[1:27:18] Die toetsen moeten bedrijven zelf doen, maar daar wordt wel op gecontroleerd,

[1:27:21] want anders krijg je niet zo'n CE-markering.

[1:27:23] En bovendien zijn er natuurlijk ook toezichthouders die hierop moeten toezien.

[1:27:27] Dus van belang is inderdaad dat er niet alleen maar sprake is van

[1:27:30] dat je moet aangeven wat jouw algoritme doet.

[1:27:33] Je moet een toets uitvoeren en voordat je dat keurmerk kunt krijgen, moet je natuurlijk voldoen

[1:27:39] aan die vereisten en moet het ook duidelijk zijn dat je daar dus aan voldoet.

[1:27:45] En wat van belang is, is dat ook de toezichthouders gaan kijken naar of dat assessment door bedrijven

[1:27:52] op een goede manier wordt uitgevoerd.

[1:27:54] En kun je dus inderdaad, als er sprake is van het, als je bijvoorbeeld zelf zou aangeven

[1:28:00] ik denk dat mijn algoritme helemaal niet hoog risico is, hoe er kan worden toezicht

[1:28:07] wordt gehouden dat iets niet een hoog risico algoritme is.

[1:28:12] Vervolgvraag van de heer Van Baarle.

[1:28:13] Ja voorzitter, begrijp ik het nu goed dat het keurmerk, dat is dus op het moment dat bedrijven

[1:28:20] zeggen, ik bied een dienst aan en ik wil daar graag een keurmerk bij.

[1:28:25] Dan wordt dat getoetst. Dus op het moment dat bedrijven een keurmerk willen,

[1:28:29] dan komt er een keurmerk op. Voor alle overige bedrijven die geen

[1:28:33] keurmerk willen, geldt dus dat de toezichthouder

[1:28:36] in de specifieke sector zou moeten gaan kijken of het assessment goed is

[1:28:40] toegepast en is het de verantwoordelijkheid van de bedrijven.

[1:28:44] Als dat zo is, als er in die AI-verordening een aantal generieke

[1:28:49] principes zijn, moeten we toch met elkaar een kader hebben op grond waarvan alle toezichthouders

[1:28:55] gaan toetsen hoe die algemene principes toegepast worden.

[1:28:59] En dat is mijn vraag van de mate van bindendheid van dat algoritme kader en dat algoritme kader

[1:29:06] geldt blijkbaar alleen voor de overheid en niet voor bedrijven.

[1:29:11] Dus waar is dan het kader voor bedrijven, is mijn vraag.

[1:29:16] Misschien even een paar dingen, want meneer Van Baarle gaat iets te snel tot een aantal conclusies

[1:29:20] die niet, wat mij betreft, zo zouden moeten zijn.

[1:29:23] Nummer 1. Het is zo dat er nu is afgesproken in de AI-verordening dat er classificaties zijn van

[1:29:30] algoritmes die moeten goed en scherp worden ingevuld.

[1:29:34] Natuurlijk zal de praktijk leren dat er altijd weer discussies over zijn, maar de kern is dat

[1:29:38] dat hoogrisicoalgoritmes goed gedefinieerd zijn nu als algoritmes die je alleen maar kunt toepassen

[1:29:44] wanneer je ook een keurmerk hebt.

[1:29:46] Dat is één.

[1:29:47] Het tweede is dat we voor het toepassen van algoritmes bij de overheid een implementatiekader maken.

[1:29:52] Dan wordt het duidelijk voor overheidspartijen op welke wijze zij algoritmes kunnen inzetten,

[1:29:57] welke toetsen moeten worden gedaan, enzovoort, enzovoort.

[1:29:59] En die toetsen zijn ook verplicht.

[1:30:01] Bijvoorbeeld Sonyama moet worden uitgevoerd, een mensenrechtentoets.

[1:30:04] Wat van belang is, is dat ik aan de toezichthouders, nogmaals onder coördinatie van de

[1:30:12] Autoriteit Persoonsgegevens, heb gevraagd om de implementatie, of beter gezegd de normuitleg van

[1:30:19] de wet, voor alle sectoren, voor alle bedrijven die daaraan moeten voldoen, overigens geldt de

[1:30:26] overheid natuurlijk ook daarin, zo goed mogelijk in de komende tijd gaat uitvoeren.

[1:30:31] Want het is altijd zo dat als je zo'n wet hebt, die natuurlijk geldt voor heel veel grote

[1:30:36] interpreteren, dat je altijd vragen kunt stellen.

[1:30:38] Hoe zit dit nu precies?

[1:30:40] Dat moet voor alle partijen zo duidelijk mogelijk worden.

[1:30:43] Die normuitleg hebben zij ook aangegeven.

[1:30:45] Die gaan ze ook met elkaar vaststellen, zodat het inderdaad ook helder wordt voor welk soort

[1:30:51] bedrijf je bent, of je nou in de landbouw zit of in verzekeringen of bij een bank of andere.

[1:30:55] dat het helder is wat deze wet betekent voor jou, wat het betekent voor jouw bedrijf als je algoritme

[1:31:02] wil inzetten aan welke eisen die moeten voldoen en hoe je dat kunt doen. En dat is een belangrijke

[1:31:07] stap die in de komende tijd moet plaatsvinden. Dus de implementatie van de AI-verordening is ook,

[1:31:13] vanaf het moment dat je gepubliceerd is, gaat dat ook in stapjes. Daar ligt ik net al iets over toe.

[1:31:19] En dan in het kader daarvan is die normuitleg dus ook heel erg belangrijk. Maar het is geen

[1:31:23] een zinvrij blijvende verordening, helemaal niet zelf,

[1:31:27] niet voor de overheid en ook niet voor bedrijven.

[1:31:32] De vervolgvraag van de heer Van Baarle.

[1:31:35] Ja voorzitter, dan blijft nog wel even de vraag.

[1:31:39] De staatssecretaris geeft aan, een hoog risico algoritme

[1:31:42] kan alleen ingezet worden met een keurmerk.

[1:31:47] Het is mij nog niet helder wie dan gaat over dat keurmerk

[1:31:51] en op basis waarvan een keurmerk dan wordt afgegeven of niet.

[1:31:58] Wie het keurmerk precies gaat uitgeven, dat moet nu nog worden bepaald.

[1:32:02] Dat is nog onderdeel van de implementatie van de wet, dus daar komen wij zo snel mogelijk

[1:32:06] in de komende tijd op terug.

[1:32:13] Wat ik nog wilde voorstellen, en dat is een van de dingen die wellicht interessant is,

[1:32:18] ook voor de heer Van Baarle, is dat als de Kamer wat meer detailen nog uitlegt en toelichting

[1:32:23] wil op die AI-verordening en hoe werkt die, dat we dat natuurlijk altijd kunnen doen

[1:32:27] in de vorm van een technische briefing.

[1:32:29] Wat is er al, wat is er nog niet, waar moeten we nog aan werken enzovoort.

[1:32:36] Dan ga ik door met een aantal vragen van de heer Van Baarlema.

[1:32:42] Die heeft hij net ook al in interruptie nog een keer opnieuw gesteld.

[1:32:47] Eentje was nog over de Algemene Wet Bestuursrecht en of we, als het gaat over overheidsbesluiten

[1:32:52] op basis van algoritmes, worden opgenomen in de AWB.

[1:32:58] Dat is op dit moment nog niet zo.

[1:33:00] De AWB, de Algemene Wet Bestuursrecht, kent natuurlijk wel die algemene motiveringsplicht.

[1:33:05] Maar we hebben op dit moment een internetconsultatie over deze specifieke vraag.

[1:33:11] Wij vinden het natuurlijk ontzettend belangrijk dat helder is voor burgers hoe een besluit is genomen.

[1:33:16] Dat is niet alleen maar belangrijk zodat je weet op basis van welke gegevens dat gebeurd is of op

[1:33:21] welke manier de wet wordt toegepast, maar natuurlijk ook om inzicht te krijgen of er

[1:33:26] Sprake is inderdaad van gebruik van een algoritme.

[1:33:31] De AI-verordening geeft een verplichting om burgers te informeren als er een high-risk AI-systeem is

[1:33:37] gebruikt, maar hoe we dat precies in de ANWB willen opnemen, daar hebben we nu een internetconsultatie

[1:33:45] lopen en we hopen die zo snel mogelijk dit voorjaar nog te kunnen afronden, zodat we ook duidelijkheid

[1:33:50] kunnen maken over hoe we dit in de ANWB gaan opnemen.

[1:33:54] Want ook in bredere zin zijn we die wet aan het aanpassen.

[1:34:03] Dan was er nog de vraag van de heer Van Baarle of we de ruimte hebben als land om het algoritmekader

[1:34:09] scherper in te zetten dan de bepalingen van de AI-verordening.

[1:34:16] We hebben gezegd dat we dat kader willen gebruiken als een hulpmiddel om te zorgen dat we op een

[1:34:25] Dat kader gebruiken we bij de overheid om overheidspartijen te helpen om invulling te geven.

[1:34:32] We kunnen onszelf altijd, als we dat zouden willen, nog scherpere regels opleggen, maar

[1:34:37] wij vinden dat op dit moment niet nodig, omdat al die elementen die we zien, hier ook inzitten.

[1:34:46] Dan was er nog de vraag vanuit de VVD over hoe je kunt verzorgen dat de menscentraalstraat

[1:34:53] bij het gebruik van algoritmes door de overheid.

[1:34:56] Natuurlijk moeten we transparant zijn over de inzet van algoritmes, bijvoorbeeld via dat algoritme

[1:35:02] register en de uitleg die we geven bij besluiten over hoe een besluit tot stand is gekomen.

[1:35:08] Wat helder is, is dat er altijd sprake moet zijn van menselijke tussenkomst en dat het mogelijk is

[1:35:16] om ook in beroep te gaan bij een mens tegen een besluit dat door een algoritme is genomen.

[1:35:21] Dan is er de vraag van mevrouw Katman, ook in het kader van dat we nog steeds in het blokje

[1:35:28] wet- en regelgeving zijn, of wij in aanloop naar de actualisatie van de U-AVG, de uitvoeringswet

[1:35:35] voor de AVG, kunnen verkennen of er een verplichting moet komen om de verplichting van de functionarische

[1:35:41] gegevensbescherming uit te breiden.

[1:35:45] Op dit moment is zo'n functionarische gegevensbescherming al verplicht voor alle

[1:35:50] organisaties die vanwege hun aard, omvang of doeleinden regelmatig en stelselmatige observaties

[1:35:56] op grote schaal van betrokkenen vereisen en organisaties die belast zijn met het verwerken

[1:36:01] van persoonsgegevens.

[1:36:02] Met andere woorden, in organisaties waar dit aan de orde is, is dat al verplicht.

[1:36:09] Los daarvan moeten organisaties, ook die niet zo'n functionaris hebben, de AVG natuurlijk naleven.

[1:36:16] Dus wij denken eigenlijk dat dit niet nodig is.

[1:36:18] We denken dat er al voldoende duidelijk is wanneer een organisatie ook daadwerkelijk

[1:36:25] zo'n functionaris moet inzetten.

[1:36:28] Dan was er nog de vraag van mevrouw Katman over de vraag of zijn algoritmes en AI-modellen

[1:36:37] voldoende goed gedefinierd zijn.

[1:36:38] Zijn er geen blinde vlekken?

[1:36:39] Dat is eigenlijk een beetje in dezelfde lijn als de vraag die de heer Siks-Dijkstra stelde.

[1:36:45] Wij denken dat we op dit moment echt goed uit de voeten kunnen met de definities van AI-systemen,

[1:36:50] modellen enzovoorts in de verordening, niet in de laatste plaats ook omdat er veel discussie is geweest,

[1:36:56] ook bij de AI-verordening, over welke definitie we nou gebruiken.

[1:36:59] Er is uiteindelijk een werkgroep van de OESO die daar met allerlei wetenschappelijke, maar ook

[1:37:05] praktijkinzichten mee aan het werk is gegaan.

[1:37:07] Maar wat er wel zo is, is natuurlijk dat AI zich ontwikkelt, de technologie ontwikkelt zich.

[1:37:12] Er komen wellicht ook weer nieuwe toepassingen, dus is het altijd nodig om te bekijken of die

[1:37:18] definities voldoende blijven, ook in de komende tijd.

[1:37:23] Maar voor nu kunnen we goed uit de voeten met de huidige definities.

[1:37:29] Dan was er ook nog een vraag van mevrouw Katman.

[1:37:31] Kunnen we ervoor zorgen dat als iemand geselecteerd is als risicogeval, in dit geval bijvoorbeeld

[1:37:40] in het kader van een besluit van de overheid, dat dat ook duidelijk is, of als je geselecteerd bent wel

[1:37:47] of niet een bepaalde subsidie hebt gekregen.

[1:37:54] Wij vinden het belangrijk dat we als overheid super transparant zijn over hoe we besluiten nemen.

[1:38:00] Wij vinden het ook goed dat dat bijvoorbeeld in een brief komt te staan.

[1:38:06] Wij zijn aan het kijken hoe we dat kunnen doen.

[1:38:09] We hebben bijvoorbeeld door te verwijzen naar het algoritmeregister of door een register,

[1:38:15] dat we inmiddels verder aan het vullen zijn, al behoorlijk mee aan de slag, gegevens bij

[1:38:20] besluiten.overheid.nl, wat namelijk inzicht geeft in hoe een besluit bij de overheid wordt gemaakt.

[1:38:27] Vanuit de AI-verordening is er straks ook de notificatieplicht.

[1:38:32] Met andere woorden, als er toepassing van AI is, dan moet je ook zorgen — hoog risico AI gaat het in

[1:38:39] Maar de kern is eigenlijk wat wij willen bereiken.

[1:38:41] We hebben daar eerder ook met elkaar een discussie over gehad, mevrouw Katman en ik, dat als je een

[1:38:47] brief van de overheid krijgt met een besluit, bijvoorbeeld wel of geen subsidie gekregen, of we

[1:38:52] gaan verder onderzoek doen of we willen extra gegevens, het altijd belangrijk is voor een burger om

[1:38:58] te weten waarom je die brief krijgt en waarom je bijvoorbeeld wel of niet in aanmerking bent gekomen

[1:39:05] voor een studielening of een subsidie of iets van die orde, en dat je dat ook kunt nagaan.

[1:39:13] Dat inzicht bieden, daar is niet alleen de AI-verordening een hulpmiddel bij, maar dat

[1:39:19] kunnen we ook verder doen door te zorgen dat we überhaupt inzichtelijk maken hoe we besluiten

[1:39:23] bij de overheid maken en op basis waarvan die worden gemaakt.

[1:39:27] Daar zijn we dus ook al heel hard mee aan de slag.

[1:39:32] Dan was er nog de vraag van de heer Valise van de PVV over het implementatiekader.

[1:39:40] Of departementen daarvan weten en wat de ervaringen daarmee zijn?

[1:39:44] De departementen kennen inderdaad dit implementatiekader.

[1:39:47] We zijn het aan het ontwikkelen verder.

[1:39:49] We vertelden dat we aan het eind van dit jaar ook met de inzichten vanuit de AI-verordening willen

[1:39:55] dat kader verder aanvullen.

[1:40:00] Ervoor zorgen dat het dan ook overheden helpt om te voldoen aan de regels die worden gesteld

[1:40:06] in de AI-verordening.

[1:40:12] Dan was er nog de vraag van de heer Valieze over hoe ik ervoor ga zorgen dat algoritmes

[1:40:16] verantwoord kunnen worden ingezet.

[1:40:19] Daar hebben we natuurlijk een hele serie van activiteiten voor, niet in de laatste plaats

[1:40:24] natuurlijk dat algoritme-kader, het zorgen dat er ook een register is en natuurlijk ook dat we

[1:40:31] gaan zorgen dat we die verordening zo goed mogelijk gaan toepassen in de komende tijd.

[1:40:37] Er was ook nog een vraag van DENK van de heer Van Baarle over het algoritme-kader, maar volgens mij

[1:40:44] heb ik dat al beantwoord.

[1:40:45] Is dat nou een verplichtend kader?

[1:40:51] Die elementen daarin zijn natuurlijk gewoon verplichtend, want u moet voldoen aan mensenrechtentoetsen,

[1:40:55] dpa's enzovoort, als je algoritmes wil gaan invoeren.

[1:41:00] Dan is er nog de vraag of de VVD of mede-overheden worden meegenomen als het gaat over analoge

[1:41:14] terugvalopties.

[1:41:15] Dat ging overigens over bijvoorbeeld bij cyberaanvallen.

[1:41:19] Vraag van de heer Meidenkamp, inderdaad.

[1:41:22] Wij vinden ook dat wij het inrichten van algoritmes daar heel goed naar zouden moeten kijken.

[1:41:27] Ik denk dat we hier wel nog meer werk op nodig hebben om dat ook goed te kunnen beantwoorden,

[1:41:32] maar ik denk dat het zeker iets is waar we, of niet ik denk, maar we willen daar ook graag verder mee.

[1:41:37] Want als het gaat over cyberaanvallen, in de brede zin van het woord, is het altijd belangrijk dat de

[1:41:44] basisprocessen van een overheid ook doorgang kunnen blijven vinden.

[1:41:48] Dat is bijvoorbeeld het kunnen uitgeven van een paspoort of een uitkering of iets anders, maar

[1:41:54] natuurlijk heel veel andere taken net zo goed.

[1:41:58] Daar hebben we in het kader van de implementatie van de zogenaamde NIS2-regels, dus de implementatie

[1:42:04] van Europese wetten die we hebben gemaakt op het griep van cyberveiligheid, nog werk met elkaar te

[1:42:10] doen en zeker ook met andere overheden.

[1:42:13] Dat doen we graag met hen samen.

[1:42:18] De heer Meulenkamp.

[1:42:19] Geeft u daarmee ook aan dat het echt prioriteit moet hebben?

[1:42:23] U zegt, ik vind het belangrijk, maar gaat u dat de komende maanden ook echt prioriteit aangeven?

[1:42:29] Zeker gezien de onstabiele situatie in de wereld op dit moment.

[1:42:33] De staatssecretaris.

[1:42:36] Cyberveiligheid heeft een grote prioriteit.

[1:42:39] Alvrees is de eerst verantwoordelijke hiervoor de minister van JNV.

[1:42:43] Maar dat laat onverlet dat we daar echt heel goed op samenwerken, zeker ook als het gaat over de

[1:42:47] implementatie van nieuwe regels daarvoor.

[1:42:50] Maar er zijn veel aspecten die daarmee samenhangen.

[1:42:52] Het heeft echt grote aandacht en het is ook echt heel belangrijk dat alle partijen, dus ook

[1:42:58] gemeenten, provincies, waterschappen en grote, cruciale bedrijven, zoals de energiesector en

[1:43:04] banken, zich heel erg wapenen tegen dit fenomeen, dat in allerlei vormen en maten plaatsvindt.

[1:43:12] En dat inderdaad zeker in de huidige geopolitieke situatie van de wereld ongelooflijk veel aandacht

[1:43:19] nodig heeft.

[1:43:19] Dus dat heeft veel prioriteit.

[1:43:21] Het is van belang — en daar gaat het in dit debat natuurlijk ook vooral om — dat als je ook

[1:43:26] algoritmes gebruikt voor het uitvoeren van beleid, of dat dan gaat over uitkeringen of over subsidies,

[1:43:32] je dan ook goed zorgt dat dat niet stopt wanneer je op een of andere manier daar problemen mee krijgt

[1:43:39] wanneer die worden gehackt, bijvoorbeeld.

[1:43:42] Dan de vraag van mevrouw Katman, die ging over het in kaart brengen van hoogrisico-algoritme.

[1:43:53] Uiterlijk moeten eind volgend jaar al die hoogrisico-algoritmes in het register staan.

[1:43:59] Het is van belang dat iedereen daar zo snel mogelijk mee aan het werk gaat, maar het is niet onbelangrijk

[1:44:04] om te weten dat er voor hoogrisico-algoritmes ook een Europese databank komt.

[1:44:08] Dus het is niet alleen het Nederlands register, maar ook in Europa moeten die in de databank

[1:44:13] worden opgenomen.

[1:44:16] Dan was er nog een vraag over of het inzetten van algoritmes leidt tot effecten op de werkvloer.

[1:44:26] Daar had mevrouw Katman het over, voor het dagelijks werk van mensen.

[1:44:30] Hoe zorg je er dan voor dat er op een goede manier de mogelijkheid is om in te grijpen?

[1:44:40] Natuurlijk moeten we dan goed gaan kijken naar de inzet van AI en algoritmes, hoe dat gaat werken

[1:44:46] binnen niet alleen de overheid, maar ook bij bedrijven.

[1:44:50] Die implementatie gaan we in de komende tijd verder uitwerken.

[1:44:53] Maar het is natuurlijk echt wel heel erg belangrijk dat als er situaties ontstaan waarbij algoritmes

[1:44:58] de verkeerde kant opgaan, dat er daadwerkelijk ook de mogelijkheid is om daarop in te grijpen,

[1:45:04] niet alleen door de overheid, maar ook door bedrijven, en te zorgen dat er ook de mogelijkheid

[1:45:08] is om je daar bijvoorbeeld tegen te verzetten.

[1:45:11] Daarvoor is het klachtenrecht bijvoorbeeld ook ontzettend belangrijk.

[1:45:16] Er was nog een vraag vanuit NEC over de motie van Leijten en Ceder.

[1:45:22] U stelde namelijk ook de ChristenUnie, over hoe het staat met dat waardekader.

[1:45:31] Wat ik in de afgelopen tijd heb gedaan over dit onderwerp, is dat gesproken met veel experts

[1:45:38] die aangeven dat de Code voor Goed Digitaal Openbaar Bestuur, CODEO, een heel goed overkoepelend

[1:45:43] kader is om publieke waarden bij de inzet van technologie te waarborgen.

[1:45:48] Dat gebruiken we dus ook verder en is ontwikkeld al in 2021.

[1:45:53] De praktische toepasbaarheid daarvan verdient wel meer werk en daar zijn we op dit moment

[1:45:59] ook hard mee aan het werk.

[1:46:01] In december, dus aan het eind van dit jaar, zal ik de Kamer over dat werk verder informeren.

[1:46:07] Maar op dit moment werken we dus vanuit de basis van dat overkoepelend CODEO-kader.

[1:46:13] Dan is er nog de vraag vanuit Denk over de AI-verordening wat een hoogrisicoalgoritme is.

[1:46:22] Daar hebben we volgens mij al iets over gezegd.

[1:46:24] Bijvoorbeeld hoogrisicoalgoritmes zijn algoritmes waarmee gecontroleerd is of een uitkering rechtmatig

[1:46:30] wordt verleend, of het scannen van cv's en sollicitatiebrieven.

[1:46:34] Al dit soort elementen worden heel duidelijk ook als hoogrisicoalgoritmes aangeduid.

[1:46:39] en die zullen dus moeten voldoen aan de systemen zoals de verordening die heeft aangegeven.

[1:46:45] En dan heb ik volgens mij alle vragen op de griep van wet en regelgeving beantwoord.

[1:46:50] U heeft een vraag van mevrouw Van der Werf.

[1:46:54] Volgens mij zijn er nog een paar dingen blijven liggen, met het risico dat het in een volgend

[1:46:59] blokje voorbij komt.

[1:47:01] Ik had gevraagd naar de volgende stap na de AI-verordening.

[1:47:04] Hoe ga je van dat transparantie naar ingrijpen?

[1:47:06] Ik was benieuwd welke instrumenten je op het naleven hebt, waar wordt die handhaving dan

[1:47:13] belegd en hoe kan je een scenario, wat we nu bij de DSA hebben gezien, dat dat nog niet

[1:47:19] rond was, voorkomen?

[1:47:27] Op deze AI-verordening wordt toezicht gehouden en de toezichthouders kunnen boetes uitdelen.

[1:47:35] Uiteindelijk tot flinke boetes van, ik geloof, 6% van de totale wereldwijde omzet van een bedrijf.

[1:47:45] De kern van het verhaal is dat het inrichten van het toezicht iets is waar we in de komende tijd mee

[1:47:51] aan de slag gaan.

[1:47:52] Welke toezichthouder gaat wat doen?

[1:47:54] Zorgen dat er een goede norm uitleg is voor bedrijven, zodat mensen ook weten hoe ze moeten

[1:47:58] voldoen aan deze regels.

[1:48:00] Vervolgens kan er inderdaad toezicht worden gehouden.

[1:48:02] En nogmaals, daar is een heel instrumentarium aan de orde, maar inclusief het instrumentarium van

[1:48:09] ook daadwerkelijk het uitdelen van boetes.

[1:48:16] En nog een interruptie van de heer Meulenkamp van de VVD.

[1:48:19] Ja, ik had gesteld dat als we nu algoritmes meer gaan gebruiken, dan is er misschien wel meer tijd

[1:48:27] om weer te luisteren naar onze inwoners, zodat mensen buiten ook het voordeel gaan inzien van het

[1:48:33] gebruik van algoritmes.

[1:48:35] Ik word sneller geholpen door de overheid.

[1:48:38] Ik word beter gehoord.

[1:48:40] Heeft u een beeld bij hoe u daarop zou willen sturen?

[1:48:43] In mijn ogen is dat cruciaal voor het herstellen van vertrouwen in de overheid.

[1:48:47] Volgens mij heeft u die vraag nog even laten liggen.

[1:48:51] Hij zit in mijn blokje verderop, maar ik zal hem alvast even oppakken.

[1:48:56] Kijk, de kern is inderdaad dat we het, als we het hebben over de AI-verordening,

[1:48:59] hebben we het natuurlijk heel sterk over het beperken van de risico's

[1:49:02] en het zorgen dat je algoritmes op een goede manier reguleert

[1:49:05] om ongelukken, zoals we die ook hebben gekend in Nederland, te voorkomen.

[1:49:10] En dat is superbelangrijk.

[1:49:11] Maar laten we helder zijn, algoritmes kun je inderdaad ook heel goed inzetten

[1:49:15] in het voordeel van burgers,

[1:49:17] bijvoorbeeld om meer proactieve dienstverlening te doen.

[1:49:21] Heel veel is het nu zo dat als mensen in aanmerking komen

[1:49:23] voor een subsidie of een toeslag,

[1:49:26] niet heel veel, in bijna 100 procent van de vallen,

[1:49:28] moet je daar zelf je voor aanmelden.

[1:49:31] Terwijl we ook algoritmes zouden kunnen gebruiken om je bijvoorbeeld meer proactief aan te geven

[1:49:36] of het geld zelfs al over te maken waar je recht op hebt.

[1:49:42] Je kunt bijvoorbeeld ook generatieve AI inzetten om de dienstverlening aan de telefoon te verbeteren.

[1:49:49] Op allerlei manieren kun je dus ook AI inzetten in de positieve zin.

[1:49:53] Daar hebben we ook in onze visie op generatieve AI een aantal elementen over opgenomen.

[1:49:59] En we willen daar in de komende tijd ook verdere uitwerking aan geven.

[1:50:03] Hoe kunnen we dit op een goede manier doen?

[1:50:06] Inderdaad, zodat het makkelijker is om burgers te helpen, zodat het werk voor mensen die direct

[1:50:13] contact hebben met burgers bij bijvoorbeeld gemeenten of uitvoeringsorganisaties hun werk

[1:50:18] makkelijker kunnen doen.

[1:50:19] Zo ken ik bijvoorbeeld een voorbeeld dat nu in Frankrijk wordt geïmplementeerd, waarbij mensen

[1:50:24] die achter het loket zitten bij de gemeente gebruik kunnen maken van generatieve AI om

[1:50:29] sneller een vraag van een bewoner te kunnen beantwoorden, en dat op een breed terrein

[1:50:36] van allerlei aspecten van de overheid.

[1:50:40] Dus het is echt wel zo dat we heel goed aan het kijken zijn hoe we het in de positieve

[1:50:44] zin kunnen inzetten.

[1:50:46] Maar we zijn er natuurlijk wel voorzichtig mee en zorgvuldig, want we willen ook voorkomen

[1:50:52] dat daar waar je het positief bedoelt, dat het ook weer niet leidt tot nieuwe problemen.

[1:50:59] En hoewel we al hele fantastische technische ontwikkelingen zien,

[1:51:03] ook met generatieve AI, zien we ook nog large language models

[1:51:07] die hallucineren, zoals dat dan heet.

[1:51:10] Je zou ook kunnen zeggen, gewoon foute informatie geven.

[1:51:13] En het is ontzettend belangrijk dat je dat natuurlijk voorkomt

[1:51:16] als je het ook ten gunste inzet.

[1:51:17] Maar die twee kanten zijn allebei onderdeel van het beleid van deze regering.

[1:51:24] U had nog een vervolgvraag van mevrouw Van der Werff, de heer Meulenkamp.

[1:51:27] Heeft u een vervolgvraag?

[1:51:29] Mevrouw Van der Werff komt zo aan bod, de heer Meulenkamp.

[1:51:32] Ik zou graag een link willen leggen met het aantal wovenzoeken die we jaarlijks moeten behandelen.

[1:51:37] Waar het echt tegen de plinten klotst.

[1:51:39] Dat we in de gaten houden hoe gaat die ontwikkeling met die wovenzoeken in relatie tot het meer spreken met mensen.

[1:51:45] eigenlijk, omdat we algoritmes gaan inzetten. Dus, nou ja, als tip.

[1:51:52] Maar, dank u wel. Kijk, alles wat wij kunnen doen om onze dienstverlening te versterken via bijvoorbeeld,

[1:51:57] we hebben ook afspraken gemaakt over het idee dat je de no-wrong-door, dat je bij alle loketten

[1:52:03] terecht moet kunnen, nou ja, dat kun je pas alleen maar inrichten wanneer je ook zorgt dat mensen

[1:52:07] voldoende geïnformeerd zijn die achter zo'n loket zitten. En daar kan generatieve AI of AI echt een

[1:52:13] belangrijke rol spelen.

[1:52:15] Maar nogmaals, we moeten wel zorgen dat het dan ook goed is ingericht en goed getest voordat we dat doen

[1:52:20] en uiteraard voldoet aan onze eigen regels, zoals die in de AI-verordening ook staan.

[1:52:26] Dat was de heer Van Baarle.

[1:52:28] En dan de heer Van Liesen.

[1:52:30] Ik had nog een verhelderende vraag over wat hoog risico is in de AI-verordening.

[1:52:37] Als ik even kijk, dan worden er acht gebieden onderscheiden,

[1:52:41] waaronder bijvoorbeeld toegang tot essentiële particuliere diensten

[1:52:44] en openbare diensten en uitkeringen.

[1:52:47] Als we het dan bijvoorbeeld hebben over die essentiële particuliere diensten,

[1:52:51] is nou goed omschreven in die verordening,

[1:52:54] en is het ook helder voor ons in de implementatie,

[1:52:57] wat een essentiële particuliere dienst is en wat niet.

[1:53:01] Bijvoorbeeld bankrekening krijgen, een verzekering krijgen,

[1:53:03] is dat limitatief opgeschreven

[1:53:05] Of is het aan ons om dat te interpreteren wat die acht omschrijvingen van categorieën

[1:53:10] in de praktijk zijn?

[1:53:12] Het gaat in dit geval dus echt ook over banken en verzekeraars of hypotheekverstrekkers.

[1:53:18] Ik denk dat we daar voldoende informatie over hebben.

[1:53:21] Nogmaals, ik denk dat het goed is dat we daar nog een keer met elkaar in een technische briefing

[1:53:24] wat meer en dieper op ingaan, want dit soort dienstverlening hoort daar dus bij,

[1:53:30] energiebedrijven enzovoort.

[1:53:34] De heer Van Liesen.

[1:53:36] Ja, voorzitter, dank voor het woord.

[1:53:37] Ik had ook nog een vraag gesteld, met betrekking tot u.

[1:53:39] Trouwens, ik moet wel zeggen, ik vind het fijn om te horen dat de minister af,

[1:53:42] de staatssecretaris ook denkt in de kansen en de mogelijkheden van generatieve AI.

[1:53:47] Dus dat is altijd mooi om te horen.

[1:53:49] Maar ik had ook nog een vraag gesteld met betrekking tot het ICA-register.

[1:53:56] Wat is er in de AI-act opgenomen wat afwijkt ten opzichte van het ICA-register en andersom?

[1:54:01] Dus gaan wij met het ICA-register verder dan de AI-Act, of gaat de AI-Act verder dan het ICA-register?

[1:54:08] De staatssecretaris.

[1:54:10] Als het gaat over het algoritmeregister, ons algoritmeregister zoals we dat nu hebben,

[1:54:16] daarin moeten, hebben we afgesproken, overheden hun hoogrisico-algoritmes registreren.

[1:54:24] En dat is in principe hetzelfde als wat bedoeld is in die hoogrisico.

[1:54:28] We willen dezelfde definitie van algoritmisch risico gebruiken als in de AI-Act,

[1:54:32] zodat daar één op één hetzelfde in staat.

[1:54:36] Dus dat gaat over het register.

[1:54:38] En als het gaat over het implementatiekader,

[1:54:40] want het loopt misschien een beetje door elkaar,

[1:54:42] we hebben een register waarin staan en moeten komen te staan,

[1:54:48] want het is nog niet helemaal gevuld,

[1:54:51] alle algoritmes die door de overheid worden gebruikt.

[1:54:54] En dan gaat het over de rijksoverheid,

[1:54:55] maar ook over gemeenten en provincies en waterschappen enzovoorts.

[1:54:59] Dan is er de AI-verordening, de regelgeving waar moeten algoritmes aan voldoen,

[1:55:06] hoe we dat gaan toepassen bij de overheid,

[1:55:08] dat stoppen we in zo'n implementatiekader.

[1:55:11] Dat klinkt misschien een beetje complex, maar het is eigenlijk de normuitleg

[1:55:13] die we als overheid willen gebruiken bij het zorgen dat wij met z'n allen

[1:55:18] de overheid kunnen voldoen aan de regels van de AI-verordening.

[1:55:24] Een vervolgvraag van de heer Van Liesen.

[1:55:27] Dank voor de heldere toelichting.

[1:55:28] Dan heb ik ook nog een vraag met betrekking tot datzelfde implementatiekader.

[1:55:33] Want dat werd al eerder de vraag gesteld door lid Van Baarle met betrekking tot de verplichtingen

[1:55:37] die eruit voortvloeien, of het gewoon een vereiste is.

[1:55:41] Daar wordt wel gezegd van ja, inderdaad, dat klopt, het is een eis.

[1:55:48] Maar als ik dan vervolgens lees in het stuk de verzamelbrief met betrekking tot de

[1:55:58] De algoritmes reguleren, dan zie ik op pagina 4 staan dat het geen checklist is en dat het

[1:56:07] nemen van maatregelen in dit kader niet rechtstreeks tot het voldoen aan de verplichting en niet

[1:56:11] aan alle maatregelen in dit kader verplicht zijn.

[1:56:14] Dus dan is toch even de vraag van, oké, wordt nu alles wat in dat IKA staat, wordt dat nou

[1:56:20] verplicht of wordt het niet verplicht of komt er gewoon een registertje ook in dat IKA-stuk

[1:56:25] waar dan bij staat van deze onderdelen zijn verplichtingen,

[1:56:28] dan moet u er gewoon honderd procent aan voldoen.

[1:56:29] En dit zijn zeer dringende adviezen.

[1:56:36] Het is eigenlijk allebei.

[1:56:38] Dus het is...

[1:56:40] De overkoepelende wetgeving is de AI-verordening

[1:56:45] in samenhang met een aantal andere wetten die we met elkaar kennen.

[1:56:50] Als het gaat over het toepassen van algoritmes door de overheid,

[1:56:54] Dan is het van belang dat je uiteraard voldoet aan die AI-verordening.

[1:56:58] Daarin staat bijvoorbeeld dat je die mensenrechtentoets moet doen, dat je een DPA moet doen en allemaal

[1:57:02] dit soort elementen.

[1:57:04] Het kan zijn dat we in het implementatiekader ook nog wel aanvullingen doen in de zin van

[1:57:09] dit zijn handreikingen.

[1:57:10] Dit is iets wat je zou kunnen doen om het voor jezelf makkelijker te maken te voldoen aan de wet.

[1:57:16] Dat is iets anders dan dat je dat kan.

[1:57:19] Maar de kern is natuurlijk dat de kernelementen van het implementatiekader

[1:57:24] zijn die elementen die ook wettelijk verplicht zijn.

[1:57:27] En daarmee is het ook verplicht.

[1:57:30] U kunt door, hoor, nu.

[1:57:32] Ja, en ik denk dat het ook goed is, want volgens mij...

[1:57:35] Het is altijd een beetje lastig, want dan denkt u dat het misschien niet meer komt.

[1:57:38] Maar ik heb nog wat in mijn mapje zitten aan het beantwoorden van vragen.

[1:57:42] Dus misschien goed om die eerst door te lopen en dan te kijken of ik nog iets vergeten ben.

[1:57:48] Er was nog de vraag van mevrouw Katman over de toezichthouders.

[1:57:56] Waar ik dus ontzettend blij mee ben in dit verband en bij de implementatie van die AI-verordening, is dat

[1:58:02] we nu hebben afgesproken met de toezichthouders om samen te werken in dat samenwerkingsplatform

[1:58:08] voor digitale toezichthouders.

[1:58:11] Het was volgens mij de heer Krulhijzer nu even niet die zei dat dat een ontzettend warrige toestand wordt.

[1:58:16] Maar ik denk het juist niet, want algoritmes worden toegepast in heel veel sectoren, bij de overheid

[1:58:22] en in de private sector.

[1:58:24] Het is ongelooflijk belangrijk dat we op dezelfde manier kijken naar het uitvoeren van die algoritmewetgeving

[1:58:29] voor die verschillende sectoren.

[1:58:31] Maar natuurlijk is het ook ontzettend belangrijk dat we dat wel doen in een gecoördineerd stelsel.

[1:58:38] En dat gecoördineerde stelsel is dan ook dat samenwerkingsverband waar ik het net over had.

[1:58:59] Volgens mij ben ik dan door het mapje toezicht heen.

[1:59:04] Oh nee, we hebben er nog eentje.

[1:59:06] Dat is over wie verantwoordelijk is op de handhaving als het algribme kader bindend is.

[1:59:17] Daar hebben we dus de afspraak dat het stelsel van toezichthouders aan het werk gaat en dat de AP

[1:59:24] hier de rol speelt van de coördinerende toezichthouder.

[1:59:29] Dan ga ik naar de vragen over het algoritmeregister, voor zover die inmiddels ook al beantwoord zijn.

[1:59:38] Maar ik denk het niet, inderdaad.

[1:59:38] Er was een vraag van mevrouw Van der Werf over dat hoogrisico-algoritmes in het kader van

[1:59:44] opsporing niet in het register staan.

[1:59:47] Dat is niet zo.

[1:59:49] Dit soort algoritmes moeten ook worden opgenomen als onderdeel van het algoritmekader.

[1:59:55] Maar het is wel zo dat niet alle informatie van dit soort algoritmes kan worden aangegeven.

[2:00:02] Ik kom terug op een onderwerp dat ook heeft gespeeld in de afgelopen jaren.

[2:00:07] Als je bijvoorbeeld bij een bepaalde controle bij de Belastingdienst een drempelbedrag invoert,

[2:00:13] Dan zul je waarschijnlijk dat drempelbedrag niet willen openbaren, maar wil je wel helder maken dat

[2:00:19] er gesprake is van algoritmische besluitvorming.

[2:00:24] Nogmaals, met alle departementen is afgesproken dat zij hun hoogrisicosystemen in het kader opnemen.

[2:00:32] Maar het is dus wel van belang dat de algoritmes worden opgenomen.

[2:00:36] Het kan zijn dat je in het kader van bijvoorbeeld opsporing ervoor kiest om elementen daarvan

[2:00:44] niet allemaal op te nemen.

[2:00:48] Dit is een deels bevredigend antwoord.

[2:00:51] Ik stelde de vraag vooral om te vragen hoe je er dan voor zorgt dat dat stukje wel kan worden

[2:00:57] doorgelicht, als je iets niet opneemt.

[2:01:00] Ik kan me dus helemaal voorstellen dat je niet honderd procent transparant kan zijn,

[2:01:04] maar hoe zorg je er dan voor dat die toets ergens is?

[2:01:07] De toezichthouders op deze organisaties zullen natuurlijk dat altijd wel krijgen.

[2:01:12] Die hebben altijd toegang en kunnen inzicht krijgen in die algoritmes.

[2:01:23] Er was ook nog de vraag van de PVV over de verplichting van het algoritmeregister

[2:01:32] met de AI-verordening.

[2:01:34] Is er dus zo dat de AI-verordening geeft aan welke algoritmes verplicht moeten worden geregistreerd

[2:01:41] in een Europese database.

[2:01:46] Dat nationale register dat wij hebben, moet natuurlijk op z'n minst die algoritmes vervatten.

[2:01:54] Als wij nog meer in dat register willen zetten, kunnen we dat natuurlijk doen, maar op z'n minst

[2:02:00] moeten we die hoogrisico-algoritmes erin zetten die volgens de verordening ook instaan.

[2:02:08] Dan was er nog een vraag van de PVV.

[2:02:11] Waarom is het algoritmeregister nog niet helemaal vol?

[2:02:14] Ik denk dat dat een oproep naar mijn hart is, want heel graag nodigen iedereen uit om die algoritmes

[2:02:19] daadwerkelijk in het register op te nemen.

[2:02:23] Mijn collega's hebben ook aangegeven van de andere departementen dat ze dit gaan doen.

[2:02:28] Het is niet altijd heel erg makkelijk om dat snel te doen, maar ze zullen dat doen en hebben daarvoor

[2:02:35] de tijd nodig, hebben zij aangegeven, tot uiterlijk eind volgend jaar.

[2:02:47] Dan zijn er nog de vragen in het blokje over het advies van de landsadvocaat.

[2:02:54] Nogmaals, daar gaat mijn collega op in.

[2:02:57] De vraag is hoeveel departementen gebruik maken van automatische besluitvorming en op welke termijn

[2:03:04] de reactie kan worden gegeven op het verzoek van de heer Ittinga, die daarover een verzoek heeft gedaan.

[2:03:12] Waar ik naar aan het kijken ben als coördinerend bewindspersoon, is om te zien hoe we uitvoering

[2:03:18] kunnen geven aan dat verzoek, namelijk om inzicht te krijgen in alle automatische

[2:03:24] besluitvorming waarvan sprake is.

[2:03:27] Op dit moment heb ik dat inzicht nog niet, maar ik ben wel aan het kijken hoe we dat kunnen doen.

[2:03:33] Mijn voorstel is om voor de zomer een brief naar de Kamer te sturen om aan te geven hoe we hieraan kunnen voldoen.

[2:03:40] Daarbij kijken we natuurlijk ook wel nog naar het advies dat we in dit kader zullen krijgen

[2:03:45] vanuit de Autoriteit Persoonlijke Gegevens.

[2:03:53] Dan kom ik bij het blokje overig, die begint met de vraag die mevrouw Van der Werf heeft gesteld

[2:04:03] over hoe we kunnen zorgen dat mensen beter begrijpen hoe AI werkt en hoe we hen kunnen

[2:04:11] informeren over de gevaren die daarmee samenhangen.

[2:04:16] Eigenlijk zijn we daar een aantal dingen aan het doen tegelijkertijd, want dit heeft alles te maken

[2:04:20] met een belangrijk onderdeel van onze werkagenda, namelijk zorgen dat mensen digitaal mee kunnen doen.

[2:04:27] Dat betekent dat er bijvoorbeeld nu als vast onderdeel in het curriculum op scholen aandacht

[2:04:33] wordt besteed niet alleen maar aan digitale vaardigheden, maar ook aan mediawijsheid,

[2:04:38] Een onderwerp dat nu verder wordt uitgewerkt onder leiding van de minister voor Onderwijs.

[2:04:45] Waar ook naar wordt gekeken, is dat we aandacht besteden aan het onderwerp van hoe je beter

[2:04:51] inzicht kunt krijgen in bijvoorbeeld desinformatie en deepfakes.

[2:04:55] We hebben daar al websites voor met informatie daarover.

[2:04:59] Mediawijsheid.nl is dat echt zo.

[2:05:01] Er zijn daar twee belangrijke bronnen voor, maar niet in de laatste plaats.

[2:05:08] Het is natuurlijk ook zo dat er straks als onderdeel van de DSA deepfakes moeten worden gemarkeerd,

[2:05:14] voor zover ze überhaupt mogen worden gebruikt.

[2:05:16] Er zijn ook deepfakes die niet mogen worden ingezet.

[2:05:21] Daarmee hopen we ook veel meer inzicht te bieden in welke informatie je kunt herkennen als iets

[2:05:28] wat een deepfake is, gemaakt is, niet echt is en dat wat wel echt is.

[2:05:35] Wat ik wel denk is, is dat we hier, ondanks wat we daarop inzetten met educatie, dus beginnen op

[2:05:42] scholen, maar op allerlei manieren ook lesprogramma's in te zetten is, en we komen daar nog binnenkort

[2:05:47] over met een nieuwe brief over onze inzet op desinformatie, is dat het echt wel een onderwerp

[2:05:54] waar we in de komende jaren nog veel meer aandacht aan moeten besteden,

[2:05:57] want het zal, ondanks het feit dat iets gemarkeerd moet worden

[2:06:00] volgens de Digitale Dienstenverordening, de DSA,

[2:06:04] ofwel, omdat we meer gaan aangeven aan mensen

[2:06:07] hoe je deepfakes of andere dingen kunt herkennen,

[2:06:10] het zeker nog zal zijn dat we dit fenomeen tegenkomen

[2:06:14] en mensen daarvoor wapenen, is een belangrijke factor.

[2:06:18] Niet voor niks heeft bijvoorbeeld de oprichter van Bellingcat ook duidelijk gezegd

[2:06:22] Dat is een van de belangrijkste dingen, maar los daarvan moeten we ook techniek inzetten om te zorgen

[2:06:27] dat we dit fenomeen verder gaan bestrijden.

[2:06:35] Dan was er nog de vraag van DENK over de uitvoering van het ADR-onderzoek naar motie 21.

[2:06:46] Dat is het onderzoek dat de ADR uitvoert om te kijken of de departementen op een goede manier

[2:06:52] invulling hebben gegeven aan datgene wat er met de motie beoogd werd.

[2:06:57] De rapportages worden inderdaad verwacht in de zomer.

[2:07:01] Daar gaan we ook een zogenaamde rode-draden-analyse en een bestuurlijke reactie bij geven.

[2:07:07] Daarmee hopen we dus ook wat meer te laten zien over hoe dit assessment is gedaan.

[2:07:15] U vroeg ook nog of u dit structureel gaat doen.

[2:07:17] Dat willen we eigenlijk niet doen, want we willen vooral zorgen dat we met de regelgeving die er nu

[2:07:21] is voor de inzet van algoritmes, we op een goede manier kunnen zorgen dat er een alstructureel element

[2:07:27] is waarmee we daadwerkelijk de toetsen steeds kunnen doen.

[2:07:31] Want het toezicht op de invoering en uitvoering van de AI-Act is natuurlijk iets waarmee we hetzelfde

[2:07:39] beogen wat we met de motie op stuk nr 21 hebben gedaan.

[2:07:42] Dan was er nog de vraag of de handreiking non-discriminatie gedeeld is met de private

[2:07:51] Dat hebben we gedaan, want hij is namelijk openbaar beschikbaar.

[2:07:56] We zien ook dat veel van de aanbevelingen van toepassing zijn en ook wel gebruikt worden

[2:08:02] door private partijen.

[2:08:04] Dan was er nog de vraag over het protocol over geconstateerde discriminatie.

[2:08:10] Dat komt, zoals we hebben toegezegd, voor de zomer.

[2:08:13] Daarin ga ik in op hoe overheidsorganisaties moeten omgaan met discriminatie op het moment

[2:08:18] dat die geconstateerd wordt, bijvoorbeeld hoe je burgers moet informeren over als er een probleem is

[2:08:23] en ook hoe je op basis van de ontstaande problematiek een klacht kunt indienen.

[2:08:28] We gaan ook verder kijken hoe de AI-verordening hier ook invulling aangeeft, maar het protocol is in

[2:08:35] ieder geval een belangrijke stap en komt dus voor de zonen.

[2:08:39] Dan ben ik door de vragen heen, als dat goed is.

[2:08:42] Dan kijk ik even naar links, naar de zijde van de Kamer.

[2:08:44] Ik zie al een vinger van de heer Valise.

[2:08:45] Zijn alle vragen aan de staatssecretaris voor Koninkrijksrelatie en Digitalisering beantwoord?

[2:08:50] Ja. De heer Van Liesen.

[2:08:52] Voorzitter, dank voor het woord.

[2:08:53] Ik had ook nog een vraag gesteld, maar die betrekt de autoriteit, persoonsgegevens en de directie,

[2:08:59] coördinatie en algoritmes, die dus wat opgeschaald wordt.

[2:09:03] Is de capaciteit voldoende?

[2:09:08] Op dit moment zien we dat er voldoende capaciteit is in de verdere uitwerking en bij de implementatie

[2:09:16] van de verordening, dus ook bij het beter verdefiniëren van wie welke rol moet spelen,

[2:09:21] hoe dat er precies uit komt te zien, zullen we dat natuurlijk altijd in de gaten moeten houden.

[2:09:25] Het is natuurlijk belangrijk dat de toezicht van zo'n verordening ook goed kan worden ingericht.

[2:09:30] Maar op dit moment kan de AP met de huidige groep van mensen die ze hebben uit de voeten.

[2:09:37] Dat is de informatie die ik in ieder geval daarover heb.

[2:09:40] Mocht dat niet zo zijn, dan kom ik daar zeker in een later stadium graag op terug.

[2:09:48] Dan dank ik de staatssecretaris voor de beantwoording.

[2:09:51] En dan gaan we naar de staatssecretaris van Financiën, de heer Van Rijn.

[2:09:55] Ja, dank u wel, voorzitter.

[2:09:57] Ik zal specifiek ingaan op de vragen die gesteld zijn naar aanleiding van het advies van de landsadvocaat.

[2:10:04] Dat wilde ik kruisvolgd doen.

[2:10:06] Eerst even het proces, dan het advies van de landsadvocaat en dan vervolgstappen.

[2:10:14] Collega Aukje de Vries en de ondergetekenden zijn al langere tijd bezig met het maken van

[2:10:19] een wetsontwerp.

[2:10:20] Dat is het wetsvoorstel Wet waarborgen, gegevensverwerking, belastingdienst toeslagen en douanen.

[2:10:28] Ook wel afgekort als WGBTD, en dan moet ik altijd weer even nalezen zelf waar het voor staat.

[2:10:35] Dus vandaar dat ik hem vol uit heb gezet.

[2:10:37] Dat hebben we in verschillende voortgangsrapportages, hebben we de Kamer daarover ingelicht.

[2:10:43] Dat gaat over de AVG, de Algemene Verordening Gegevensbescherming, maar dat gaat ook over

[2:10:50] de baseline informatiebeveiliging overheid en over de archiefwet.

[2:10:55] In het kader van het voorbereiden van die wetgeving hebben wij natuurlijk geconstateerd, is natuurlijk

[2:11:03] ook ambtelijk geconstateerd, ook de uitspraak van het Hof van Justitie

[2:11:07] van 7 december jongsleden.

[2:11:10] En dat heeft er bij ons, dat is de zogenaamde Shufa-arrest,

[2:11:15] daar was natuurlijk al conclusie geweest in maart vorig jaar,

[2:11:19] maar dat heeft wel direct aanleiding gegeven bij ons om advies te vragen aan de landsadvocaat.

[2:11:26] Dat advies, dat hebben wij gekregen in eerste instantie,

[2:11:29] En zo heb ik dat ook beantwoord op de schriftelijke Kamervraag van NSC

[2:11:34] in een advies van 31 januari.

[2:11:36] En daar hebben wij gesprekken over gehad.

[2:11:40] Daar hebben we ook wat verduidelijkende en aanvullende vragen gesteld.

[2:11:45] En we hebben ook de ambtelijke commissie publieke dienstverleners

[2:11:50] of uitvoeringsorganisaties hier ook van op de hoogte gesteld.

[2:11:53] En we hebben het ook aan de orde gesteld in februari

[2:11:55] in de ministeriële commissie, uitvoeringsorganisaties, publieke dienstverlening,

[2:12:02] omdat wij ons natuurlijk beseften dat wij al wel met een wetgevingstraject bezig zijn,

[2:12:08] maar wij natuurlijk niet de collega-beleidsdepartementen daarmee wilden verrassen.

[2:12:13] Met name de ministeries van de SZW, OCMW en VWS hebben ook aangegeven in die vergaderingen,

[2:12:23] niet alleen in de inhoud van dat advies van de landsadvocaat geïnteresseerd te zijn,

[2:12:27] maar ook daar opvattingen over te hebben.

[2:12:30] Dat is allemaal terechtgekomen in aanvullende vragen

[2:12:33] en dat heeft geleid tot het advies van 12 maart.

[2:12:38] Dan het advies zelf.

[2:12:42] De landsadvocaat geeft in dat advies aan en bouwt dat zeer zorgvuldig op,

[2:12:48] dat het profileringsbegrip in de AVG ruim moet worden uitgelegd.

[2:12:56] Dat is wel een uitleg die een stuk ruimer is dan tot voor die tijd.

[2:13:02] Daar heeft de landsadvocaat ook argumenten voor.

[2:13:09] Een van de vragen was bijvoorbeeld over selectiecriteria.

[2:13:13] We hebben aan de landsadvocaat tien selectiecriteria voorgelegd,

[2:13:17] die de Belastingdienst altijd hanteert.

[2:13:20] Ik ben nog van het tijdperk van...

[2:13:22] Ik heb nog meegemaakt dat er geen automatisering was.

[2:13:25] Toen ik in 1983 begon, waren er ook selectiecriteria.

[2:13:30] Ik geloof dat de heer Van Baarle op een bepaald moment ook samenvatte.

[2:13:35] En nu zijn we natuurlijk met automatisering bezig.

[2:13:38] Ja, we ontkomen daar natuurlijk niet aan.

[2:13:41] Als we de automatisering moeten stopzetten

[2:13:43] met 10 miljoen aangiftes, inkomstenbelasting alleen al,

[2:13:47] die geautomatiseerd verwerkt worden op basis van voor ingevulde aangiftes,

[2:13:54] dan komen de belastingscentjes niet binnen.

[2:13:57] Maar het gaat natuurlijk om die selectiecriteria.

[2:13:59] En die selectiecriteria, daar heeft de landsadvocaat gezegd over profilering,

[2:14:04] dat van de tien er twee niet voldoen aan profilering en dat had te maken met leeftijd.

[2:14:11] Dat heeft gewoon te maken, bijvoorbeeld bij de jonggehandicaptenkorting,

[2:14:13] Dan moet je natuurlijk naar de leeftijd kijken of een bepaalde reserveringsruimte.

[2:14:19] Maar de overige wel.

[2:14:21] Dat is een behoorlijk ruime uitleg.

[2:14:26] De volgende vraag waar de landse advocaten bezit in gegaan, dat is de vraag.

[2:14:31] Je hebt in de eerste instantie natuurlijk de eerste fase.

[2:14:39] De aangiftes worden geautomatiseerd ingediend.

[2:14:43] en vervolgens worden er een aantal uitgeworpen.

[2:14:46] Dat is dan de terminologie.

[2:14:49] Ik geloof, voorzitter, dat de heer Krulte over een ping had,

[2:14:53] maar dat is de terminologie als het binnen het Belastingdienst is.

[2:14:57] En dat is dan op basis van die selectiecriteria.

[2:15:00] Dat wil niet per definitie zeggen, helemaal zelfs niet,

[2:15:03] dat er een gedachte is, oh, er is een fout gemaakt in de aangifte,

[2:15:10] Dit kan de eerste stap zijn voor een fraudeonderzoek.

[2:15:14] Heel veel mensen maken fouten.

[2:15:15] Bijvoorbeeld in een van die selectiecriteria staat...

[2:15:18] ...als iemand voor de eerste keer z'n aangifte inkomststabiliteit invult...

[2:15:21] ...omdat hij een eigen huis gekocht heeft en rente aftrekt...

[2:15:25] ...nou, dan neert de ervaring, omdat dat de eerste keer is...

[2:15:28] ...dat heel veel mensen daar fouten maken.

[2:15:30] En dan is het niet zo dat dat meteen...

[2:15:32] Dan krijg je een vragenbrief.

[2:15:34] Nou, dat gebeurde ook in de tijd van toen er nog geen automatisering was.

[2:15:38] En heel vaak is dat juist in het belang van de belastingklicht.

[2:15:44] Want ja, als je niet goed ingevulde aangifte hebt, dan hoor je liever van de Belastingdienst waar het dan niet goed zit,

[2:15:51] in plaats van dat je een hele hoge aanslag krijgt, of een navorderingstraject, of nog erger.

[2:15:57] Zo is er ook een voorbeeld van een oudere dame, die had bij het invullen van haar aangiftebiljet

[2:16:05] het knopje voor de buitengewone lastenafstrek zorgkosten te lang ingedrukt.

[2:16:11] Dus in plaats van 4.000 kwam er 4 miljoen uit.

[2:16:15] Nou, die was ontzettend blij dat ze een telefoontje kreeg van de Belastingdienst.

[2:16:19] Klopt dit wel?

[2:16:21] Natuurlijk zijn er ook situaties waar er niet foutjes worden gemaakt door belastingplichtigen,

[2:16:27] maar waar er bewust wel fouten worden gemaakt en wat wel degelijk aanleiding kan geven tot vervolgonderzoek.

[2:16:34] Niet alleen een vragenbrief, maar ook een vervolgonderzoek.

[2:16:38] Nou, en nu heeft de landsadvocaat eigenlijk gezegd...

[2:16:42] ...want dan gaat het in de zin van artikel 22 AVG om de vraag...

[2:16:48] ...wanneer ze nou spraken van een besluit met rechtsgevolgen.

[2:16:53] Als het om die automatisering gaat...

[2:16:55] ...die twee stappen die ik net beschreef, worden eigenlijk als één gezien.

[2:16:58] En als er ook nog eens een keer sprake kan zijn...

[2:17:02] van het anderszins in aanmerkelijke mate treffen,

[2:17:08] dan doet zich dus de vraag voor of de werkwijze die wij thans hanteren,

[2:17:16] want dat is een open norm,

[2:17:19] of die in strijd zou zijn met de huidige AVG,

[2:17:24] artikel 22 en artikel 40 uitvoeringswet AVG.

[2:17:29] Nou, baseert de landsadvocaat zich ook,

[2:17:31] want het is echt ook een beetje onontgonnen terrein.

[2:17:35] Want je ziet ook, de jurisprudentie ontwikkelt zich.

[2:17:37] Die jurisprudentie ontwikkelt zich vaak, heel vaak, in private situaties.

[2:17:42] Dus dat aspect dat je ook nog een publieke dienstverlener bent

[2:17:46] die ook nog een andere taak heeft dan alleen op mogelijke fraudesituaties,

[2:17:55] zoals bijvoorbeeld in dat chifrarest daarnaar te kijken.

[2:18:03] Nou, daar is nog onduidelijke jurisprudentie over.

[2:18:10] Dus we nemen het advies van de landsadvocaat natuurlijk ongelooflijk serieus,

[2:18:15] maar zij baseren zich ook op artikel, met name de artikel, dat is op basis van artikel 29 van de AVG,

[2:18:28] is er een Europees comité voor gegevensbescherming en die brengt richtsnoeren uit die gebruikt worden

[2:18:38] door de rechter bij de interpretatie van deze wetgeving.

[2:18:45] Richtsnoeren.

[2:18:47] En de landadvocaat kan natuurlijk ook niet anders doen.

[2:18:50] Dus die zijn wetgeving, juist prudentie.

[2:18:53] Deel van die wetgeving is ook die richtsnoeren.

[2:18:58] Nou, wij hebben gemeend, omdat de consequenties van dit advies

[2:19:03] kunnen vergaand zijn en daar werd ook naar gevraagd.

[2:19:07] Dus wij dachten, we gaan niet over één nachte ijs.

[2:19:11] Dan vragen we aan de autoriteit persoonsgegevens zelf...

[2:19:17] ...om hier het licht over te laten schijnen.

[2:19:21] Want uiteindelijk is dat de autoriteit en is dat degene...

[2:19:25] ...die ook de deskundigheid onafhankelijk en objectief heeft...

[2:19:31] ...als het gaat om de interpretatie van deze wetgeving.

[2:19:36] Nou, die vraag hebben we bij de autoriteit persoonsgegevens neergelegd

[2:19:44] en wij verwachten eind mei antwoord daarop.

[2:19:52] Dan hadden wij ook in het antwoord op de schriftelijke vraag van NSC gezegd

[2:19:58] dat het ook onze bedoeling was om twee onafhankelijke wetenschappers daarop te raad,

[2:20:04] om hun advies te vragen.

[2:20:07] Ja, die zijn niet eerder beschikbaar dan augustus en september

[2:20:10] Dat vinden wij te laat, dus het idee dat wij nu hebben, in een nauwe samenspraak met de

[2:20:18] staatssecretaris van BZK — zij heeft er zojuist zelf ook al wat over gezegd, voorzitter — is dat

[2:20:25] nadat we het advies van de AP hebben, dan zullen wij in ieder geval ook als minister van Financiën en

[2:20:34] met name aan collega De Vries en ik, de vervolgstap,

[2:20:39] en dat is dan toch wetgeving voorbereiden,

[2:20:42] die niet alleen op de AVG-betrekking heeft, zoals ik al eerder heb gezegd,

[2:20:48] maar het wet waarborgen, geefs, bescherming,

[2:20:51] belastingdienst, toeslagen en douane, om dat dan toch rapido in gang te zetten.

[2:20:56] En dan komen we bij uw Kamer uiteraard terug.

[2:20:58] Het is wel cruciaal dat er goede wettelijke grondslag komt.

[2:21:05] Dat loopt parallel aan wat de andere departementen wel of niet zullen doen.

[2:21:12] Het is bij ons niet alleen de AVG, het gaat ook om die andere onderwerpen.

[2:21:19] Voorzitter, volgens mij heb ik nu behoorlijk wat vragen.

[2:21:28] Er was nog één vraag en dat was de vraag van de heer Kröhl.

[2:21:38] Kijk, in extreem is, zou de consequentie van het advies kunnen zijn,

[2:21:46] tenzij je dus met nieuwe wetgeving komt, dat je ten aanzien van de handhaving,

[2:21:52] dat je geen gerichte controle meer kan doen.

[2:21:55] Maar dan moet je het dus op aselecte steekproeven doen.

[2:22:00] En dan kan je bijvoorbeeld dus niet meer zeggen wat ik net gaf, een paar voorbeelden.

[2:22:05] De aftrekbaarheid van hypotheekrente in de situatie dat je voor het eerst een keer naar huis koopt.

[2:22:09] Of zorgkosten.

[2:22:12] Of bijvoorbeeld de directeur, grote aandeelhouder, box 2.

[2:22:21] Ik heb ook gezegd dat het eventueel betekent voor andere departementen dat ze goed overlegd zijn.

[2:22:32] De vraag van de heer Krul is welke gevolgen deze uitspraak heeft voor het witwastoezicht, waarin

[2:22:38] banken op basis van geautomatiseerde signalen onderzoek doen.

[2:22:42] Daar moet ik even tekstvast zijn, want dat zit in de portefeuille van de minister van Financiën.

[2:22:48] Dus daar ben ik niet dagelijks mee bezig.

[2:22:51] Poortwachters in de zin van de wet ter voorkoming van witwassen en financieren van terrorisme,

[2:22:56] de WWFT, dienen altijd cliëntonderzoek te doen en aan transactiemonitoring.

[2:23:02] Ik herken de breedscala van poortwachters, van banken tot advocaten.

[2:23:06] Een deel van dat proces is geautomatiseerd.

[2:23:08] Dit is efficiënter voor banken en klanten.

[2:23:10] De Nederlandse bank houdt WWFT-toezicht op banken.

[2:23:14] Dat is bekend.

[2:23:17] Deze wet verplicht alle poortwachters risicogebaseerd onderzoek te doen en voor elke cliënt een

[2:23:23] zelfstandige afweking te maken.

[2:23:25] De minister van Financiën heeft aangegeven in gesprek te zullen gaan met de DNB over de

[2:23:29] processen van banken.

[2:23:31] Daar waar de Belastingdienst taken uitvoert in het kader van het toezicht op de WWFT, wordt

[2:23:36] geïnventariseerd in hoeverre daarvoor gebruik wordt gemaakt van geautomatiseerde selectietechnieken.

[2:23:44] Hierover wordt u nog nader geïnformeerd, schriftelijk, ook omdat er een commissieverzoek

[2:23:52] ligt van uw lid Itzinga om hierover een overzicht op te leveren.

[2:23:59] Voorzitter, nog één laatste opmerking.

[2:24:05] Als er echt sprake is van fraude of aanwijzingen tot, dan hebben we natuurlijk altijd nog de

[2:24:12] wet politiegegevens en op basis van die wet die veel ruimere bevoegdheden geeft aan de field kan

[2:24:19] er natuurlijk altijd onderzoek ingesteld worden omdat, dacht ik, ook daar een vraag over gesteld

[2:24:27] werd. Dan kijk ik naar de heer Krul als eerste van het CDA. Ja voorzitter, dank aan de staatssecretaris

[2:24:37] voor deze heldere en uitgebreide uitleg en ik begrijp dat de situatie die geschetst wordt een

[2:24:42] een in extremis situatie is, dat we alleen aanselekte steekproeven zouden doen.

[2:24:47] Dat zou natuurlijk ook groot grote gevolgen kunnen hebben voor de belastingplichtige

[2:24:51] die wel een fout heeft gemaakt en dat niet bewust heeft gedaan.

[2:24:56] En in die zin zijn we er niet geruster op.

[2:25:00] Ik zou willen vragen of de staatssecretaris ook overwogen heeft om naast die autoriteit

[2:25:04] persoonsgegevens, die natuurlijk daar daar de autoriteit op is,

[2:25:08] misschien niet ook al verstandig zou zijn om bijvoorbeeld de Raad van State om advies

[2:25:11] te vragen, juist in dat wetsvoorstel dat dus in het ontwerp gaat om daar toch wel te kijken of we

[2:25:17] misschien, want die AP die benadert één kant van het verhaal, maar dat we misschien in bredere zin

[2:25:22] daar toch ook al wat meer advies over kunnen krijgen, omdat de gevolgen hetzij in extremis

[2:25:27] wel erg impactvol kunnen zijn.

[2:25:30] De staatssecretaris.

[2:25:31] Ja, voorzitter, dank voor deze vraag.

[2:25:33] Dat hebben we wel overwogen en dan, voorzitter, dan zal de heer Krul waarschijnlijk bedoelen

[2:25:40] een voorlichting aan de Raad van State vragen.

[2:25:43] Daar hebben we toch van afgezien, omdat wij eigenlijk toch op dit moment vanwege de korte termijn

[2:25:52] waarin wij ook antwoorden willen hebben, de autoriteiten en persoonsgegevens uit de meest

[2:25:58] aangewezenen hier vinden.

[2:26:02] Wij dienen het wetsontwerp ook niet in, voordat wij dat advies van die autoriteiten en persoonsgegevens

[2:26:10] want anders kan de autoriteit persoonsgegevens natuurlijk geen advies geven.

[2:26:16] En bij de Raad van State zit je eigenlijk in een beetje een vergelijkbare situatie,

[2:26:19] want als wij met dat wetsontwerp komen dan komt de Raad van State ook nog aan bod.

[2:26:24] Gewoon in het normale reguliere traject dat de Raad van State advies geeft over dat wetsontwerp.

[2:26:31] Dus die combinatie van argumenten heeft er bij ons toe geleid om te zeggen

[2:26:35] we vragen het nu aan de autoriteit persoonsgegevens

[2:26:37] Dus ja, we komen uiteraard direct bij uw Kamer terug als we dat ontvangen hebben.

[2:26:46] Dan kijk ik even verder naar de zijde van de Kamer of alle vragen zijn beantwoord.

[2:26:52] En dat is zo. En ik denk dat we dan kunnen starten met de tweede termijn.

[2:26:56] En dan is het woord aan de heer Sikkes-Dijkstra van NEC.

[2:26:59] Dank u wel, voorzitter. En ook dank aan beide staatssecretarissen voor de beantwoording.

[2:27:05] Ik had nog een aantal punten.

[2:27:09] Allereerst zie ik natuurlijk erg uit naar het advies van de autoriteit persoonsgegevens

[2:27:13] die we dan eind mei verwachten, omdat dit, wat ook eerder een debat aan de orde is gekomen,

[2:27:18] een behoorlijk grote impact kan hebben.

[2:27:21] Het is natuurlijk goed dat het ministerie van Financiën reeds bezig is met nieuwe wetgeving

[2:27:26] als het gaat om toeslagen, maar als ik ook even kijk naar de andere staatssecretaris,

[2:27:30] als dit zoveel departementen treft, zal er misschien een hele hoop extra wetgeving moeten

[2:27:34] komen in potentie.

[2:27:36] Dat is iets wat we natuurlijk moeten ondervinden en dan mogelijk in een volgend debat aan de orde moet komen.

[2:27:41] En daarom ook nogmaals mijn vraag aan de staatssecretaris van BZK om te reflecteren

[2:27:47] of een eventuele voorhangprocedure voor algoritmes niet een uitweg zou zijn om dit soort wetgeving te versterken.

[2:27:54] Waarbij ik me wel besef dat ik vooruit loop op een eventueel advies in de toekomst van de AP.

[2:28:00] En dan nog één laatste vraag, ook wederom mede namens de ChristenUnie.

[2:28:07] Kunnen wij het toekomen van het CODEO-kader eind december als concrete toezegging noteren?

[2:28:18] En de status daarvan.

[2:28:20] Dat was van mijn kant. Dank u wel.

[2:28:22] Dan is het woord aan mevrouw Van der Werf.

[2:28:24] Dank u wel, voorzitter.

[2:28:26] en ook dank aan beide bewindspersonen voor hun beantwoording en hun ondersteuning daarbij.

[2:28:32] Ik wil graag nog op één punt terugkomen.

[2:28:35] Er is natuurlijk een hoop kommer en kwel voorbijgekomen over wat het schip en het schipwrak ons gaan brengen,

[2:28:43] maar ik was bij een inbreng geëindigd met hoe kunnen we er nou voor zorgen dat AI onze overheden ook kan ondersteunen,

[2:28:50] en dan met name op het gebied van de dienstverlening richting burgers.

[2:28:55] Nu lopen we traditioneel gezien wat achter als het gaat om ICT bij de overheid, maar

[2:29:00] je zou op dit punt zeker kunnen zeggen dat we daar de vruchten van kunnen plukken.

[2:29:05] Ik overweeg ook een motie op dit punt, dus als u mij toestaat, zou ik graag een twee-minuten-debat

[2:29:12] aanvragen.

[2:29:13] Ik heb nog één losse vraag, zal ik het maar even noemen.

[2:29:17] De staatssecretaris voor Digitale Zaken gaf aan dat ook bij die complexe algoritme toezichthouders

[2:29:24] wel honderd procent inzicht krijgen op het moment dat ze niet worden opgenomen in een register.

[2:29:29] En ik wou even ter check vragen, ik ga er dan vanuit dat u bedoelt vooraf en niet pas op het moment

[2:29:35] dat het is misgegaan. Dank. Dan de heer Van Liesen van de PVV. Ja voorzitter, dank voor het woord.

[2:29:43] Dank voor de beantwoordingen van de staatssecretaris en ondersteuning. Dank ook voor de collega's voor

[2:29:49] het goede debat. Voor tweede termijn, ja ervaringen uit het veld, daar kijken we naar uit om daar dan

[2:29:54] De brief komt aan het eind van het jaar, wat ik begrijp uit de beantwoording.

[2:29:58] En dan met betrekking tot het vullen van het register voor de algoritmes...

[2:30:04] ...zou ik nog de vraag willen stellen aan de staatssecretaris...

[2:30:07] ...of er mogelijkheid is om een iets hogere urgentie...

[2:30:10] ...of ja, er iets meer op aan te dringen bij de departementen...

[2:30:13] ...om dat toch zo vroeg mogelijk te doen.

[2:30:16] Dus niet tot eind 2025 moeten wachten voordat het register een keer gevuld is.

[2:30:21] En dan had ik nog één klein dingetje, dat kwam toevallig voorbij...

[2:30:24] Dus dat keurmerk.

[2:30:25] We hebben toevallig vorige week het debat online veiligheid en cybersecurity gehad.

[2:30:29] Daar heb ik het onderwerp ook al aangehaald bij de minister EZK.

[2:30:33] En dat betreft namelijk het CE-logo.

[2:30:36] Er zijn twee verschillende CE-logo's.

[2:30:38] Je hebt er eentje voor China Export...

[2:30:41] ...en je hebt er eentje voor het Europese keurmerk.

[2:30:46] En het verschil is minimaal, omdat dan toch ook...

[2:30:49] ...in samenspraak met uw collega's in Europa...

[2:30:52] om er toch even op aan te dringen tot er iets gedaan moet worden

[2:30:54] om dat logo toch meer te laten differentiëren van het China Export logo.

[2:30:58] Want dat kan tot heel veel verwarring leiden.

[2:31:02] En dan ben ik aan het einde van de tweede termijn. Dank u.

[2:31:06] Dan het CDA, de heer Kroeh.

[2:31:09] Ja, voorzitter, heel kort nogmaals dank aan de bewindse personen voor hun duidelijke uitleg.

[2:31:15] We zijn er niet per se gerust op geworden.

[2:31:20] De autoriteitspersoonsgegevens, ik denk dat dat heel nuttig inzicht kan bieden.

[2:31:23] Tegelijkertijd denk ik ook gelijk aan aspecten als belang van toezicht, belastingmoraal, de

[2:31:30] uitvoerbaarheid, aspecten waarvan je niet per se kan verlangen dat een AP dat goed kan

[2:31:35] overzien, omdat dat simpelweg niet de expertise is.

[2:31:39] Ik zou ook willen vragen, en dan maar gewoon in het blauw hinein richting de GV, om zo'n

[2:31:45] Twee-minuten-debat dus is aangevraagd om daar dan ook echt wel even mee te wachten tot dat

[2:31:49] eind mei dat dat advies er ook is.

[2:31:52] Ik denk dat de Kamer dat wel moet

[2:31:55] tot zich moet kunnen nemen voordat we hier weer verder over praten.

[2:31:58] Voor zover, voorzitter.

[2:32:00] Dank u wel. Dan moet ik alleen wel als

[2:32:01] bijsluiter meegeven dat de aanvraag van het Tweede-minuten-debat is D66.

[2:32:06] En volgens mij gaan zij ook over het inplannen van het Twee-minuten-debat.

[2:32:12] Toch? In ieder geval over wanneer...

[2:32:19] Nou, je...

[2:32:20] Ja. Nou ja, niet nieuw, maar het is niet zo per se dat...

[2:32:26] Ja.

[2:32:28] Er is een suggestie gedaan.

[2:32:30] Die hoeft niet per se gehonoreerd te worden, zeg maar.

[2:32:32] Dus het is goed dat we dat nog even ergens anders parkeren.

[2:32:35] Dat als u dat echt wilt, dat we daar dan nog even verder in overleg over gaan.

[2:32:41] Meneer Van Baarle.

[2:32:43] Ik dank de staatssecretaris voor de beantwoording, beide staatssecretarissen, maar mijn vragen

[2:32:49] waren vooral aan staatssecretaris Van Huffelen gericht.

[2:32:52] Er is een aantal dingen die zijn helder geworden, maar een hoop blijft voor mij toch nog onduidelijk.

[2:32:58] Dat zal aan mij en de staatssecretaris liggen, want ik ben ook zelf kritisch.

[2:33:03] Dus we hebben met elkaar een algemeen normenkader en hoogrisico algoritme kunnen alleen toegepast

[2:33:09] worden met een keurmerk, maar we weten niet wie dat keurmerk gaat geven.

[2:33:12] We stellen iets op wat niet bindend is, want alleen die AI-verordening is

[2:33:17] verbindend waar de zaak aan zouden moeten voldoen.

[2:33:19] Dus wij hebben toch wat zorgen in de richting waar het naartoe gaat.

[2:33:24] Dus wij zijn blij dat mevrouw van der Werff een twee minuten debat heeft aangevraagd.

[2:33:31] De heer Meulekamp heeft geen behoefte aan de tweede termijn.

[2:33:35] Dan vraag ik even aan de heer Siks-Dijkstra of hij de voorzitter samen kan

[2:33:40] overnemen, zodat hij mij het woord kan geven.

[2:33:42] Zeker. Het woord is aan mevrouw Katman van de fractie van GroenLinks-PvdA.

[2:33:48] Ja, dank u wel, voorzitter.

[2:33:50] Nog even drie dingen, wat ik nog in ieder geval mee zou willen geven en eigenlijk

[2:33:54] ook wel hoop op een antwoord van de staatssecretaris, maar ik denk dat

[2:33:58] dat niet meer vandaan kan. Vandaag kan is dat er een

[2:34:03] advies, zo mag ik het niet noemen, maar er is een scenariostudie gedaan

[2:34:06] door de Toekomstkamer. Zij zijn onderdeel van de Stichting Toekomstbeeld der Techniek.

[2:34:11] Het is eigenlijk een scenariostudie over het algoritmeregister.

[2:34:15] Wat het heel interessant maakt, is dat zij kijken naar het instrument van het algoritmeregister in het

[2:34:20] kader van de verdere inrichting van het digitale toezicht, wat dat instrument nog doet en wat we

[2:34:26] eigenlijk misschien wel voor andere instrumenten ook wel kunnen gebruiken.

[2:34:29] Wat mooi is, wat zij in hun schrijf ook zeggen, is dat als we het hebben over het doel van het

[2:34:35] algoritmeregister, er eigenlijk meer vertrouwen in de overheid is, want we zijn transparant.

[2:34:40] Maar als we dan die cijfers er nog eventjes bij pakken, dan zie je dat eigenlijk maar negen procent van de Nederlanders weet dat er een algoritme bestaat.

[2:34:51] Nou ja, dat drie op de vier Nederlanders dan misschien wel vindt dat als je daar vraagt, vind je dat dan belangrijk?

[2:34:55] Ja, ik vind het eigenlijk wel belangrijk.

[2:34:57] Maar dat eigenlijk maar twaalf procent van de Nederlanders eigenlijk denkt dat een register kan bijdragen aan het vertrouwen in algoritmes.

[2:35:04] Dus dat maakt eigenlijk dit stuk van een denktank, die bestaat uit allerlei experts uit allerlei

[2:35:10] gelederen, dus van commerciële partijen tot ook zelfs overheids-experts en kennisinstellingen,

[2:35:15] wel heel interessant.

[2:35:17] Dus ik hoop dat de staatssecretaris daarop zou willen reageren.

[2:35:21] Dan nog een vraag over die digitalisering op de werkvloer.

[2:35:24] Ik dank in ieder geval voor de beantwoording door de staatssecretaris, maar het is me iets

[2:35:28] te kort door de bocht.

[2:35:29] Het gaat me echt om momenten die je nu bijvoorbeeld ziet.

[2:35:31] Ik las laatst een artikel, volgens mij was het in de Volkskrant, over een dame die bij een bedrijf

[2:35:35] werkt waar ze ongeveer door een fitbit wordt aangestuurd en van hort naar her moet rennen omdat

[2:35:40] haar werkgever bepaalt hoe hard ze moet lopen om haar werk goed te kunnen doen.

[2:35:47] Ik moest eigenlijk denken aan de stakingen van veertig jaar geleden, toen alle lopende banden

[2:35:52] gewoon zo hard stonden dat mensen het niet meer konden bijbenen.

[2:35:55] Uiteindelijk zijn lopende banden, is het gewoon een soort van wettelijk vastgelegd hoe het zat met de

[2:35:59] En wat technologisch dan misschien wel kon, maar menselijk gewoon niet gezond was.

[2:36:06] Uiteindelijk is dat dus wel vastgelegd, maar zijn die lopende banden ook steeds

[2:36:10] weer een stukje harder gezet.

[2:36:13] De staatssecretaris zei dat deze mensen straks met de AI-verhoordening hun recht kunnen halen.

[2:36:18] Maar hoe gaat dat dan?

[2:36:19] Zo iemand op de werkvloer zijn vaak mensen al in kwetsbare posities.

[2:36:23] Gaat het nou echt uit dit Europese beleid voortkomen dat die mensen precies weten waar

[2:36:28] waar kunnen ze dan zijn, welke rechten hebben ze en hoe voelen ze zich ook comfortabel genoeg

[2:36:32] om hun rechten te gaan halen.

[2:36:34] Dat is eigenlijk mijn vraag, van wat gaat Nederland nou doen om dat voor iedere werknemer

[2:36:42] in Nederland te kunnen borgen?

[2:36:45] En dan de vraag over wat er eigenlijk op een brief komt na de PING, want ik begrijp de

[2:36:49] beantwoording van de staatssecretaris heel goed.

[2:36:52] Als je dan wel of geen toeslag hebt gekregen, dan kunnen wij in een brief uitleggen waarom

[2:36:58] Maar het is natuurlijk veel relevanter als je in het kader van bijvoorbeeld fraudeopsporing

[2:37:04] eruit bent gepikt en je krijgt van de Belastingdienst die brief met, ik heb het zelf een keer gehad

[2:37:11] met een schatting, u moet dit terugbetalen, het kwam uit allemaal posten, uiteindelijk

[2:37:14] ga je dan naar één kantoor, die producten praten niet met elkaar en eigenlijk was bij

[2:37:18] een grote vraag, bij heel veel balies was, maar waarom, weet je, van welk proces bent

[2:37:23] u eigenlijk onderdeel? En als dan op een brief zou staan in het kader van fraudeonderzoek bent u

[2:37:28] eruit gelegd, dit is het algoritme, u kunt dat terugvinden in dit register en heeft u daar nog

[2:37:34] vragen over, dan kunt u contact opnemen met persoon X. Dat is natuurlijk eigenlijk de informatie die

[2:37:40] op de brief dan zou moeten staan. Is dat ook de informatie die er op de brief komt te staan,

[2:37:45] zou ik dan graag willen weten. Dank u wel. Dan geef ik de voorzittershammer weer over aan mevrouw

[2:37:54] Dank u wel, voorzitter.

[2:37:56] Dan kijk ik even naar rechts.

[2:38:00] Twee minuten en dan kunnen we over tot beantwoording.

[2:44:25] We gaan verder met de beantwoording van de tweede termijn.

[2:44:28] Het woord is aan de staatssecretaris.

[2:44:31] Dank u wel, voorzitter.

[2:44:33] Ik zal de vragen die gesteld zijn nog beantwoorden.

[2:44:37] Het begon met de heer Siks-Dijkstra, die aangaf of wij het een goed idee vinden als algoritmes

[2:44:42] altijd worden voorgehangen bij de Tweede Kamer voordat ze worden ingesteld.

[2:44:47] Wat mij betreft is dat niet een wenselijke soort van route.

[2:44:50] Wat we willen, is dat algoritmes alleen worden ingezet wanneer ze voldoen aan de criteria die

[2:44:56] daarvoor gesteld zijn in de AI-verordening.

[2:45:01] Dat betekent dus dat ze aan allerlei criteria moeten voldoen op het griep van non-discriminatie

[2:45:05] en dat ze goed van tevoren getoet zijn voordat ze worden ingezet door de overheid, hebben we het

[2:45:10] dan in dit geval over.

[2:45:11] Er zullen ook toezichthouders zijn die daar op toezicht kunnen houden.

[2:45:16] Ze worden opgenomen in een register.

[2:45:19] Het lijkt me dan ook dubbel wanneer je die ook nog een keer vooraf bij de Tweede Kamer gaat voorhangen.

[2:45:27] Dan was er ook nog de vraag of de toezegging over het waardekader als toezegging kon worden genoteerd.

[2:45:36] Dat kan, want ons idee is dat dat voor het eind van het jaar aan uw Kamer wordt toegestuurd.

[2:45:44] Mevrouw Van der Werf gaf eigenlijk een paar dingen aan.

[2:45:47] Nummer één. We kunnen ook de vruchten plukken van de inzet van AI.

[2:45:52] Dat is ook zo.

[2:45:53] Dat kunnen we op verschillende manieren, in de private en in de publieke sector.

[2:45:56] Dat zijn we ook van plan te gaan doen.

[2:45:59] Dat doen we onder andere via onze visie op het gebruik van generatieve AI.

[2:46:07] Verder vroeg u of inzage van de toezichthouders bij complexe algoritmes ook altijd kan en of

[2:46:14] dat ook vooraf kan.

[2:46:15] Dat kan, want toezichthouders mogen altijd inzage vragen in het gebruik van algoritmes,

[2:46:22] bij de ontwikkeling daarvan, maar ook bij de toepassing of verderop in de tijd.

[2:46:28] Dat is aan de toezichthouders zelf om dat moment te kiezen.

[2:46:33] Dan was door de oproep van de heer Valise aan al mijn collega-departementen om zo snel mogelijk

[2:46:43] — en overigens ook andere overheden — te komen tot het invullen van het algoritmeregister.

[2:46:48] Ik ondersteun die oproep zeer en zal dat ook doorgeven aan mijn collega's.

[2:46:55] Verder begrijp ik dat u al de toezegging heeft gekregen van de minister van EZK over dat CE-logo,

[2:47:00] om te zorgen dat het helder wordt wat het één en wat het ander is, zodat het niet tot verwarring kan

[2:47:06] leiden bij burgers.

[2:47:07] Zij gaat daarmee aan de slag in Brussel.

[2:47:12] Dan was er toch nog wel iets wat me van het hart moet aan de opmerking door de heer Van Baarle zijn

[2:47:18] gemaakt. Het eerste is, denk ik, dat het helder moet zijn dat de AI-verordening ons enorm gaat helpen

[2:47:28] in het inzicht op AI en het reguleren van AI.

[2:47:30] Dat is een thema waar de heer Van Baarle en ik elkaar voortdurend de hand kunnen schudden

[2:47:37] over wanneer het überhaupt mag en wanneer het kan.

[2:47:41] Hoe doe je het op een verantwoorde manier?

[2:47:42] Hoe zorg je dat het transparant is?

[2:47:44] Hoe zorg je dat er goed toezicht op is?

[2:47:46] Hoe zorg je ook dat het voor burgers helder is waar ze terecht kunnen wanneer ze het idee

[2:47:49] hebben dat ze op een niet goede manier worden behandeld?

[2:47:52] De AI-verordening is mede door de inzet die we er als Nederland voor hebben gepleegd echt

[2:47:58] een verordening geworden waarvan we zien dat hij ons gaat helpen op dit gebied.

[2:48:03] Hij is wel complex, en dat is ook zo.

[2:48:05] Dat was ook wat u aangaf.

[2:48:07] Ik denk niet dat het complex is door u of door mij, maar dat is omdat dit een ingewikkeld onderwerp is.

[2:48:12] Ik zou u dan echt aanraden om die technische briefing te doen, omdat die veel meer inzicht

[2:48:20] gaat bieden in wat er allemaal precies in de verordening staat, hoe het gaat werken en iets anders.

[2:48:26] Maar in uw woorden proefde ik een soort suggestie van dat dit allemaal nog niet voldoende is.

[2:48:31] Ik denk dat we met deze verordening een heel breed terrein afdekken en dat we ervoor zorgen

[2:48:36] dat we daarmee kunnen zorgen dat we ook op een verantwoorde manier kunnen werken.

[2:48:41] Dat we dat dan ook moeten vertalen naar wat dat betekent direct voor de Nederlandse overheid,

[2:48:45] dat we het goed moeten inrichten en dat we ook moeten zorgen dat onze toezichthouders goed

[2:48:50] geëquipeerd zijn om hun werk te doen, is helder.

[2:48:52] Maar het is niet zo dat we op basis van die verordening of van wat we aan het doen zijn

[2:48:57] bij de Nederlandse overheid, het register, ons implementatiekader, onduidelijkheid aan

[2:49:03] het creëren zijn of dat dat vage normen zijn of dat het niet helder is.

[2:49:07] Juist met deze verordening en alles wat wij doen, wordt er heel veel scherpte gecreëerd op basis

[2:49:13] waarvan we op een verantwoorde manier kunnen werken met algoritmes en wordt ook duidelijk

[2:49:18] wanneer het niet kan.

[2:49:21] Nogmaals, het is goed om u daar verder op te laten voorlichten, want u kunt mijn woorden

[2:49:25] misschien geloven of niet, ik hoop het natuurlijk wel, maar het is belangrijk om met elkaar

[2:49:29] ook vast te stellen dat dit ook voldoet aan de vereisten die we willen.

[2:49:34] Dus nogmaals, we hebben hiermee een heel mooi kader gemaakt om op een verantwoorde manier

[2:49:41] te gaan werken, maar het is ook goed wanneer we dat ook met elkaar delen.

[2:49:45] Dan was er nog de vraag van mevrouw Katman naar aanleiding van die scenariostudie.

[2:49:49] Dat is natuurlijk interessant, want de Toekomstkamer heeft daar ook naar gekeken en heeft ook aangegeven

[2:49:56] dat het belangrijk is dat burgers meer worden meegenomen in die digitale ontwikkelingen.

[2:50:01] Of ze nou wil of niet precies dit instrument kennen, is natuurlijk één deel daarvan.

[2:50:05] Maar veel belangrijker is natuurlijk dat we weten dat mensen zich zorgen maken over de

[2:50:10] inzet van algoritmes, dat ze zich er ook druk over maken.

[2:50:14] Kan ik het nog wel vertrouwen?

[2:50:15] Wat ik op het internet zie, kan ik de informatie die ik krijg van welke instantie dan ook nog

[2:50:23] vertrouwen?

[2:50:23] Komt het ook echt van die instantie?

[2:50:25] Daar meer inzicht in bieden, is iets wat we heel erg belangrijk vinden.

[2:50:29] We kijken dus ook heel graag nog verder naar het werk dat hier is gedaan, om te zien of dat ons ook

[2:50:38] verder kan helpen in het geven van voorlichting aan burgers en vooral ook om te zorgen dat we meer

[2:50:42] vertrouwen creëren in het werk van de overheid.

[2:50:46] Dan nog iets over het thema van de toepassing van AI in het werk en op de werkvloer.

[2:50:52] Wij hebben de SER, ons adviesorgaan, de Sociaal Economisch Raad, gevraagd om met name daarnaar te

[2:51:01] kijken. Zij zijn aan de slag gegaan met een uitgebreide studie om te zien wat de effecten van

[2:51:07] generatieve AI, ook al AI, op het werk in Nederland.

[2:51:12] Wat betekent het voor banen, voor de manier waarop die worden ingericht?

[2:51:15] Wat betekent dat überhaupt voor werk?

[2:51:17] Hoe kunnen we AI op een positieve manier inzetten?

[2:51:20] Maar wat voor risico's zijn er ook?

[2:51:23] Voor ons is dat wel een heel belangrijk gegeven, want inderdaad, banen en werk zullen veranderen

[2:51:30] door AI, niet alle banen en niet alle banen in even grote maten, maar er zal verandering op kunnen

[2:51:36] Ik denk dat er verandering zal optreden van banen, van mensen die hoog opgeleid zijn,

[2:51:48] bijvoorbeeld voor de advocatuur of het maken van wetten bij de overheid, maar net zo goed voor

[2:51:53] mensen die, in feite — dat is het voorbeeld dat u noemt — nu worden aangestuurd door AI, iets wat we

[2:52:01] overigens niet zouden moeten willen, in mijn perspectief.

[2:52:04] Heel belangrijk is dat we daar meer inzicht in krijgen, dat we ons daar ook van bewust zijn en dat

[2:52:09] we gaan zorgen dat het voor mensen die dit meemaken veel duidelijker wordt over waar ze dan terecht

[2:52:14] kunnen wanneer dit soort situaties zich voordoen.

[2:52:17] Daar zijn natuurlijk in de arbeidsomstandighedenwetgeving allerlei regels over gesteld, maar

[2:52:23] ik denk wel dat het belangrijk is dat we daar nog eens een keer scherp naar kijken op basis van het

[2:52:27] voorbeeld dat u noemt in het kader van de komst van AI.

[2:52:32] Zoals we ook al in die individueel-generatieve AI hebben gezegd, willen we niet dat het straks zo is

[2:52:38] dat iemands baas ineens een AI is in plaats van een normaal mens van vlees en bloed.

[2:52:49] Dan was er nog de vraag die u ook stelde, mevrouw Katman, over hoe het zit met informatie over wanneer

[2:52:57] ben ik eruitgepikt, zoals u dat noemde.

[2:52:59] Als ik wil begrijpen waarom ik geselecteerd ben om bijvoorbeeld extra vragen te stellen,

[2:53:06] hoe gaan we dat dan aan iemand duidelijk maken?

[2:53:09] Ik vertelde al dat wij bezig zijn met het aanpassen van de Algemene Wet Bestuursrecht en met name

[2:53:14] ook naar dit aspect willen kijken, namelijk de toepassing van AI, zowel bij de vraag of

[2:53:20] ik wel of niet in aanmerking kom als bij dit soort vragen.

[2:53:23] Daar komen we dus nog op terug bij u, omdat ik heel goed begrijp dat u zegt dat het belangrijk is

[2:53:28] dat dat duidelijk wordt wanneer dat aan de orde is.

[2:53:31] Bijvoorbeeld, waarom ben ik geselecteerd voor extra vragen of wat is er aan de hand?

[2:53:36] Ik vind dat ook een gerechtvaardigde vraag.

[2:53:38] Wij gaan goed kijken hoe we bij de aanpassing van de Algemene Wet Bestuursrecht hier ook

[2:53:42] meer inzicht in kunnen bieden.

[2:53:44] Op welke manier we dat kunnen doen, kan ik nu nog niet helemaal antwoord op geven, maar ik vind het

[2:53:48] wel belangrijk dat we dit ook als onderdeel hierin verwerken.

[2:53:52] Dat was, denk ik, het antwoord op de vraag die aan mij gesteld werd.

[2:53:58] Dan is het woord aan de heer Van Rij.

[2:54:01] Dank u wel, voorzitter.

[2:54:03] Er was nog het punt van de heer Krul.

[2:54:08] Ik wil er toch nog op wijzen dat de landsadvocaat wel voorzichtig geformuleerd heeft in de conclusies.

[2:54:15] Hij spreekt tot twee keer toe over waarschijnlijk de eerste keer.

[2:54:22] Als het gaat om de vraag of er bij een eerste selectie via een geautomatiseerd selectiesysteem

[2:54:28] van een aangifte, is er dan sprake van een besluit.

[2:54:31] Een besluit in de zin van de AVG is strikter dan een besluit in de zin van de Algemene Bestuurswet.

[2:54:40] Dan gaat het erom of de burger anderszins in aanmerkelijke mate getroffen kan worden.

[2:54:48] Het tweede is natuurlijk dat ook de landsadvocaat zegt dat, wanneer er sprake is van menselijke

[2:54:56] tussenkomst in die tweetrapsakket die ik beschreven heb, dat er dan ook waarschijnlijk toch sprake

[2:55:03] kan zijn van een besluit wat anderszins in aanmerkelijke mate getroffen kan worden.

[2:55:14] Dus de landsadvocaat is daar jurist te formuleren altijd zorgvuldig.

[2:55:20] Dus dat is één.

[2:55:21] Twee, het is een advies.

[2:55:23] Dat geldt ook voor de AP, die we om advies hebben gevraagd.

[2:55:27] Dat is iets anders dan een boetebesluit.

[2:55:31] En dan zullen wij uiteraard onze eigen afweging moeten maken bij de staatssecretaris.

[2:55:36] En dan komen wij terug, al is het niet meteen eind mei.

[2:55:39] Eind mei komt de AP met zijn advies.

[2:55:42] En dan moeten wij natuurlijk wel even goed verwerken.

[2:55:45] Maar we komen uiteraard voor het zomerreces dan naar de Kamer toe.

[2:55:48] Het liefst zo snel mogelijk.

[2:55:50] Omdat wij dan ook moeten wegen, precies, voorzitter, het punt wat terecht ook door de heer Siks-Dijkstra

[2:55:59] op tafel is gelegd en de heer Krul.

[2:56:01] Ja, we hebben aan de ene kant natuurlijk privacy, ongelooflijk belangrijk.

[2:56:07] Maar belastingdienst, toeslagen en douanen zullen ook moeten handhaven en toezicht moeten houden.

[2:56:13] En daar de balans in vinden, dat is de grote uitdaging.

[2:56:23] En vandaar ook dat we bezig zijn met het voorbereiden van nieuwe wetgeving om daar ook met nog betere grondslagen te komen.

[2:56:35] Maar dat is natuurlijk iets waar we nu ook voortdurend mee worden geconfronteerd.

[2:56:39] En ook in de Kamerdebat wordt daar natuurlijk steeds op gewezen.

[2:56:41] Aan de ene kant horen we in de Commissie voor Financiën natuurlijk voortdurend en terecht,

[2:56:45] als het over de belastingdienst gaat, handhaft u nog wel en dan houdt u toezicht en pakt u fraudeurs aan.

[2:56:54] En aan de andere kant, ja, privacy is een heel hoog hoed.

[2:56:57] Nou, dat is de balans die we moeten zien te vinden.

[2:57:03] Dan kijk ik even naar links, naar de zijde van de Kamer, of alle vragen zijn beantwoord, ook in de tweetermijn.

[2:57:07] Ja, dat is zo.

[2:57:09] Dan gaan we even naar de toezeggingen.

[2:57:13] In december wordt de Kamer nageïnformeerd over de toepassing van het colio-kader.

[2:57:18] De Kamer ontvangt voor de zomer een brief waarin wordt aangegeven hoe uitvoering wordt gegeven

[2:57:23] aan het verzoek van de dit-itsinga.

[2:57:26] Het protocol geconstateerde discriminatie komt voor de zomer naar de Kamer.

[2:57:31] Dit was naar aanleiding van een vraag van de heer Van Baarle.

[2:57:34] Dan nog even aangaande twee-minutendebat.

[2:57:36] De eerste spreker is mevrouw Van der Werff van D66.

[2:57:39] En de vraag is dus of de GIFI bij het inplannen van het debat rekening te houden met het advies van de AP,

[2:57:46] of daar bij het inplannen op gewacht moet worden.

[2:57:52] Nou, wat mij betreft niet.

[2:57:54] Oké, dan weten we dat. Dan kan de GIFI daar rekening mee houden.

[2:57:59] En dan nog een toezegging.

[2:58:00] Dan kijk ik even naar rechts, naar de staatssecretaris, over de mogelijke toezegging aangaande het stuk van de Toekomstkamer.

[2:58:07] De staatssecretaris gaf aan dat we hier rekening mee zouden houden in ons beleid.

[2:58:15] De vraag was volgens mij of er een schriftelijke reactie kon komen.

[2:58:19] Ik kijk dus even naar rechts hoe de staatssecretaris daar invulling aan denkt te kunnen geven.

[2:58:27] Wat mij betreft is het goed, omdat we ieder kwartaal een verzamelbrief uitbrengen.

[2:58:31] Dan nemen we daarin dat stuk mee en dan geven we een reactie op dit punt.

[2:58:38] Nog even ten aanzien van de toezeggingen.

[2:58:40] De eerste en de derde toezeggingen zijn al eerder gedaane toezeggingen.

[2:58:44] De heer Van Baarle vroeg of u het ook echt gaat doen.

[2:58:47] Dat is waar, dus ik weet niet of we ze nou dubbel moeten noteren, maar het zijn al toezeggingen

[2:58:51] die we eerder hebben gedaan.

[2:58:53] Dat is dan nog even genoteerd.

[2:58:58] Dan is die laatste toezegging ook genoteerd.

[2:59:02] Dan dank ik de staatssecretarissen voor hun beantwoording.

[2:59:06] De bode voor de goede zorg, ook voor onze gasten.

[2:59:09] Dan sluit ik de vergadering.