Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Risicoprofilering in het handhavingsbeleid

[0:00:00] Ik open deze bijeenkomst van de vaste Kamercommissie van Binnenlandse Zaken.

[0:00:04] We zijn hier vanmiddag van twee tot vijf bij elkaar voor een rondetafelgesprek

[0:00:09] over risicoprofilering en het handhavingsbeleid.

[0:00:12] We hebben drie blokken, we hebben een hele palet aan gasten.

[0:00:16] Ik zie ook allemaal geïnteresseerden op de publieke tribune.

[0:00:19] Alvast dank voor de interesse.

[0:00:22] We zijn iets te laat begonnen, dus ik wil maar direct van start met deze eerste ronde.

[0:00:27] We hebben nu drie gasten. De vierde gast, mevrouw Moreno, komt er zo aan.

[0:00:35] En wat ik voor wil stellen is aan de gasten om een korte introductie te geven,

[0:00:40] ook om voor de reden toe te lichten waarom het ook heel goed is

[0:00:43] dat ze hier ook vanmiddag bij ons zijn en wat ze ons mee willen geven.

[0:00:48] En daarna is het de gelegenheid aan de Kamerleden om een vraag te stellen.

[0:00:53] Vindt u het goed als ik dan bij de heer Van Zutphen begin en dan zo ga?

[0:00:59] Dank u wel mevrouw. Dank voor de uitnodiging om hier een paar dingen te kunnen zeggen over het werk van de Nationale Ombudsman op dit belangrijke terrein,

[0:01:06] risicoprofilering en handhavingsbeleid. Ik denk dat als ik het moet samenvatten wat het belang is van de Ombudsman betrokken op dit type van problemen,

[0:01:16] want we hebben het hier over problemen rondom handhaving en profilering, dat is dat aan de ene kant de Ombudsman in staat is om daar waar overheden

[0:01:23] ten onrechte met profilering aan de slag zijn gebleken,

[0:01:28] dat we daar iets van kunnen zeggen, dat we kunnen onderzoeken,

[0:01:30] dat we daar aanbevelingen over kunnen doen.

[0:01:32] En aan de andere kant dat de ombudsman de kans heeft

[0:01:34] om op het bredere terrein uit eigen beweging

[0:01:37] grotere onderzoek in werking te zetten

[0:01:39] en daar aanbevelingen kan doen waar uiteindelijk van geleerd kan worden.

[0:01:43] Want het doel van de klachten is uiteindelijk natuurlijk het probleem oplossen,

[0:01:46] als het gaat om iemand individueel, maar vooral als het systemisch is

[0:01:50] en heel vaak een patroon, een herkenning, een terugkeer is,

[0:01:54] dan zouden we toch met elkaar ervan moeten kunnen leren.

[0:01:57] En ik heb u van de week ook nog gezegd hoe ingewikkeld dat kennelijk voor een overheid is.

[0:02:01] Dus dat dit onderwerp op deze manier hier nu opnieuw op tafel komt, is echt heel erg belangrijk.

[0:02:07] Het gaat in de essentie uiteindelijk natuurlijk gewoon om dat iedereen op een gelijke manier wordt behandeld

[0:02:13] en dat je geen onderscheid maakt wat niet gemaakt mag worden.

[0:02:17] Soms kan onderscheid mogen, maar als het niet mag, dan moet je er echt rekening mee houden

[0:02:22] dat je een grote fout maakt wanneer je op bepaalde karakteristieken of kenmerken mensen groepeert,

[0:02:27] apart zet, anders behandeld dan verwacht mag worden.

[0:02:31] Dan heb ik het gewoon over discriminatie, of je het nou etnisch profileren noemt of

[0:02:36] risicoprofilering of ongelijke behandeling, het is eigenlijk allemaal hetzelfde, we moeten

[0:02:41] ervoor zorgen met z'n allen dat mensen op gelijke wijze worden behandeld als het gaat

[0:02:45] om gelijke gevallen.

[0:02:45] Dus daar waar het gaat om bijvoorbeeld rapporten die wij schrijven over de manier waarop bij

[0:02:50] binnenkomst in het land mensen worden gecontroleerd, de manier waarop de douane op Schiphol aan

[0:02:54] het werk gaat, de manier waarop de politie aanhoudingen verricht, misschien is dat niet

[0:02:58] meteen handhaafd, maar het kan ook handhaving zijn.

[0:03:01] Soms is het bij opsporing het geval, op allerlei manieren willen wij graag dat als de overheidsdiensten

[0:03:06] aan de slag zijn, dat dat gebeurt op een manier die één door de beugel kan, om het maar even

[0:03:11] in gewoon Nederlands te zeggen, en twee dat dat gebeurt op een manier die voor mensen

[0:03:14] begrijpelijk is.

[0:03:15] Dus ons rapport had al een aantal jaren geleden schreven over de verkleurde beelden,

[0:03:20] en die titel heeft het rapport meegekregen.

[0:03:22] Dat ging niet zozeer over het geval individueel, maar het ging wat ons betreft om dat

[0:03:26] als iemand zich beklaagt, bijvoorbeeld bij de politie of bij de douane

[0:03:30] of bij de marge aux cé, of gewoon bij de gemeente,

[0:03:33] als die zich beklaagt over de wijze waarop hij behandeld is

[0:03:36] en daarmee aangeeft dat het te maken kan hebben met afkomst, huidskleur, geloof

[0:03:42] of andere kenmerken die eigenlijk geen rol zouden mogen spelen,

[0:03:46] dan vind ik dat de overheid die zo'n klacht te behandelen krijgt,

[0:03:51] eigenlijk onmiddellijk aan de slag moet.

[0:03:52] Niet zozeer om te kijken van klopt die klacht wel of niet,

[0:03:54] maar dat je het probleem dat op tafel wordt, het punt dat wordt gemaakt,

[0:03:57] dat je dat serieus neemt.

[0:03:58] En in het rapport over verkleurde beelden ziet u ook,

[0:04:01] als u daar doorheen leest, dat onze constatering is

[0:04:04] dat heel vaak wordt gezegd, ja, maar weet je, dat doen we eigenlijk niet.

[0:04:06] En daarmee wordt het essentiële onderdeel van de klacht namelijk,

[0:04:09] Ik ben geprofileerd op onheuze gronden, op onjuiste gronden.

[0:04:12] Dat wordt daarmee terzijde geschroven of gebarataliseerd.

[0:04:16] En dat betekent dat op die manier ook een overheid niet in staat mee is...

[0:04:20] om te leren van fouten die mogelijk zijn gemaakt.

[0:04:22] Dus dat rapport gaat niet alleen maar over de casus individueel.

[0:04:25] We hebben een groot aantal casus daarover.

[0:04:28] Uit de rij gepikt was een van de eersten.

[0:04:30] Dat ging over de airport Rotterdam-Den Haag.

[0:04:32] Den Haag-Rotterdam, wat is het? Ja, Den Haag-Rotterdam.

[0:04:35] Waar iemand iedere keer maar weer als die binnenkwam eruit werd gehaald.

[0:04:39] En niemand kon verklaren waarom.

[0:04:42] En anderen konden doorlopen.

[0:04:44] En dat was heel gek.

[0:04:45] En als je dan vraagt van, kunt u dat uitleggen?

[0:04:46] Ja, maar het was niet op basis van een profiel.

[0:04:50] En als je dan vraagt, kun je dat uitleggen?

[0:04:51] Dan kan men dat niet uitleggen.

[0:04:52] Nou, dan gaat het fout.

[0:04:54] Dat kun je noemen, heel chique, omkering van de bewijslast.

[0:04:57] Maar eigenlijk komt erop neer, je moet altijd kunnen uitleggen waarom je doet wat je doet.

[0:05:00] En dat het is zonder aanzien des persoons of zonder aanzien van de kenmerken van iemand waarvan je zegt ja, maar daarop mag niet selecteren.

[0:05:11] Dat is overigens heel ingewikkeld, want wanneer nou wel en wanneer nou niet.

[0:05:14] We hebben voorbeelden daarover, bijvoorbeeld over een jongeman die is nachts in de buurt van Ede over een terrein loopt, donker, weinig verlichting, capuchon op.

[0:05:24] Donkere huidskleur, wordt aangehouden.

[0:05:28] Ja, waarom eigenlijk? Nou ja, hij moet zich identificeren.

[0:05:30] En dan is de klacht, dat was waarschijnlijk om de manier waarop ik eruit zie.

[0:05:34] En als je dat dan heel goed gaat onderzoeken, dan blijkt eigenlijk dat de politiemensen helemaal niet konden zien

[0:05:37] of er krulhaar was of blond haar of iets anders, maar hij werd wel aangehouden.

[0:05:42] En het gevoel dat dat was, omdat hij er op een bepaalde manier uitzag, dat was eigenlijk wat in dwars zat.

[0:05:46] En we hebben erover geschreven dat in de klachtbehandeling daarover,

[0:05:49] dat element eigenlijk ten onrecht niet aan de orde is geweest.

[0:05:51] En we vonden overigens dat er geen sprake was van onbehoorlijk profileren,

[0:05:55] Want je mocht, ja, er was geen kennis, letterlijk niet, want het was te donker om bepaalde aspecten te kunnen zien.

[0:06:03] We zeiden overigens wel, iedereen die daar loopt op die manier met een capuchons nachts om een uur of twaalf,

[0:06:08] ja, er is geen enkele aanleiding om je dan zomaar staan te houden en te fragmenteren.

[0:06:12] Dus iedereen die dat is overkomen, daarvan hadden we gezegd, had niet gemogen.

[0:06:16] Maar het gevoel wat er bij deze jongeman ontstond, de manier waarop hij werd behandeld en de manier waarop hij klachten had afgedaan,

[0:06:21] Daarvan zeiden we, dat is een manier van profileren, die is niet toegestaan.

[0:06:25] Nou, daar zit onze praktijk eigenlijk vol mee.

[0:06:28] Ik wil nog één ding toevoegen, voordat mijn vijf minuten om zijn.

[0:06:32] We moeten ook echt heel goed opletten als het gaat over artificiële intelligentie.

[0:06:36] Dus kunstmatige intelligentie, automatische systemen, beslissingen die worden genomen,

[0:06:41] op basis van algoritme hebben we het al heel snel over.

[0:06:44] Ik heb misschien vanmorgen in de krant wel gelezen dat er is weer een onderzoek geweest

[0:06:47] over de manier waarop DUO is omgegaan met een aantal mensen die van DUO afhangen, geen studenten,

[0:06:53] en dat er toch wel weer uitkomt dat het wel heel bijzonder is. Dat er wel heel veel mensen met een

[0:06:59] niet-Nederlands, althans niet oorspronkelijk Nederlands, achtergrond daaruit zijn gehaald.

[0:07:04] En dan is de vraag, wat kunnen we daarvan leren? En daar wilde ik graag mijn vijf minuten mee

[0:07:08] afsluiten. Daar kan enorm van geleerd worden. En ik zou vooral zeggen, iets wat DUO overigens ook

[0:07:13] in de praktijk brengt, doe dat dan samen met degenen die gecontroleerd worden, waar het profiel op van

[0:07:17] toepassing is. Ik denk dat als we dat niet doen, als we niet met iedereen breed aan tafel gaan zitten

[0:07:21] over hoe gaan we dan ervoor zorgen dat bijvoorbeeld een studielening of dat een andere voorziening op

[0:07:27] een behoorlijke manier, woord van de ombudsman, behoorlijkheid, op een behoorlijke manier bij

[0:07:32] mensen terechtkomt, dan maken we een fout. Dus aan de ene kant veel van onze zaken gaan over waar

[0:07:36] we schrijven in de rapporten. Zo had dat niet gemogen. De mensen zijn niet serieus genomen. Er

[0:07:41] is ook wel in een aantal gevallen die we hebben beschreven geprofileerd en dat is op basis van het

[0:07:46] niet kunnen uitleggen waarom iemand uit de rij is gepikt.

[0:07:49] Maar daarnaast moet er echt geleerd worden, anders schieten we geen steek op.

[0:07:52] Dan blijven we de rapporten schrijven op de manier zoals we deden.

[0:07:55] En ik wil graag naar de volgende fase dat we kunnen zeggen oké, maar hier is van geleerd.

[0:07:59] Daar zou ons werk bij behulpzaam zijn.

[0:08:01] Als u daar vragen over heeft, ben ik graag beschikbaar om daar antwoord op te geven.

[0:08:04] Dank u wel.

[0:08:06] Dank meneer Van Zutphen, die we alvast inderdaad eerder deze week in de Kamer

[0:08:11] ontvingen voor het voor het jaarvervlag van Nationale Ombudsman.

[0:08:14] Daar komen we natuurlijk ook nog over te spreken in een ander verband.

[0:08:17] De heer Terpstra zit hier namens het College van de Rechten van de Mens.

[0:08:21] Dank u wel, voorzitter.

[0:08:23] Het College van de Rechten van de Mens zit hier als toezichthouder mensenrechten in Nederland.

[0:08:28] In die hoedanigheid geven we gevraagd en ongevraagd advies, doen we onderzoek naar de stand van mensenrechten in Nederland

[0:08:36] en houden we ook nieuwe ontwikkelingen nauwlettend in de gaten.

[0:08:40] Daarnaast heeft het college ook een oordelende bevoegdheid, specifiek in gelijke behandelingszaken.

[0:08:45] Wat ook raakt, denk ik, sterk aan het onderwerp wat hier vandaag aan de orde is.

[0:08:50] Gelijke behandelingszaken op een klacht van een burger.

[0:08:52] Er kan ook een organisatie zijn die zegt, ik wil mijn eigen beleid tegen het licht van het gelijkbehandelingsrecht houden.

[0:09:01] Ethnisch profileren of discriminatie door risicoprofielen, zoals we het noemen voor risicoselectie.

[0:09:06] Je kunt het noemen hoe je wilt.

[0:09:07] Dat is voor het college een heel belangrijk onderwerp en dat komt door het volgende.

[0:09:12] Kijk, Nederland is een land van wetten en regels en dat is goed.

[0:09:15] Het is ook goed dat die regels gehandhaafd worden.

[0:09:18] Maar de kans dat iemand gecontroleerd wordt,

[0:09:21] of de strengheid waarmee je gecontroleerd wordt,

[0:09:24] mag niet afhangen van iemands kleur of iemands geboorteland

[0:09:27] of iemands culturele achtergrond.

[0:09:29] En als dat wel gebeurt, dan behandelt de overheid je niet meer als volwaardig mens.

[0:09:34] Zo zien we dat.

[0:09:35] Je wordt dan namelijk teruggebracht tot je kleur of je achtergrond, je afkomst.

[0:09:40] En dat is een groot onrecht.

[0:09:43] En in de eerste plaats natuurlijk pijnlijk en schadelijk voor de mensen die dat aangaat.

[0:09:47] En die dat soms ook herhaaldelijk meemaken en moeten meemaken.

[0:09:50] Maar het gaat ook verder dan dat.

[0:09:52] Het stigmatiseert ook groepen.

[0:09:54] En het heeft schadelijke consequenties voor de manieren waarop in Nederland groepen naar elkaar kijken.

[0:09:59] En gaan kijken, want het zorgt voor beeldvorming.

[0:10:02] Het schaadt dus ook nog heel sterk de relatie tussen de burger en de overheid, want kun

[0:10:07] je een overheid vertrouwen die oneigenlijke criteria gebruikt om te controleren en ongelijk

[0:10:12] daarin handelt.

[0:10:14] Alle redenen dus om alles op alles te zetten om discriminatie door bij controle op regels

[0:10:19] te voorkomen.

[0:10:20] Nederland heeft hier ook een voorzorgsplicht, het is niet voldoende dat je niet discrimineert.

[0:10:24] Je moet ook echt voorkomen dat er kans ontstaat dat je dat gaat doen.

[0:10:30] Risicoprofileren is wel een breed en complex onderwerp en eigenlijk veel te complex om

[0:10:33] drie uur over te praten.

[0:10:35] Het heeft heel veel kanten.

[0:10:38] Discriminatie kan direct en indirect plaatsvinden op straat, bij de grens, maar ook via algoritme

[0:10:43] en complexe algoritme.

[0:10:45] Het gaat ook over verschillende persoonskenmerken en het college gaat op die volle breedheid

[0:10:50] binnenkort ook uitgebreid erin te verschijnen, het nieuwe toetsingskader.

[0:10:54] Maar wel wil het college hier nu al kwijt, dan gaan we verder niet specifiek op in dat

[0:10:59] de vanzelfsprekendheid die we soms proeven bij het gebruik van data en big data en algoritme,

[0:11:05] dat die plaats moet gaan maken voor behoedzaamheid en terughoudendheid.

[0:11:09] De heer Van Zutphen refereerde ook al aan het bericht in de krant van morgen.

[0:11:14] De overheid heeft die voorzorgsverplichtingen, dat geldt ook hier.

[0:11:18] Waar het college zich vandaag op wil richten, de directe discriminatie op grond van etnische

[0:11:23] kenmerken. Het college is voor een normstelling, een duidelijke normstelling, directe discriminatie

[0:11:31] op etnische kenmerken. Die norm is voldoende duidelijk, dat mag niet. Maar ons advies is ook

[0:11:38] maak in die handhavingspraktijk geen onderscheid op grond van etnische persoonskenmerken en regel

[0:11:44] dat ook, voor zover dat nog niet is gebeurd, in richtlijnen, interne richtlijnen, handelingskaders

[0:11:50] en in opleidingen. En blijven we ook met elkaar praten waarom dat verbod belangrijk is.

[0:11:56] Dat is ook heel belangrijk. Daarnaast zijn we voor toezicht. Zorgen voor een preventief,

[0:12:02] extern en bindend toezicht op gebruik van etniciteit als criterium. Heel veel

[0:12:08] overheidsorganisaties hebben natuurlijk hun eigen publieke doelen en die vinden ze zelf heel

[0:12:12] belangrijk en dat moeten ook. Het MTV-toezicht van de koninklijke marginale was er goed voorbeeld van.

[0:12:19] En dat maakt je een slechte oordeler in eigen zaak.

[0:12:24] Ook onlangs, of al een jaar geleden, justitie en veiligheid koppelden terug aan uw Kamer

[0:12:30] dat een antiradicaliseringsinstrument wordt gebruikt, VRA2R.

[0:12:37] En daar wordt geboorteland gebruikt, maar ook het instrument onvindbare wordt gebruikt

[0:12:42] om gevluchtgevaar van verdachten in te schatten.

[0:12:46] En volgens justitie en veiligheid was dat geen profilering.

[0:12:48] want het was een beleidsondersteunend instrument.

[0:12:52] Ja, dat maakt voor het discriminatierecht niets uit.

[0:12:54] Maar dit zijn wel dingen die we tegenkomen, die we zien.

[0:12:57] En om dat te voorkomen, is die preventieve toets heel belangrijk.

[0:13:01] Ook voor andere punten, maar dit stip ik hier aan.

[0:13:04] En we moeten voorkomen...

[0:13:05] Kijk, in het recht zijn er altijd rand- en schemergebieden.

[0:13:08] Maar we moeten voorkomen dat die schemergebieden worden,

[0:13:12] waardoor een soort onduidelijkheid ontstaat die misbruikt wordt.

[0:13:15] Nou, toezicht, preventieve toezicht, kan dat voorkomen.

[0:13:17] Tot slot, heel belangrijk, en dat ziet het college ook als knelpunt,

[0:13:21] is de gedragsverandering, die hoort bij de norm.

[0:13:24] Want de norm is één ding, maar ernaar leven is het andere.

[0:13:28] Handhaven is mensenwerk en bij mensenwerk komen vooroordelen kijken.

[0:13:34] In een recente overzichtsstudie van het WODC over de politie kwam naar voren

[0:13:39] dat er eigenlijk een tekort is aan bewezen effectieve methoden

[0:13:43] om etnisch profileren te voorkomen in de praktijk, op straat.

[0:13:49] En daar moeten we dus heel sterk op inzetten.

[0:13:54] Mensen hebben nou eenmaal vooroordelen, verkleurde beelden.

[0:13:58] Maar de opgave is om die professioneel uit te schakelen bij je werk.

[0:14:02] En om objectief te profileren of te handelen.

[0:14:06] En daar moeten we niet licht over denken.

[0:14:08] Dat is echt wel ingewikkeld.

[0:14:10] Maar daar moeten we dus de schouders onder zetten.

[0:14:12] Want we hebben die voorzorgverplichtingen.

[0:14:13] Zowel praktisch, financieel als qua inzet op wetenschappelijke ontwikkeling

[0:14:18] van nieuwe methodes om etnisch profileren op straat tegen te gaan.

[0:14:25] Samenvattend, zorg voor een duidelijke norm, een stroomlijn dat beleidt naar die norm, organiseer

[0:14:33] toezicht en investeer in praktische handvatten en instrumenten om het ook in de praktijk

[0:14:37] mogelijk te maken.

[0:14:38] Dank u wel.

[0:14:41] Dank u wel.

[0:14:41] Dan gaan we luisteren naar mevrouw Bouwer.

[0:14:46] Wilt u uw microfoon aanzetten als u spreekt?

[0:14:51] Ik lees het voor, want ik ben niet zo'n hele ervaringsspreker zoals de twee mannen voor mij.

[0:14:57] Graag wil ik u allemaal bedanken voor uw interesse in het onderwerp risicoprofilering in het handhavensbeleid.

[0:15:03] Ik vind het fijn dat er op deze manier aandacht is voor versterking van de rechtsstaat.

[0:15:07] Het geeft me hoop op een betere toekomst.

[0:15:10] Speciaal dank aan degenen die deze bijeenkomst hebben georganiseerd, Sandra en Pansu.

[0:15:15] Dat is een heel belangrijk onderwerp.

[0:15:17] Ik stel me graag even kort aan u voor.

[0:15:20] Ik ben Paula Bauer, moeder van vier kinderen.

[0:15:23] U ziet het niet aan me, denk ik.

[0:15:24] Misschien hoort u het een beetje, maar ik ben Canadees.

[0:15:27] Mijn jongste zoon heeft een vader die in Curaçao is geboren.

[0:15:31] Op 22-jarige leeftijd kreeg ik mijn eerste kind.

[0:15:34] En helaas heb ik twee partners gehad die me alleen hebben gelaten met de zorg voor mijn kinderen.

[0:15:53] Gelukkig heb ik wel altijd goede banen gehad.

[0:15:56] Ik heb economie en communicatie gestudeerd.

[0:16:06] Desondanks heb ik wel fulltime moeten werken om voldoende inkomen te hebben.

[0:16:14] In 2022 heb ik een switch gemaakt van horecaondernemer naar onderzoeksjournalistiek.

[0:16:21] In 2021 heb ik me aangemeld als mogelijke gedupeerde met betrekking tot de vervorderingen van toeslagen.

[0:16:29] In hetzelfde jaar ben ik erkend, daarnaast heb ik ook een brief gekregen dat ik ten onrechte ben

[0:16:34] verdacht van fraudeurs zijn.

[0:16:38] In 2022 heb ik mijn onderneming verkocht, na vanaf 2007 onafgebroken ernstige problemen met de

[0:16:48] gemeente Amersfoort gehad te hebben, de Belastingdienst, de afdeling MKB en met de toeslagen.

[0:16:55] Naast alle andere denkbare overheidsorganisaties, zoals de politie en de waterschappen, geen beeld heen.

[0:17:02] Ik ontmoette meester dokter Caroline Raad toen de tijd ook woonachtigen aanbespoord.

[0:17:08] Zij had ook allerlei ernstige aanvaringen met lokale bestuur.

[0:17:14] We hielden contact.

[0:17:16] Ik sloot me aan bij haar initiatief Rechtsstaat Nederland, gestart met een grote groep wetenschappers,

[0:17:24] beleidsmedewerkers, docenten, burgers en ondernemers onze rechtsstaat met elkaar te verbeteren.

[0:17:29] En hier ontmoet ik Sandra Balmen.

[0:17:33] Why me?

[0:17:34] Dat is een vraag die ik me vaak afgevraagd heb.

[0:17:38] In 2021 heb ik Stichting Herstel Ongekend Onrecht opgericht en ik heb ook medeaangifte

[0:17:46] gedaan tegen de Belastingdienst met zo'n 150 ouders.

[0:17:49] Een groot aantal ouders heb ik in de loop der jaren gesproken.

[0:17:52] En al snel kwam ik erachter dat de situatie vele malen ernstiger was dan wat in de media geschetst is.

[0:17:59] Nog steeds. Mensen waren naar het buitenland gevlucht. Duizenden mensen, ze hadden een partner of een kind verloren.

[0:18:07] Ondernemingen waren fiets gegaan, kinderen waren uit huis geplaatst.

[0:18:10] Grote gezondheidsproblemen bij alle ouders en kinderen zag ik.

[0:18:13] In 2022 sloot Daniel Scheperszippen mij aan.

[0:18:20] Als procesarchitect heeft hij in 2010 meegewerkt aan de grote aanpassing in de foude de IT-systemen.

[0:18:27] Hij heeft na die periode als IT-specialist zijn onderneming moeten staken vanwege gezondheidsproblemen.

[0:18:35] Omdat hij niet stil kon zitten, heeft hij zich daarna gemeld bij de sociale advocatuur rondom Rotterdam.

[0:18:41] en heeft daar heel veel ouders geholpen die achteraf allemaal in de toeslagen terecht waren gekomen.

[0:18:49] Helaas is hij eind vorig jaar overleden.

[0:18:52] Wel heb ik door hem de Guus Walravens leren kennen,

[0:18:56] die nu directeur is van de uitvoeringsorganisatie Herstel Toeslagen,

[0:19:00] die ook betrokken is geweest bij het invoeren van de belastingtelefoon.

[0:19:04] Ik heb veel van hem geleerd over de IT-systeem, over het vinden van rapporten,

[0:19:08] over queries en algoritme.

[0:19:11] Ook vond hij het vreselijk dat mensen doelbewust, omdat ze als fraudeur aangemerkt waren, hun

[0:19:16] hoorrecht werden ontnomen en ook het recht om bezwaar te maken.

[0:19:22] En dat als je belde, dat je niks verteld werd over je situatie, omdat het meteen al zippaar

[0:19:28] was dat er een rooie vlag achter je na was, dat je niks mocht weten wat er aan de hand

[0:19:32] was.

[0:19:33] Pierre Nyssen, die kennen jullie waarschijnlijk allemaal wel, heeft veertigduizend bezwaren

[0:19:37] op afgehandeld gezet zien worden.

[0:19:40] En uit stukken die ik heb gelezen, heb ik gezien dat deze 40.000 mensen

[0:19:44] als potentieel gedupeerden werden gezien van meet af aan.

[0:19:49] Ik had verwacht dat de overheid een proactieve afhandeling dan zou inzetten,

[0:19:55] maar het tegendeel is waar.

[0:19:58] Inmiddels ben ik afgestudeerd als onderzoeksjournalist

[0:20:01] en heb mij tijdens mijn studie gericht op vragen die bij mezelf leven.

[0:20:06] Hoe zijn we in de toeslagenellende terechtgekomen, wat is er met algoritme gebeurd, kloppen de

[0:20:11] cijfers eigenlijk wel vanuit huisplaatsingen, hoeveel ouders en kinderen zijn er overleden,

[0:20:17] welke gevolgen zijn er in de gezinnen en ondernemingen.

[0:20:20] Het viel mij al heel snel op dat er bepaalde ouders waren die met terugvorderingen te maken

[0:20:24] kregen.

[0:20:25] Allemaal mensen die ofwel zelf uit een ander land komen, of hun ouders, zelfs hun grootouders.

[0:20:30] Zelfs geadopteerde mensen, vluchtelingen.

[0:20:34] Grotendeels alleenstaande ouders die jong ouder zijn geworden.

[0:20:37] Bijna allemaal vrouwen.

[0:20:39] Toch zaten er soms wat puzzels voor me tussen, dan kon ik er niet achter komen voor mijn

[0:20:43] gevoel waarom ze in de toeslagenverrekeningen terechtkwamen.

[0:20:47] Ondernemers die helemaal geen binding met het buitenland hadden, waarom waren zij dan

[0:20:50] geselecteerd?

[0:20:53] Ik ging onderzoek doen naar het CAF-team, het Combiteam Aanpak Facilitators.

[0:20:58] A license to disturb, misschien heb je er ooit van gehoord, ik hoop het niet eigenlijk.

[0:21:03] Het is een knipoog naar James Bond, duo Peck & Ferre, een pen met het opschrift

[0:21:10] bij twijfel altijd afwijzen, Hansje Brinker producties.

[0:21:14] We hebben een nest Antillianen gevonden, afpakjes dag, yes we hebben er 100.

[0:21:18] Allemaal sprankelende spreuken van het CAF team.

[0:21:21] Een team dat alles mocht doen wat eigenlijk verboden was.

[0:21:23] De grenzen opzoeken, creatief, vindingrijk, out of the box denken.

[0:21:28] En dit team had ook nog ontzettend veel invloed.

[0:21:30] Zij leverden gegevens aan aan mkb-particulieren en toeslagen, dus met name niet alleen aan toeslagen.

[0:21:37] Uit een recent woonverzoek is te lezen dat er veel druk werd uitgeoefend om de uitworpen van

[0:21:44] een passende afhandeling te voorzien.

[0:21:46] Een uitworp is dan een selectie.

[0:21:49] In het rapport Blind voor mens en recht miste ik eigenlijk blind voor mens en recht en racisme.

[0:21:55] Zag ik ook de vraag waarom ik sta?

[0:21:58] Het antwoord heb ik niet gezien.

[0:21:59] Het is niet duidelijk geworden waar we nu allemaal geselecteerd zijn.

[0:22:04] Was het een algoritme, was het toeval of was het doelbewust?

[0:22:08] Allereerst wil ik u in het kort en simpel uitleggen wat een algoritme is.

[0:22:11] U kunt het zien als een set aanwijzingen die tot een uitkomst leidt, zoals een receptenboek,

[0:22:16] ook al een creep van het CAF-team.

[0:22:18] Je hebt algoritme die je handwerk zou kunnen noemen, rule-based algoritme, een Excel-bestand

[0:22:23] bijvoorbeeld, en je hebt ingewikkelde AI-systemen, machine learning.

[0:22:28] Zoals u weet heeft de Belastingdienst verouderde systemen, vergelijkend met Windows XP.

[0:22:34] Wat is er nu eigenlijk gebeurd?

[0:22:36] Er zijn queries gemaakt.

[0:22:38] Dat is eigenlijk een ingewikkeld woord voor zoekvragen, zoekopdrachten.

[0:22:42] Maak keuzes uit het systeem.

[0:22:45] Wat vraag je van het systeem?

[0:22:46] Wat je ervan vraagt, levert een uitworp.

[0:22:48] Een set om mee te werken.

[0:22:50] En daar wordt iets mee gedaan.

[0:22:52] Ook weer handwerk, mensen kijken naar die uitworp.

[0:22:54] Als voorbeeld geef ik zoek alle Antilliaanse vrouwen die voor hun 25e moeder werden,

[0:23:00] alleenstaand zijn, meer dan twee kinderen hebben en in Rotterdam wonen.

[0:23:03] Dat is dan zo'n uitworp.

[0:23:07] Ik ontmoette ook Edbraini Fox uit Rotterdam.

[0:23:10] Zij maakte deel uit van een project in Rotterdam.

[0:23:12] Met de kennis van nu weet ze dat alle gezinnen waar zij en het team mee werkten

[0:23:16] allemaal gedupeerde moeders waren.

[0:23:18] Zij hadden allemaal ernstige schulden.

[0:23:21] Zij heeft zelf tien familieleden die ook getroffen zijn.

[0:23:24] Ditzelfde patroon zie ik zich herhalen met Surinaamse mensen, Marokkaanse, Turkse en

[0:23:29] mensen met een Indische achtergrond.

[0:23:31] Er zijn zelfs mensen naar honderd landen verhuisd.

[0:23:35] Uit honderd landen zijn mensen geraakt.

[0:23:37] In al die landen zitten mensen die nu weggevlucht zijn uit Nederland.

[0:23:40] Er is een ondersteuningsteam buitenland omgericht om hen te helpen.

[0:23:45] Het is dus helemaal geen digitale ramp, maar handwerk.

[0:23:49] Ook ondernemers, daar schaar ik mezelf ook onder.

[0:23:52] Zo'n vijfduizend ondernemers hebben ook te maken gekregen met terugvorderingen.

[0:23:57] De denktank van het CAF-team heeft talloze suggesties bedacht om de kans om een fraudeur

[0:24:01] te zijn te kunnen opsporen.

[0:24:04] Bepaalde typen ondernemers, zoals bijvoorbeeld een koeriersbedrijf, een horecaonderneming,

[0:24:08] een zorgonderneming, iemand die een uitzendbureau heeft, belastingadvieskantoren, allemaal potentiële

[0:24:15] fraudeurs.

[0:24:16] Ik schat dat hier minstens 15 miljard nog aan kosten voor gereserveerd moeten worden.

[0:24:20] De queries werden dus gebruikt voor mkw, particulieren en toeslagen, niet alleen voor de afdenktoeslagen

[0:24:26] nogmaals.

[0:24:27] Onze gegevens zijn gedeeld met alle overheidsinstellingen, banken en verzekeraars, noem het maar op.

[0:24:33] Daar heeft het inlichtingenbureau voor gezorgd.

[0:24:36] Dit heeft door veel ouders gezorgd dat zij hun baan kwijtraakten.

[0:24:39] Ook gemeenten kregen deze zwarte lijsten.

[0:24:42] Dit had heel veel gevolgen voor ouders en ondernemers.

[0:24:45] geen recht op schuldhulp, veilig thuis, we wisten ervan, de politie, zelfs zoals ik in Amersfoort

[0:24:51] heb meegemaakt bij ouders, werd de toegang tot voedselbanken verboden, omdat ze fraudeur waren.

[0:24:58] Wat zijn nu de gevolgen? Onbegrijpelijk vind ik dat er nu bijna 14 miljard aan herstel uitgegeven

[0:25:03] wordt, maar waarom moeten wij eigenlijk door de dader beoordeeld worden? Waarbij we opnieuw te

[0:25:09] krijgen met malversaties en ontbrekende informatie. Geen dossiers, geen toegang

[0:25:15] tot informatie, weggelaten stukken. We staan altijd op achterstand. En wat denkt u

[0:25:22] dan dat er weggelaten wordt? Waarom krijgen we onze dossiers niet? Waarom duurt

[0:25:25] het zo lang? De heksenjacht op ouders en kinderen is ongekend. In plaats van ouders

[0:25:30] te helpen werd alles afgepakt en ook nog beharthandige wijze. Ik denk dat ik een

[0:25:38] Ik heb nog een aantal voorbeelden van de ouders, maar die sla ik dan even over.

[0:25:43] Dit wil ik vooral niet onderbelicht laten.

[0:25:47] Er is één kinderopvanginstelling in Nederland die heel veel aandacht heeft gekregen,

[0:25:52] en dat is die van Eva González.

[0:25:54] Maar er zijn nog heel veel andere kinderopvanginstellingen die fiat zijn gegaan.

[0:25:59] Een aantal van deze mensen heb ik ook gesproken.

[0:26:02] Ik heb de cijfers van CBS erbij gezocht.

[0:26:04] In 2012 zijn er 84 fietsen gegaan, in 2013 130, in 2014 118, in 2015 88.

[0:26:15] Op dit moment is het nog maar enkele stuks per jaar.

[0:26:21] Ik heb Florien Jansen gesproken van de Appelbloesom.

[0:26:24] Zij vertelde me dat er doelbewust gezocht is naar de ouders met een buitenlandse achtergrond.

[0:26:29] Een van haar ouders heeft kort na het stoppen van Florien zijn onderneming zelf moord gepleegd.

[0:26:33] Ook sprak ik een ondernemer uit Eindhoven die vertelde dat ook zijn onderneming geruïneerd

[0:26:37] is.

[0:26:38] Hij bleef achter met privé een grote schuld van 500.000 euro, die nog steeds niet opgelost

[0:26:43] is.

[0:26:44] Hij had een eigen huis en net een nieuwe gekocht en die moest bij de gedwongen vervuild worden,

[0:26:49] omdat hij een zogenaamde fraudeur was.

[0:26:51] Vele zaken zijn niet geregeld in de afhandeling van ouders en ondernemers.

[0:26:55] Voor ondernemers is er nagenoeg niets geregeld.

[0:26:58] De integrale beoordeling is allesbehalve integraal.

[0:27:00] De MKB-schade wordt niet meegenomen en ook de gevolgen van als een fraudeur te boekstaan ook niet.

[0:27:07] Ik doe een oproep voor passend maatwerk en ook voor de ondernemers.

[0:27:13] Naar mijn gevoel is het massadiscriminatie, een woord wat Pierre Nyssen heeft bedacht.

[0:27:18] Alijd Wolfsen verbaasde zich er ook al over.

[0:27:20] Dat Bart-Jan van Ettenhoven niet opgevallen was dat er een patroon te ontdekken viel in

[0:27:25] de rechtszaken die de Raad van State ongegrond verklaarde.

[0:27:30] Rechtsbescherming is volledig uitgebleven.

[0:27:32] Naar mijn gevoel is er geen sprake van toeval, geen algoritme.

[0:27:36] Het is mensenwerk en handwerk.

[0:27:38] En ik wijs ook op de gevaren van artificial intelligence.

[0:27:42] Daarnaast hebben we ook in Engeland de post-office scandal, wat veel op onze situatie lijkt.

[0:27:47] Daar hebben ze ook na een jaar of twintig toch in gezien dat het beter was om de mensen

[0:27:51] fatsoenlijke betaling te geven, zodat zij verder kunnen met hun leven.

[0:27:56] Ik pleit daar ook voor in Nederland.

[0:27:58] Dat was het.

[0:28:01] Dank u wel. En ook dank voor uw doorzettingsbemogen terwijl het u zwaar viel.

[0:28:06] Ja, klopt.

[0:28:07] Dank u wel.

[0:28:08] Wilt u een microfoon? Ja, dat wordt gedaan.

[0:28:11] Meneer Moreno, welkom bij deze ronde tafel.

[0:28:15] Net als de andere gasten wil ik u ook de gelegenheid geven om een korte toelichting te geven op het onderwerp dat we hier vanmiddag met elkaar bespreken.

[0:28:24] Het etnisch profileren in handhaving.

[0:28:28] Oké.

[0:28:29] Nou, mijn naam is Melton Moreira Moreno.

[0:28:32] Ik ben 25 jaar.

[0:28:34] En ik ben één van de kinderen.

[0:28:37] Ja, één van de zoveel kinderen.

[0:28:38] Laten we het zo zeggen.

[0:28:40] En ik zit hier ook namens zoveel kinderen.

[0:28:43] Dus ik ben erg benieuwd wat er vandaag besproken wordt.

[0:28:48] En wat is uw ervaring?

[0:28:50] Hoe kunt u dat met ons delen op dit onderwerp van etnisch profileren?

[0:28:54] Mijn ervaring heb ik al een aantal keer benoemd, maar ik heb een hele zware jeugd achter de rug.

[0:29:02] Het is iets wat je altijd bijblijft.

[0:29:04] Het zijn geen wondjes die helen en daarna dat het koosje er vanaf gaat en dat het dan klaar is.

[0:29:09] Het is iets wat altijd zal blijven en je zal het altijd meenemen.

[0:29:15] Je leert er ook heel veel van. Je wordt heel vroeg volwassen.

[0:29:21] Het zijn allemaal leden die je erbij moet nemen zonder dat je die wilt.

[0:29:28] Tot mijn verbazing is het nog steeds gaande.

[0:29:31] Ik was 13 en ik ben nu in het midden van 25.

[0:29:36] Tot de dag van vandaag loopt het nog steeds.

[0:29:39] Allemaal dingen die gebeuren waarvan ik denk hoe kan dit in zo'n land

[0:29:43] als Nederland.

[0:29:44] Net als gisteren heb ik met mijn moeder gesproken.

[0:29:48] Er kwam een ouder naar mijn moeder toe.

[0:29:50] Ik ga ook geen namen noemen.

[0:29:52] En dan worden kinderen uit huis geplaatst.

[0:29:55] En dan denken dat het beter is, dat het veiliger is voor een kind om daarop te groeien.

[0:30:00] En dan gebeuren er allemaal nare dingen in een gezin waar je eigenlijk niet naartoe wilt.

[0:30:05] Maar je er gedwongen toe wordt.

[0:30:07] En dat uitleidt tot kinderen die zelfmoord gaan plegen.

[0:30:11] Kinderen die verkracht worden, weet je, dat zijn allemaal rare dingen, waarvan ik dan denk van waarom haal je ze dan bij hun ouders weg.

[0:30:19] En wat mij ook echt heel erg verbaast is dat kinderen dan weggenomen worden en nu dat het onze tijd is om die kinderen te gaan vinden,

[0:30:29] dat ze niet weten waar die kinderen zijn.

[0:30:34] Dat zijn dingen waar ik dagelijks mee loop.

[0:30:38] Gelukkig is het bij ons net niet gebeurd.

[0:30:44] Daar zijn we ook heel blij om als gezin.

[0:30:47] Maar als ik in een andere schoen stond, dan wist ik niet hoe ik me erbij zou moeten voelen.

[0:30:55] Dankjewel.

[0:30:56] Alsjeblieft.

[0:30:57] Heb je gedeeld wat je wilde delen met hem?

[0:30:59] Ja, zeker.

[0:31:04] Er was ook volgens mij vorig jaar of twee jaar geleden toen kwamen we er achter dat het schip

[0:31:12] wat werd getekend dat het heel veel te maken had met het slavernij wat ze eerst niet toegaven en

[0:31:19] uiteindelijk zijn ze toch in rechtszaak gaan en hebben ze hem uiteindelijk gewonnen en kwam het

[0:31:24] er toch op neer dat het over de slavernijtijd gaat. Je ziet een boot met allerlei mensen erop

[0:31:29] van kleur. En weet je...

[0:31:34] Dat zat in je moeders dossier voor mensen die het niet weten waar het over gaat.

[0:31:38] Er is ook een foto gestuurd.

[0:31:42] Even in de microfoon ook voor mensen die dit volgen, maar

[0:31:46] mevrouw Bauer zegt in het dossier, de moeder van de heer Moreno

[0:31:50] zat die tekening waar hij net over sprak.

[0:31:52] Ja, ik heb hem hier op mijn telefoon, maar ik kan hem niet aan iedereen laten zien.

[0:31:56] Maar dat komt straks pas. En weet je, als iemand van kleur

[0:32:00] of als een buitenstaander, wordt er vaak gezegd dat we met 1 of 2-0 achter staan.

[0:32:05] En dan iemand die dat niet is, die zegt al heel gauw nee.

[0:32:08] Die zegt al heel gauw dat is niet zo.

[0:32:10] Maar wij staan niet 2-0 achter, wij staan 10-0 achter.

[0:32:13] En de dag van vandaag, dan kan iemand zeggen...

[0:32:15] hier in de zaal dat dat niet zo is, maar dat is echt zo.

[0:32:20] En ik zou me er niet trots bij voelen als ik niet zou zeggen dat het niet zo is.

[0:32:24] Snap je? Het is gewoon de realiteit.

[0:32:26] En het is ook tijd dat er stappen ondernomen gaan worden.

[0:32:30] Want we kunnen wel elke keer uitgenodigd worden voor een gesprek hier.

[0:32:34] Dat is allemaal leuk en aardig.

[0:32:35] Maar toch blijft het hetzelfde.

[0:32:37] Ik ben nu al vier keer geweest.

[0:32:40] En er is nog niks veranderd.

[0:32:43] En alleen ik al ben vier keer geweest.

[0:32:45] En de rest is al zeven, acht jaar bezig.

[0:32:47] Dus hoe gaan we dat dan oplossen?

[0:32:49] Want elke keer wanneer ik zeg maar kom, dan is het van...

[0:32:52] Ja, we zoeken naar oplossingen en ja, we gaan ermee aan de slag.

[0:32:57] Maar er gebeurt helemaal niets.

[0:32:59] Het is alleen maar praten, praten.

[0:33:02] En dan even goed houden, even bedanken.

[0:33:04] Dank je wel dat je bent gekomen. Bedankt voor je komst.

[0:33:07] En dan zijn we weer bij hetzelfde.

[0:33:11] Dank je wel.

[0:33:14] We horen in ieder geval goed wat u zegt, wat u allen zegt.

[0:33:19] En ik zou aan de leden willen ik eigenlijk in de gelegenheid stellen om een vraag voor de gasten te stellen.

[0:33:27] De heer Bamenga is van D66, mevrouw Palmen nieuw sociaal contract en de heer Ergin van DENK.

[0:33:34] Als u ook aan wil geven aan wie u de vragen stelt, dan hebben we nog 20 minuten om een aantal vragen in gesprek te zijn met de gasten.

[0:33:45] Begin ik met de heer Bamenga.

[0:33:52] Dank voor het vertellen van uw verhaal en zeer dapper, zeer moedig en nou het zijn verhalen

[0:34:01] over over onrecht en maar ik denk wel door te vertellen ontstaat er wel bij heel veel

[0:34:08] mensen die hetzelfde hebben ervaren een gevoel van erkenning en ook een gevoel van hoop omdat

[0:34:13] dat dit toch een begin is, zeg maar, om toch bij te dragen aan een oplossing.

[0:34:17] Waar we natuurlijk hiervoor zijn, om op zoek te gaan naar die oplossing.

[0:34:23] Daarom, ik wilde nog graag vragen, want ik zie ook de emoties,

[0:34:27] maar wellicht ook wel van belang om daar wat langer op stil te staan van

[0:34:32] wat doet risicoprofilering met u?

[0:34:36] Wat zijn de gevolgen voor jezelf, voor je zelfbeeld,

[0:34:38] voor het vertrouwen in de overheid en misschien wel andere aspecten van uw leven.

[0:34:47] Ik stel de vraag aan zowel mevrouw Bauer als de heer Moreira Moreno.

[0:34:55] Mevrouw Bauer wil u beginnen.

[0:34:56] Ja, ik denk dat ik eigenlijk het gevoel te hebben,

[0:35:04] zeg maar onder een loep gestaan te hebben van de overheid,

[0:35:07] dat dat het meeste geraakt heeft, dus dat je geselecteerd bent en daarna ook nog een ontzettende

[0:35:16] vrede op handeling hebt gekregen. Daar heb ik heel veel moeite mee. En ook dat onze gegevens overal

[0:35:22] naartoe gedeeld zijn, dat geeft me een heel onveilig gevoel van welke overheidsinstelling heeft mijn

[0:35:27] gegevens. Die gegevens worden niet automatisch verwijderd, dus worden wij geacht om al die

[0:35:33] ...instanties af te gaan om AFG-verzoek te doen, om dat te laten verwijderen.

[0:35:38] En het zorgt er ook voor dat bij banken en verzekeraars bijvoorbeeld...

[0:35:42] ...dat je risicopremie hoger wordt, dat mensen hun banen kwijtraken.

[0:35:46] Dat heeft ontzettend veel gevolgen.

[0:35:50] En het gekke was, ik ben ook bij het Nationale Ombudsman voor geweest...

[0:35:54] ...is dat ik niet boven tafel kreeg waarom ik eigenlijk als fraudeur te boek stond.

[0:35:59] En ik kreeg wel een brief, maar niet de reden waarom.

[0:36:02] En toen ging ik daarna vragen, want dan kon je inloggen om daarachter te komen.

[0:36:08] En toen kreeg ik ineens een telefoontje.

[0:36:10] Jij staat helemaal niet in onze systemen als fraudeur.

[0:36:14] En toen ik dat in een WhatsAppgroep plaatste, toen bleek dus dat al die ouders dat hadden.

[0:36:18] Dus dat hun gegevens niet meer te vinden waren.

[0:36:22] Dat geeft mij wel een gevoel alsof er met mijn gegevens gerommeld is.

[0:36:27] En dat het niet best is, zeg maar, waarom ze dat gedaan hebben.

[0:36:32] Dat is heel unheimisch. Je voelt je niet veilig in ieder geval.

[0:36:37] Het geeft mij het gevoel dat ik uit Nederland weg moet.

[0:36:47] Het vertrouwen dat is er sowieso niet.

[0:36:50] Als je als jonge jongen die net zijn rijbewijs heeft gehaald...

[0:36:53] uit de auto wordt gehaald en naar een afgelegen plek wordt gelegd...

[0:36:57] voor politiecontrole en je heel daar onschuldig staat...

[0:37:01] terwijl je gewoon verzekerd bent en al...

[0:37:03] Maar ja, de auto wordt gezet en de auto wordt in beslag genomen en het eerste wat ze zeggen is van ja, het klopt niet, want er is fraude.

[0:37:13] En dan denk ik bij mezelf eerst op het eerste moment denk ik van, hoe bedoel je fraude?

[0:37:17] Ik heb niks gedaan, mijn moeder heeft niks gedaan.

[0:37:19] Ja, en je moeder moet heel hard, je moeder moet 125.000 euro betalen.

[0:37:25] En ja, weet je, je krijgt schaamte, je voelt angst, je weet niet wat er aan de hand is.

[0:37:30] En ze leggen ook niks uit, want de belasting was er zelf ook.

[0:37:32] Ze konden me ook apart nemen en het vertellen, maar dat deden ze niet.

[0:37:36] Nou, vanuit daar dacht ik al dat de overheid een grote grap was.

[0:37:41] En nu ik ouder ben en een auto wil verzekeren, kan ik geen maandpremie betalen.

[0:37:46] Ik moet in één keer 400 euro betalen voor een kwartaal.

[0:37:49] Dan denk ik ook bij mezelf van, oké, waar willen jullie allemaal naartoe?

[0:37:54] De last hebben jullie al gelegd.

[0:37:56] We staan onder een hele grote vergrootglas terwijl we daar niet horen.

[0:37:59] Je voelt je bekeken, je voelt je niet veilig.

[0:38:02] En het enigste wat ze roepen is dat je moet betalen en brieven sturen.

[0:38:05] Maar de uitleg, ho maar.

[0:38:07] Op een gegeven moment heb je het gevoel dat je hier weg moet.

[0:38:10] Je wilt hier niet blijven. Het liefst gaan we weg.

[0:38:13] Maar ja, familie, de omgeving is allemaal bekend.

[0:38:16] Dus dat speelt ook een rol.

[0:38:18] Maar als dat er niet was, dan had ik mijn koffers al lang gepakt...

[0:38:21] en was ik al langer weg geweest.

[0:38:23] Ik heb tantes van mij en kennissen die gewoon naar het buitenland zijn gevlucht.

[0:38:27] het hoofdstuk hebben afgesloten, hun kinderen spreken gewoon nauwelijks Nederlands.

[0:38:33] Ik denk niet dat je daar als land trots op moet zijn.

[0:38:35] Ook al zijn het maar twintig van de zoveel miljoen, maar het zijn wel twintig.

[0:38:41] En uiteindelijk zijn het er geen twintig, het worden duizenden.

[0:38:43] Maar ja, als jij als land daar niks voor doet en ze ook geen hulp aanbiedt,

[0:38:48] dan wat zijn we eigenlijk hier aan het doen?

[0:38:54] Dank u wel. Mevrouw Palmer, aan u.

[0:38:57] De gelegenheid van stellen van vragen.

[0:38:58] Dank u wel voorzitter en ook heel veel dank aan de sprekers voor het delen van met name

[0:39:06] de ervaringsverhalen die heel aangrijpend zijn.

[0:39:09] Het wordt heel pijnlijk duidelijk hoeveel effect het heeft wanneer er risicoselectie plaatsvindt

[0:39:18] zonder dat er acht wordt geslagen op de waarborgen die we eigenlijk zouden moeten bieden als

[0:39:23] overheid.

[0:39:23] Eigenlijk zien we de laatste jaren dat rechtsbescherming door de overheid meer is geworden dan rechtsbescherming

[0:39:30] tegen dezelfde overheid.

[0:39:32] En hoe erg en hoe pijnlijk is dat, omdat we moeten concluderen.

[0:39:36] Ik heb meneer Van Zutphen horen praten over de navolgbaarheid en de uitlegbaarheid van

[0:39:42] situaties en ik heb mevrouw Brouwer horen praten over waarom ik, waarom mijn dossier.

[0:39:49] Ik denk dat het heel belangrijk is dat we dat met elkaar vastpakken.

[0:39:55] Dat een selectie altijd navolgbaar en uitlegbaar moet zijn.

[0:40:01] Ik vrees dat dat op dit moment niet het geval is.

[0:40:06] Ik hoorde meneer Terpscha praten over de preventietoets.

[0:40:10] Eigenlijk haakt dat allemaal in elkaar over.

[0:40:16] Zou het helpen, zou het een bijdrage leveren aan het recht doen aan het verbod op discrimineren

[0:40:23] en het geboden zijn van gelijke behandeling, om die preventietoets, dus ook voorafgaand

[0:40:30] aan de uitvoering, al te toetsen op de navolgbaarheid en de uitvoerbaarheid, zodat we die why-vraag,

[0:40:36] de waarom-vraag, op voorhand al in het oog hebben?

[0:40:40] Dat is mijn vraag.

[0:40:42] En dat vraagt u aan...

[0:40:44] We gaan beginnen.

[0:40:52] Als ik kort ben, zeg ik ja.

[0:40:55] Maar er komt wel iets bij.

[0:40:57] Het is niet alleen omdat je die preventieve toets wil doen,

[0:40:59] maar je wil zeker weten dat datgene wat je wil bereiken met een algoritme bijvoorbeeld,

[0:41:03] dat het ook zo is gebruikt en getoetst,

[0:41:05] dat je ook alle situaties daarmee kunt vertellen waarom de uitkomst is zoals die is.

[0:41:12] Ik heb wel bij mensen gezeten die daar veel meer verstand van hebben

[0:41:15] van hoe dat werkt dan ik zelf.

[0:41:17] Waarbij je zegt, weet je wat er nu is gebeurd bij Duo, maar wat ook is gebeurd in andere systemen,

[0:41:21] had voorkomen kunnen worden als we met de goede mensen van tevoren die toets hadden gedaan.

[0:41:26] En een preventietoets is wat mij betreft, maar het is voor het college om daar misschien nog meer over te zeggen,

[0:41:30] maar de preventietoets is niet alleen maar opschrijven wat er zou moeten gebeuren, maar hem ook uitvoeren.

[0:41:34] Dus het is ook in de praktijk kijken of er dan gebeurt wat er moet gebeuren als je het inzet.

[0:41:40] Dus die algoritme, die moeten niet alleen maar op papier worden getoetst met een mooi papier en een checklist,

[0:41:47] maar die moeten in de praktijk worden gebruikt door zoveel mogelijk mensen,

[0:41:50] van zoveel mogelijk delen van het land, met zoveel mogelijk verschillende afkomst,

[0:41:54] met zoveel mogelijk verschillende enzovoort enzovoort.

[0:41:57] Opleiding, woonplaats, beroep, kamijtschede, wat dat allemaal moet zijn,

[0:42:00] en dan kijken of de uitkomst gerechtvaardigd is.

[0:42:04] Als ik één ding naar mag toevoegen, dat is dat als je dat niet doet,

[0:42:08] dan krijg je dus uiteindelijk de verhalen die we zojuist gehoord hebben.

[0:42:11] Er is een boek van zelf een tijdje geleden, het Automating Inequality.

[0:42:15] Als je dus het niet goed doet, dan ga je in de systemen de ongelijkheid en discriminatie,

[0:42:20] ga je daarin bouwen en dan krijg je dit als effect.

[0:42:25] En daarom is die toets van tevoren zo belangrijk.

[0:42:30] Meneer Terpstra.

[0:42:33] Ja, dank u wel.

[0:42:35] Ja, een preventieve toets lijkt ons als college heel belangrijk,

[0:42:39] omdat dat voorkomt dat je een systeem in gebruik gaat nemen

[0:42:42] voordat je weet wat de effecten zijn.

[0:42:44] Normaal gesproken zou je verwachten dat een eisenorganisatie zelf

[0:42:48] heel goed kijkt wat allemaal de effecten zijn.

[0:42:51] Maar we zien in ieder geval de afgelopen veertien jaar dat dat niet gebeurd is.

[0:42:56] En dat is ook een beetje de opkomst van big data.

[0:42:58] En we hebben toch ook een beetje het idee dat er is gepioneerd

[0:43:01] en eigenlijk ten koste van de rechten van de mens in dit opzicht,

[0:43:07] zonder dat we wisten wat precies de effecten zouden zijn,

[0:43:09] zijn er instrumenten in gebruik genomen waarvan dat lijkt wel nuttig.

[0:43:16] Ja, daar moeten we nu op ingrijpen en een preventieve toets is daar een onderdeel van.

[0:43:21] Het is niet het hele verhaal, want ook als een algoritme eenmaal in gebruik is

[0:43:25] en misschien een keer een stempel van goedkeuring heeft gekregen,

[0:43:28] kunnen situaties veranderen, de populatie kan veranderen,

[0:43:31] zodat er alsnog ongelijke effecten zijn, maar dat zit heel diep in de techniek

[0:43:35] Het voelt een beetje ongepast.

[0:43:42] Als ik de verhalen hoor van mensen die het zelf hebben meegemaakt,

[0:43:45] om daar nu heel specifiek op in te gaan.

[0:43:47] Maar daar gaan we zeker nog nader in in de toetsenkade.

[0:43:51] Mag ik er één ding aan toevoegen?

[0:43:55] Die toets moet ook inhouden waar u bijna over hebt gesproken.

[0:43:58] Waar gaan de gegevens en de data heen?

[0:44:01] Want het niet meer kunnen opsporen waar ze zijn en waar ze vandaan komen.

[0:44:04] en wat er is gebeurd, dat zou in die preventieve toets ook onderdeel moeten zijn.

[0:44:08] Waar wordt het voor gebruikt? Waar wordt het aan gekoppeld?

[0:44:11] Wie mag ermee aan de slag en wat zijn daarvan de effecten?

[0:44:16] En sorry, ja, toch nog ook één punt nog vergeten te zeggen.

[0:44:21] Wat we als college ook zien dat er erg belangrijk is, is ook al aan de kant van

[0:44:25] de wetgeving zou er eigenlijk al na moeten worden gedacht.

[0:44:28] Wat voor soort handhaving is er nodig voor deze wet, voor deze regeling?

[0:44:34] Bijvoorbeeld bij de duo.

[0:44:36] We vinden het interessant als mensen die uitwonend zijn meer geld krijgen,

[0:44:40] omdat ze meer kosten hebben.

[0:44:41] Snappen we allemaal.

[0:44:43] Maar wat is er voor nodig om te controleren of mensen ook echt uitwonend zijn?

[0:44:46] En als je daar al uitgebreider bij stilstaat, kun je ook een hoop leed voorkomen.

[0:44:50] Kostendelen is norm, hetzelfde verhaal.

[0:44:53] En dat is ook een boodschap die we graag aan de wetgever willen meegeven.

[0:44:57] Kijk ook bij wetgeving.

[0:44:58] Soms misschien niet de beste regel, maar wel de veiligste regel.

[0:45:01] Want handhaving doet altijd iemand pijn.

[0:45:06] Sorry. En mevrouw Bouwer?

[0:45:16] Ja.

[0:45:19] Ja, ik denk dat zeker preventie heel goed is.

[0:45:23] Daarvoor ligt nog een stap, denk ik...

[0:45:25] of de overheid echt wel geld aan ons wil geven of aan burgers.

[0:45:29] Of ze daar goed over na willen denken...

[0:45:31] en of ze burgers hun leven beter of makkelijker willen maken.

[0:45:35] Ook voor zichzelf hun systemen dus aanbouwen.

[0:45:39] Dat dat ook kan, zeg maar, en dat als ze bijvoorbeeld één keer per maand iets geven, dat er ook één keer per maand controle plaatsvindt.

[0:45:50] Dat ze eigenlijk, wil ik ook zeggen, dat er duidelijker van tevoren is waarom mensen geld krijgen en of er voorwaarden geschapen kunnen worden.

[0:45:59] Omdat als mensen een subsidie of steun krijgen, dat er ook goede manieren zijn om daar controle op uit te oefenen.

[0:46:09] En ik denk ook dat je de ethische afwegingen moet maken van,

[0:46:14] als je een algoritme of iets in wilt bouwen,

[0:46:18] ja, waarom wil je dat dan?

[0:46:22] Ik denk dat het vooral belangrijk is de ethiek erachter.

[0:46:26] En als je eenmaal iets ingevoerd hebt,

[0:46:29] achteraf ook toetsen of het voldeed aan de verwachtingen die er waren

[0:46:33] en niet twintig jaar wachten ofzo.

[0:46:39] Ik wil ook beginnen om de heer Moreno en mevrouw Bauer te bedanken.

[0:46:45] Ik denk dat dat eigenlijk een mooie samenvatting is dat we moeten voorkomen en eigenlijk moeten stoppen met etnisch profileren.

[0:46:56] Daar kan ik een aantal eigen ervaringen aan toevoegen, maar uw ervaringen zijn vele malen heftiger.

[0:47:02] Dus dank voor uw moed en nogmaals dank daarvoor.

[0:47:07] En ik heb een vraag aan de vertegenwoordiger van het college voor de rechter van de mens.

[0:47:12] Want ik heb uw position paper doorgenomen en daarin staat op pagina drie staat op een gegeven moment

[0:47:18] dat onderscheid maken op grond van ras in de praktijk zelden of nooit is gerechtvaardigd.

[0:47:25] En als ik het woord zelden lees, dan proef ik enige ruimte.

[0:47:29] en ik zou aan de heer Terpstra willen vragen, voorzitter, wat daarmee wordt bedoeld met zelden

[0:47:35] en zo ja, of als die ruimte er is, op basis van welke gronden er dan kennelijk ruimte is

[0:47:43] om etnisch te profileren of om ras te gebruiken als indicator.

[0:47:50] Ja, de heer Terpstra.

[0:47:51] Ja, dank u wel voorzitter en dank voor de vraag.

[0:47:56] In het position paper, ik zie hier de papervormen, daar slaat dat op.

[0:48:05] De normen zoals ze daar ook onder staan, weergegeven van het Europees Hoogwoordelijks Recht van de Mens.

[0:48:11] Wij hebben er zelf niet als college daar een voorbeeld van.

[0:48:14] We zeggen, daar mag je dat gebruiken. Maar dit is zeg maar zoals de normen uitgelegd zijn.

[0:48:21] Als je kijkt naar... Ik wil ook dat benadrukken.

[0:48:28] Raadvoorhanden zullen er altijd ergens zijn.

[0:48:29] Is dit al handhaving of niet?

[0:48:31] Of is dit, zoals de gerechtshof bij de Kmar zegt,

[0:48:36] als je mensen kunt helpen in een kwetsbare positie,

[0:48:39] dan zou je wellicht iets van een etnisch criterium kunnen gebruiken.

[0:48:49] En we zeggen ook in het position paper, ja, wij hebben geen beeld bij wat het gerechtshof daar precies bedoelt.

[0:48:54] Maar dan is het dus gerechtvaardigd en daarom vinden we het ook een beetje oppassen om daar te veel over te praten.

[0:49:02] Dan lijkt het net, wil niet de indruk wekken, dat daar allerlei ruimte is.

[0:49:06] Snapt u? Dus zo moet u dat lezen.

[0:49:10] Het gerechtshof noemt zelfs, als je mensen kunt helpen en dan noem je zelf het voorbeeld van mensenhandel.

[0:49:18] Het college vindt dat een ingewikkelde zin, omdat ze denken,

[0:49:20] ja, maar dat laten we nou niet doen alsof mensenhandel op enis een goede reden is om etniciteit te gebruiken.

[0:49:27] Maar ja, het gerechtshof zegt dat.

[0:49:30] Dus daar ziet het gerechtshof kennelijk een soort ruimte.

[0:49:35] Dus daar komt de uitdrukking zelden of nooit vandaan.

[0:49:38] En hoe je dat moet toetsen, daarvan zegt het college van, gebruik het gewoon niet.

[0:49:46] En als er dan toch een instelling is die zegt, ja, maar wij zitten in zo'n bijzondere uitzondering.

[0:49:51] Dat is precies waar het gerechtshof over spreekt.

[0:49:54] Of dat is waar, ik bedoel, de centrale raad van beroep over spreekt.

[0:49:57] Wij voldoen precies aan die criteria.

[0:49:58] Of het Europese voor het recht van de mens.

[0:50:01] Dan zeggen we, gebruik het nog steeds niet.

[0:50:03] Maar leg het eerst voor, voor een preventieve toets.

[0:50:06] En tot die tijd mag er niets gebruikt worden.

[0:50:09] Dus dat is onze reactie eigenlijk op die rafelrand eigenlijk van het recht.

[0:50:13] Ik denk dat dat het is.

[0:50:15] Ja, dank u wel.

[0:50:18] Ik kijk even naar onze gasten, want is er iets wat u nog had willen zeggen

[0:50:23] tijdens deze bijeenkomst waarvan u zegt, dan neem ik nog even de laatste minuten voor.

[0:50:27] Ja, meneer van Zutphen.

[0:50:29] Eén zin, dat doe ik eigenlijk altijd.

[0:50:31] Laten we Caribisch Nederland niet vergeten in deze discussie.

[0:50:34] Want het gaat over heel Nederland.

[0:50:36] Daar is deze Kamer ook verantwoordelijk voor.

[0:50:38] Dus we mogen die drie eilanden waar we die bijzondere verantwoordelijkheid hebben

[0:50:41] en waar profileren ook voorkomt

[0:50:44] en handhaving ook aan de orde van de dag is, dat mogen we niet vergeten.

[0:50:48] Dank u wel.

[0:50:50] Voorzitter, dan zou ik nog een kleine vraag kunnen stellen.

[0:50:55] Ik hoop eigenlijk dat onze gasten in de

[0:50:57] gelegenheid zijn te blijven en dat u wellicht elkaar nog even kan spreken.

[0:51:01] Maar we hebben drie blokken met andere gasten weer die zitten te wachten.

[0:51:05] Dus ik zou dit nu willen afronden.

[0:51:06] Tenzij u echt een vraag voor iemand met ja of nee kan beantwoorden.

[0:51:10] Maar dat is in dit onderwerp vaak niet het geval.

[0:51:15] Dan rond ik dit blok af, dank ik de gasten nogmaals hartelijk en ik hoop dat u in de

[0:51:22] gelegenheid bent om hierbij ons aanwezig te blijven.

[0:51:26] En dan nodig ik de gasten uit in blok 2, dat is de heer Jansen, de heer Doeleman, mevrouw

[0:51:34] Sievers en mevrouw Keijer.

[0:51:36] Ik hoop dat zij al aanwezig zijn.

[0:51:43] En dan schors ik voor een enkel moment.

[0:53:36] Beste mensen, ik zou willen beginnen met de volgende blok.

[0:53:39] Mag ik ook aan de leden vragen om weer plaats te nemen?

[0:53:43] En we missen nog één gast.

[0:53:50] Mag ik aan de leden vragen om weer plaats te nemen?

[0:54:28] Ik zou

[0:54:30] dit ronde tafelgesprek willen voortzetten.

[0:54:32] Ik kijk even naar een leefstel.

[0:54:35] Is onze gast... Oh, die komt eraan. Ja.

[0:54:41] We hebben in het tweede blok met een aantal uitvoeringsorganisaties.

[0:54:45] Ik zou aan u willen vragen en dan begin ik aan deze kant

[0:54:48] om mezelf voor te stellen en een korte inhoudelijke inleiding te doen

[0:54:52] op het onderwerp waar we vandaag hier over spreken,

[0:54:55] risicoprofilering in het handhavingsbeleid.

[0:54:57] De heer Dons, dan u het woord.

[0:55:00] Ja, dank u wel. Dank u wel voor de uitnodiging.

[0:55:03] Mijn naam is Benjamin Jansen en ik ben bij de Belastingdienst

[0:55:05] directeur van de directie Data Fundamenten en Analytics.

[0:55:10] Een directie waar veel met data wordt gewerkt

[0:55:11] en waar algoritmes worden gemaakt.

[0:55:14] Die worden gebruikt in onze werkprocessen.

[0:55:17] Ik heb net in de zaal gezeten, het is ook indrukwekkend

[0:55:19] om de verhalen te horen van mensen van vlees en bloed

[0:55:22] en het effect wat er op hen is van wat wij als belastingdienst

[0:55:26] ook in massaliteit doen.

[0:55:27] En dat appelleert bij mij in ieder geval aan de verantwoordelijkheid

[0:55:29] om naar de toekomst toe beter te doen en lessen te trekken

[0:55:32] en dat ook wat werkelijk serieus te nemen.

[0:55:35] De Belastingdienst werkt volgens een strategie

[0:55:37] om burgers en bedrijven zoveel mogelijk zelf in staat te stellen

[0:55:40] om aan hun verplichtingen te voldoen.

[0:55:42] En daarbij gaan we uit van vertrouwen.

[0:55:45] En daarbij hoort ook handhaving.

[0:55:47] En daar heb ik een uitvoerings- en handhavingstrategie voor.

[0:55:50] En daar zit eigenlijk het hele spectrum in.

[0:55:52] Dat is dienstverlening, toezicht en ook opsporing.

[0:55:56] En daarbij willen we ook de menselijke maat hanteren.

[0:55:59] En dat stellen we ook nadrukkelijk aan de orde in de belastingdienst.

[0:56:03] En ik denk dat dat echt wel anders is dan jaren geleden.

[0:56:06] Ik heb soms ook wel een beetje moeite met het woord risicoprofilering.

[0:56:09] Omdat daar eigenlijk al een soort van mensbeeld achter zit.

[0:56:12] Dat je naar mensen of naar verzoeken kijkt vanuit een risicoperspectief.

[0:56:16] Dat is dus meteen iets negatiefs.

[0:56:19] Dat past denk ik ook niet altijd.

[0:56:21] Ten eerste, wat we bij de belastingdienst aan het delen doen, is controleren.

[0:56:27] en liefst zoveel mogelijk op basis van informatie die we al hebben

[0:56:30] of die we vanuit andere organisaties aangeleverd krijgen.

[0:56:34] En waar we die informatie niet hebben, zijn we eigenlijk onzeker.

[0:56:38] Dat wil niet per se zeggen dat het een risico is of dat iemand een fraudeur is.

[0:56:41] We weten het gewoon niet.

[0:56:43] Het andere is dat mensen ook soms fout maken in hun eigen nadeel.

[0:56:47] Daarom kunnen we, denk ik, al helemaal niet spreken van een risico.

[0:56:52] Wat profilering aangaat, groepskenmerken gebruiken om te bepalen

[0:56:56] welke groep wordt geselecteerd voor een bepaalde actie.

[0:57:00] Dat kan een controle zijn, dat doen we.

[0:57:01] Maar het kan bijvoorbeeld ook zijn om te kijken van een dienstverleningsoptiek

[0:57:06] welke mensen we persoonlijk benaderen nadat ze een aanmaning hebben gekregen.

[0:57:10] Daar hebben we ook een algoritme voor, wat Profilingen gebruikt,

[0:57:12] dat ook in het algoritmeregister staat.

[0:57:14] En dat is niet bedoeld om te controleren,

[0:57:16] maar bedoeld om de dienstverlening te vergroten.

[0:57:20] En ja, daar gebruiken we groepskenmerken,

[0:57:23] maar niet vanuit het beeld als je in die groep zit,

[0:57:25] dan ben jij dus ook zo een, of dan gelden al die dingen ook voor jou,

[0:57:28] of dan ben jij dus iemand die het niet goed doet.

[0:57:31] En dat moeten we, denk ik, heel snel uit elkaar, heel sterk uit elkaar halen.

[0:57:35] Ik ben zelf van oorsprong wiskundige.

[0:57:36] Wij zeggen dan, er is correlatie, maar er is geen causaliteit.

[0:57:40] Het feit dat je in die groep zit, wil niet zeggen dat jij dus.

[0:57:43] En dat zegt iets voor wiskundigen en de technische kant,

[0:57:46] rondom algoritmes, maar zeker ook naar de menselijke kant.

[0:57:48] Want ook bij de mensen die in de handhavingscontrole zitten,

[0:57:51] die zullen ook vanuit dat beeld moeten werken.

[0:57:55] Wij voeren steekproeven uit om een evenwichtig beeld te krijgen van hoe de aangifte eruit ziet, wat daarin speelt.

[0:58:06] En op basis van dat en ervaring en data gebruiken wij signaalmodellen in onze handhaving.

[0:58:12] Om eigenlijk die veelheid van verzoeken, aangiftes die we krijgen te selecteren.

[0:58:19] Want anders zijn het er simpelweg teveel.

[0:58:21] Alleen als je kijkt naar de inkomstenheffing tot 1 mei zijn er meer dan 10 miljoen aankieftes binnengekomen.

[0:58:26] Die kunnen we onmogelijk met de hand doen.

[0:58:29] Dus voor ons is niet zozeer de vraag of je moet selecteren, maar wel heel sterk hoe je dat doet.

[0:58:33] En hoe je dat ook zorgvuldig doet.

[0:58:35] Met de juiste waarborgen, betreffende rechtsstatelijkheid, zorgvuldigheid en ook ethisch.

[0:58:40] En zorgen dat het niet discriminerend is.

[0:58:43] Nou daar hebben we als Belastingdienst natuurlijk ook leergeld in betaald.

[0:58:45] En ook de afgelopen jaren geïnvesteerd in waarborgen daarom.

[0:58:48] Dus waarborgen aan de ene kant aan de meer de technische kant,

[0:58:51] waarborgen rond selectie-instrumenten,

[0:58:53] hoe we die ontwikkelen, hoe we die gebruiken,

[0:58:57] en ook waarborgen aan de kant van bewustwording.

[0:59:02] Dus omgaan met vooroordelen in een organisatie.

[0:59:05] Want we realiseren ons dat die onbewuste vooroordelen,

[0:59:08] dat je niet bewust de ene groep anders behandelt dan de andere,

[0:59:15] maar juist het onbewuste misschien in ieder geval veel gevaarlijker is

[0:59:18] en veel meer aandacht nodig heeft.

[0:59:20] Met het College van het Recht van de Mensen is bijvoorbeeld

[0:59:21] voor iedereen verplichte training ontwikkeld over vooroordelen,

[0:59:24] over het bewustzijn van vooroordelen en daarmee omgaan.

[0:59:28] Waar daarbij bijzonder aandacht voor nodig is, is voor indirecte discriminatie.

[0:59:33] Dus daar waar we niet criteria gebruiken die rechtstreeks gaan over ras, geloof, nationaliteit,

[0:59:38] want dat doen we niet, en nationaliteit hoogstens als dat in de wet staat,

[0:59:42] maar juist de indirecte kant. Daar waar je niet bedoelt, maar je algoritme wel,

[0:59:49] als het ware, via zogenaamde proxies, groepen naar boven haalt die oververtegenwoordigd zijn.

[0:59:56] Daar is, wat ons betreft, bias-toetsing heel erg belangrijk. Dus op statistische manier

[1:00:00] ook toetsen wat is de uitkomst van het effect van het werk wat je doet. Ik denk dat het net

[1:00:05] ook al een stukje in het gesprek over die preventieve toetsen voorkwam. Dat je ook

[1:00:10] dat je weet wat is de impact, het effect van je selectie-instrument

[1:00:14] en daar ook op toetst of daar bepaalde groepen niet oververtegenwoordigd in zijn.

[1:00:19] Dat moet wat ons betreft niet alleen in de ontwikkelingsfase,

[1:00:21] maar juist ook in de levenscyclus van zo'n instrument gebeuren.

[1:00:25] En daarnaast aan de menselijke kant ook dat de gebruikers van zo'n instrument

[1:00:30] ook begrijpen wat zo'n instrument wel kan en wel zegt en niet zegt.

[1:00:34] Daar wil ik de heer Palaat.

[1:00:37] O, ja, dank u wel.

[1:00:38] Meneer Doeleman.

[1:00:41] Ja, mijn naam is Reiner Doeleman en ik ben IV-regisseur intelligence en opsporing bij de politie.

[1:00:47] En tevens de voorzitter van de stuurgroep op het programma kwaliteits- en risicomanagementsysteem voor algoritmes en AI.

[1:00:55] Dat is een mondvol, dus dat korten we af tot CRAI.

[1:00:59] Dus als die term voorbij komt, dan weet u waar dat voor staat.

[1:01:01] Dank voor de mogelijkheid om hier een toelichting te geven over de visie van de politie op dit onderwerp.

[1:01:10] Ik zou het willen scheiden in twee verschillende dingen, namelijk de ene is het handelingskader professioneel controleren

[1:01:17] en aan de andere kant de omgang met algoritmes en artificial intelligence.

[1:01:23] Als het gaat om dat handelingskader dan heeft de politie proactief,

[1:01:28] mede naar aanleiding van de uitspraak van het gerechtshof met betrekking tot het

[1:01:32] mobiel toezicht en veiligheidscontroles van de Kemar,

[1:01:35] haar eigen handelingskader professioneel controleren voor de controles op straat

[1:01:40] aangepast. Dit is dat handelingskader, dat bestaat uit vier stappen,

[1:01:47] selecteren, uitleggen, bejegenen en reflecteren.

[1:01:50] Nou, dat kwam net al voorbij in de voorbeelden, als je dat uitleggen niet goed doet,

[1:01:54] dan kan dat verkeerd gaan.

[1:01:58] Daarom is het een belangrijke stap in het professioneel controleren.

[1:02:03] En de bestudering van de uitspraken en de gesprekken met het maatschappelijk middenveld

[1:02:07] hebben er bij de politie toegeleid dat het handelingskader dus ook geactualiseerd is.

[1:02:13] En in het geactualiseerde handelingskader is expliciet opgenomen

[1:02:17] dat selectiebesluiten voor controle alleen op basis van objectieveerbare gronden mogen plaatsvinden.

[1:02:26] En waarvan ras, etniciteit, afkomst of uiterlijke kenmerken nooit onderdeel mogen uitmaken.

[1:02:33] De enige uitzondering is als er sprake is van een signalement van een verdachte of een betrokkene,

[1:02:39] bijvoorbeeld een vermist persoon.

[1:02:42] En ik wil ook nog benadrukken dat de vorige versie van het handelingskader dit ook al zei,

[1:02:47] maar dat we het nu nog explicieter erin opgenomen hebben.

[1:02:53] En als het dan gaat over de implementatie van dat kader,

[1:02:56] dan zijn we daar druk mee bezig via het programma Politie voor Iedereen.

[1:03:00] Er wordt actief aandacht besteed aan cultuurverandering,

[1:03:04] verandering van gedrag en het vergroten van professionaliteit

[1:03:07] bij controles op straat.

[1:03:09] En de politie doet ook eigen onderzoek

[1:03:11] met behulp van de Vertrouwens- en Reputatiemonitor

[1:03:14] en naar de kennis van het handelingskader binnen de politie.

[1:03:17] De politiechefs van alle eenheden hebben recent nog het belang van professioneel controleren onderschreven.

[1:03:24] Er is ook afgesproken dat er nog nadrukkelijker aandacht komt voor professioneel controleren en het trainen en het toetsen.

[1:03:32] Er vinden diverse trainingen van professioneel controleren plaats.

[1:03:36] Er worden allerlei werkvormen voor ingezet.

[1:03:38] Bijvoorbeeld formele trainingen, maar ook trainingen met middel VR-brillen en zelfs theatertechnieken worden daarin toegepast.

[1:03:46] We zien dat het aantal gespreksleiders en ambassadeurs voor professioneel controleren op de basis teams groeiend is.

[1:03:54] De politie vindt het belangrijk om het gesprek over professioneel controleren breed te blijven voeren.

[1:03:59] We willen op alle plekken in de organisatie en in alle ontmoetingen met burgers tot professioneel contact blijven komen.

[1:04:08] Als ik dan overga op het deel wat meer gaat over algoritmes en AI.

[1:04:15] Want daar hebben we ook veel aandacht voor.

[1:04:18] Met name voor de verantwoorde ontwikkeling en gebruik van moderne technologie.

[1:04:22] Onder andere bij risicoprofilering.

[1:04:24] Maar het gebeurt natuurlijk voor meer dan alleen maar dat.

[1:04:27] Dat doen we als politie binnen vaste kaders zorgvuldig.

[1:04:31] In samenwerking met de wetenschap.

[1:04:33] Binnen de kaders van de wet.

[1:04:34] In afstemming met het bevoeggezag.

[1:04:36] En volgens de normen en waarden van onze democratische rechtsstaat.

[1:04:41] Risicoprofilering door middel van risicomodellen kan een toegevoegde waarde hebben voor de tuikuitvoering van de politie.

[1:04:47] Het is ook gebreken uit onderzoeken.

[1:04:49] Het gebruik van valide modellen leidt tot een betere, betrouwbarere inschatting dan alleen het oordeel van een professional.

[1:04:55] Omdat het soms juist dingen objectiveerbaar maakt.

[1:04:59] Ik wil wel benadrukken dat er bij de politie bij het gebruik van algoritmes altijd sprake is van een zogenaamde human in the loop.

[1:05:06] Bij het gebruik van een risicomodel voor bijvoorbeeld het bepalen van het risico op herhaald slachtofferschap

[1:05:13] of recidive kans wordt de risicobeoordeling alleen ter ondersteuning gebruikt en een besluit

[1:05:19] of interventie vindt altijd plaats na menselijke tussenkomst.

[1:05:24] Terugkomend op die verantwoorde ontwikkeling zijn we in 2023 binnen de politie gestart

[1:05:29] met het programma CRAI, kwaliteits- en risicomanagementsysteem voor algoritmes en AI, en overigens is dat

[1:05:36] geen IT-systeem, maar een systeem van processen, procedures en heldere afspraken.

[1:05:44] Het programma CRAI heeft het doel het invoeren van een eenduidig proces, samenhangend kader

[1:05:49] en belegde verantwoordelijkheden en taken voor verantwoorde ontwikkeling en gebruik

[1:05:54] van risicovolle algoritmes inclusief AI-toepassingen.

[1:05:59] Het programma richt zich op zowel de harde kwaliteitsaspecten, dus juridische kaders,

[1:06:03] technische vereisten, als op aspecten van wenselijkheid en maatschappelijk draagvlak,

[1:06:09] zoals ethische vereisten rondom mensenrechten.

[1:06:12] En we anticiperen op zowel Nederlandse als Europese wet en regelgeving op het gebied van

[1:06:18] algoritmes en AI. En iedereen weet waarschijnlijk de AI-verordening vanuit de EU is recentelijk natuurlijk

[1:06:24] goedgekeurd. En onder de vlag van het programma wordt ook regie gevoerd op de publicatie van

[1:06:29] hoogrisico algoritmes in het nationale algoritmeregister.

[1:06:33] En eerste hebben wij gepubliceerd in december 2023.

[1:06:37] Dat was het criminaliteitsanticipatiesysteem met CAS algoritme.

[1:06:43] Om toch ook maar even de complexiteit te schetsen, want we zijn dus bezig met het ontwikkelen van een CRAAI-kader

[1:06:49] waarin staat welke richtlijnen, verplichtingen en vereisten gelden voor verantwoorde ontwikkeling en gebruik van algoritmes binnen de politie.

[1:06:57] Daarvoor hebben we allerlei kaders beoordeeld en dan moet je denken aan het kwaliteitskader

[1:07:03] Big Data van de politie zelf, de IAMA, de impact assessment mensenrechten en algoritmes,

[1:07:09] de gegevensbeschermingseffect beoordeling, het ICA implementatie kader verantwoorde

[1:07:15] inzet van de algoritmes van het ministerie van BZK, het kader van de algemene rekenkamer

[1:07:20] over algoritmes en het onderzoekskader algoritmes van de oude dienstrijken.

[1:07:24] Dat schetst al een beetje de complexiteit als je ziet hoeveel van die kaders er inmiddels al niet zijn.

[1:07:31] Tot slot, gelegitimeerd, ethisch en transparant handelen is en blijft een strategische doelstelling van de politie,

[1:07:38] zodat we waakzaam en dienstbaar blijven aan de waarde van de rechtsstaat.

[1:07:42] Dank voor uw aandacht.

[1:07:44] Dank u wel.

[1:07:45] Als we uw microfoon uitdoen, dan gaan we luisteren naar de bijdrage van mevrouw Sievers.

[1:07:50] Mevrouw Sievers.

[1:07:51] Dank u wel. Ik ben inderdaad Lieke Sievers, burgemeester van de gemeente Edam-Volendam

[1:07:56] en hier als lid van de commissie Bestuur en Veiligheid van de VNG.

[1:08:02] En naast dat het mooi is om hier aan tafel te mogen zitten, wilde ik wel het verschil benadrukken

[1:08:07] tussen de organisaties die hier zitten naast mij en de gemeente,

[1:08:11] die natuurlijk een veel bredere taak heeft dan alleen de uitvoering.

[1:08:15] Het is de eerste democratische overheidslaag, de eerste democratische laag in het openbaar bestuur.

[1:08:20] en daarmee ook een breder belang en een bredere taak dan alleen de handhaving.

[1:08:28] Want handhaving is het sluitstuk, want er wordt heel veel hulp verleend,

[1:08:32] er wordt heel veel dingen gedaan die juist de samenleving ten dienste zijn.

[1:08:38] En dat is ook de kern eigenlijk van het paper.

[1:08:43] Alle papers zijn voor iedereen leesbaar, dus ik ga hem niet helemaal voordragen.

[1:08:47] Het doel van de gemeente, zeker als eerste overheidslaag dicht bij de

[1:08:52] burgers, is het vreedzaam samenleven mogelijk maken.

[1:08:56] Het zorgen dat het algemeen belang gediend wordt, waar iedereen kan

[1:09:00] zijn wie hij is, met al zijn kwaliteiten, kleuren, alles wat er

[1:09:05] bij het mens zijn hoort.

[1:09:08] Dat er ook situaties zijn waarin mensen misbruik maken van de

[1:09:14] democratie, misbruik maken van die vrijheid.

[1:09:17] Daar hebben we dan ook mee te handelen.

[1:09:19] Daar zijn ook de uitvoerende organisaties aan deze tafel bij betrokken.

[1:09:24] Gemeenten hebben daar ook een aandeel in, wanneer het handhaving gaat op het gebied van sociale voorzieningen of dat soort zaken.

[1:09:31] Maar dat zijn de uitzonderingen.

[1:09:33] In principe wordt samengewerkt met alle inwoners en is het vreedzaam samenleven het grootste doel.

[1:09:38] Ook toepassing van risicoprofilering heeft niet het doel om mensen slachtoffer te maken,

[1:09:44] om mensen te stigmatiseren of wat dan ook.

[1:09:49] Als dat al plaatsvindt, en dat is natuurlijk allemaal nog in ontwikkeling, dan is dat om

[1:09:53] te zorgen dat de goeden niet onder de kwade lijden.

[1:09:58] En dat zal op een zo transparant mogelijke manier moeten worden georganiseerd in de checks

[1:10:05] en balances die we zeker ook op lokaal niveau kennen.

[1:10:08] want dat is de kracht van de lokale democratie.

[1:10:11] Dat daar een gemeenteraad is die controleert dat er lokale rekenkamers zijn

[1:10:15] die controleren of in een iets groter verband georganiseerde rekenkamers.

[1:10:19] Dat er burgers zelf zijn die de weg naar de gemeente weten te vinden, de loketten.

[1:10:24] Het rapport van de heer Marcouch, burgemeester van Arnhem, heeft daar nog uitgebreide aandacht voor gevraagd.

[1:10:31] De zoektocht is natuurlijk voortdurend de technologie ten opzichte van de menselijke

[1:10:37] maat zo transparant mogelijk organiseren ten behoeve van het algemeen belang en het individuele

[1:10:45] geval waarin het niet goed wordt toegepast, waarin regels niet juist worden uitgelegd,

[1:10:51] om dat eruit te weten te filteren.

[1:10:53] En daar worden zeer pijnlijke fouten gemaakt, dat hebben we gezien, maar is een algemeenheid

[1:10:59] En dat wijst internationaal onderzoek ook uit, mogen wij best trots zijn op de democratie en de overheid zoals we die hebben.

[1:11:06] En een van de grote krachten die we hebben is juist al die tegenspraak die wij hebben.

[1:11:10] Dus laten we daar ook vooral ook dit type gesprekken voor gebruiken om die tegenspraak op een goede manier te organiseren.

[1:11:17] Zodat we op een voor zo weinig mogelijk mensen schadelijke manier deze risicoproflering in kunnen toepassen.

[1:11:28] Ik heb het gesprek natuurlijk in de vorige ronde deels meegemaakt en over preventietoetsen.

[1:11:37] Ik zou nog iets verder naar de voorkant willen bij de ontwikkeling al van de kaders, en dat

[1:11:42] is ook wat in de paper wordt genoemd, om inwoners te betrekken alleen al bij het opstellen van

[1:11:47] de criteria.

[1:11:48] Van gud, wij willen met elkaar op een goede manier de technologie benutten of risicopoleren.

[1:11:54] Op welke manier, hoe zorgen we dat we dit met elkaar zorgvuldig doen?

[1:11:59] Daar kun je ook in je gesprek, en dat is het voordeel van de lokale samenleving, lokale

[1:12:04] overheid, daar kun je dat gesprek direct met je eigen inwoners organiseren, al dan niet

[1:12:09] daarna in toepassing weer van dat ene loket.

[1:12:14] Transparantie daarin vervolgens in de toepassing en die preventietoets aan de voorkant kan enorm

[1:12:19] helpen, naast alle wettelijke waarborgen, regelingen, dpa's, compliance toetsen en noem maar op,

[1:12:25] waarbij het ook weer zo kan zijn dat we dat in samenspraak met de stakeholders doen en

[1:12:30] niet alleen met de overheidspartijen, want die hebben toch de neiging om van binnen naar

[1:12:34] buiten te kijken, terwijl je wat je juist wil is om dat zorgvuldig ook van buiten naar

[1:12:39] binnen te doen.

[1:12:42] Dat even voor de eerste ronde.

[1:12:44] Dank u wel.

[1:12:45] Dank u wel. Tot slot mevrouw Keijer, aan u het woord.

[1:12:49] Dank u wel. Mijn naam is Sandra Keijer. Ik ben directeur kennisstrategie en innovatie bij de Koninklijke Marcheusee.

[1:12:56] En sinds ongeveer een half jaar ben ik ook portefeuillehouder van professioneel selecteren en controleren.

[1:13:03] En dank voor de gelegenheid om hier te praten over de manier waarop de Koninklijke Marcheusee dit vormgeeft.

[1:13:09] Kmar is een lerende organisatie en zet zich actief in om etnisch profileren te voorkomen

[1:13:14] en te bestrijden.

[1:13:15] We nadrukken dat we mensen op geen enkele manier en in geen enkele situatie op basis

[1:13:20] van hun etniciteit, ras of uiterlijke kenmerken willen selecteren of controleren.

[1:13:25] En vanuit het maatschappelijk debat en de legitimiteit van onze organisatie en ons werk

[1:13:30] hadden wij als Kmar al voor het vonnis van het Hof uitgesproken ras en etniciteit niet

[1:13:35] meer te willen gebruiken.

[1:13:37] Dit en het FONUS heeft tot veel gesprekken binnen onze organisatie geleid.

[1:13:41] Die gesprekken zijn zeer waardevol en focussen vooral op de objectieve en rechtvaardige afwegingen,

[1:13:47] taakbewustzijn, de communicatie en de uitleg aan de burger.

[1:13:51] En als zelfkritische uitvoeringsorganisatie hebben we ons niet beperkt tot de focus van

[1:13:55] de rechtszaak.

[1:13:56] Wij passen het handelingskader professioneel selecteren en controleren toe op alle taken

[1:14:01] van de KMAR waar sprake is van individuele selectie en controle en hebben het geïmplementeerd

[1:14:06] in al onze initiële opleidingen.

[1:14:09] En ik denk dat het goed is om een paar voorbeelden te geven

[1:14:12] over hoe het nu werkt bij de CMAR.

[1:14:14] Het voert hier te ver om hier de verschillende bevoegdheden

[1:14:17] en situaties uitgebreid te beschrijven.

[1:14:20] Maar we kennen situaties in het grenstoezicht

[1:14:22] waarbij we conform internationale afspraken verplicht zijn

[1:14:25] om iedereen te controleren vanuit de Schengen-buitengrenzen

[1:14:28] en situaties waarbij we beperkt moeten controleren binnen Schengen.

[1:14:32] En hierbij is het doel toezicht uit te oefenen op de irreguliere migratie, maar we bestrijden

[1:14:37] aan de grens ook verwante criminaliteiten, zoals mensen smokken vanuit onze grenspolitietaak.

[1:14:42] En op de binnengrenzen, luchtwegen en wateren, maken we dus die selecties.

[1:14:47] Een voertuig wordt geselecteerd aan de oostgrens, ofwel door een hit op een informatiesysteem,

[1:14:51] zoals Amico Boras, ofwel door een motorrijder die een voertuig selecteert op basis van informatie

[1:14:57] over routers, soms type voertuig, opvallend of afwijkend rijgedrag.

[1:15:03] Dat rijgedrag kan bijvoorbeeld zijn dat een voertuig zich lijkt te verstoppen...

[1:15:07] achter een vrachtwagen op de linkerbaan.

[1:15:10] En de motorrijder brengt het voertuig naar de controleplaats...

[1:15:13] waar vervolgens de controle op verblijfsrecht plaatsvindt.

[1:15:16] De Kmark controleert ook bussen en in de trein in het kader van MTV aan de binnengrenzen.

[1:15:21] En hierbij wordt vooraf een aantal van tevoren aangeduide coupés gecontroleerd.

[1:15:26] en alle inzittenden in de coupé en iedereen in de bus wordt gecontroleerd.

[1:15:31] Zo was er recent op het traject Brussel-Amsterdam een man die zich

[1:15:33] identificeerde met een Afghaans ID en verklaarde naar Rotterdam af te reizen.

[1:15:38] We weten vanuit onze informatiepositie dat in Rotterdam mensensmokkelaars

[1:15:42] actief zijn die mensen helpen in containers te klimmen.

[1:15:45] Deze manier hebben we na controle onopvallend gevolgd en hierdoor

[1:15:48] hebben we inderdaad een mensensmokkelaar aan kunnen houden.

[1:15:52] De luchthaven Schiphol is een heel specifiek gebied waarbij bijvoorbeeld

[1:15:54] gehaaste en gestrest gedrag pasten in het normale beeld.

[1:15:58] De combinatie van informatiegestuurd optreden...

[1:16:01] en het waarnemen van afwijkend gedrag moet leiden tot vroegtijdig ingrijpen.

[1:16:06] Een recent voorbeeld hiervan is dat wij een man met kind zagen...

[1:16:09] die een vuilniszak met kleding van het kind bij zich had.

[1:16:12] En het was te zien dat het kind in zijn broek had geplast...

[1:16:15] en er leek nauwelijks contact tussen de man en het kind.

[1:16:18] En controle leidde vervolgens tot de constatering...

[1:16:20] dat het kind zonder toestemming van de moeder was meegenomen...

[1:16:23] en hiermee werd vermoedelijk een kindontvoering voorkomen.

[1:16:27] Kort gezegd wordt de keuze voor selectie en controle gemaakt...

[1:16:31] op basis van een combinatie van informatiegestuurd optreden...

[1:16:35] de data en de analyse van data die informatie geeft over methodes zoals routes...

[1:16:40] in combinatie met feitelijke waarnemingen van gedrag.

[1:16:44] Even terug naar onze aanpak om etnisch profileren te voorkomen en te bestrijden.

[1:16:48] Zoals u heeft kunnen lezen in ons position paper lopen onze acties via drie sporen.

[1:16:52] De eerste is opleiden en trainen.

[1:16:55] Het professioneel controleren, het signaleren van afwijkend gedrag en concreet het ingevoerde

[1:17:00] en ontwikkelde handelingskader professioneel selecteren en controleren, het is net al toegelicht,

[1:17:06] maakt deel uit van de basopleidingen.

[1:17:09] Er zijn recent diverse aanpassingen gedaan aan dit handelingskader en ook worden momenteel

[1:17:14] VR-brillen als methode ter ondersteuning van de trainingen uitgerold.

[1:17:19] Het tweede spoor is bewustwording en cultuur.

[1:17:22] Proactief werk van opsporingsambtenaren vraagt om continu bewustzijn, ook op diepere lagen

[1:17:27] zoals individuele vooroordelen en de organisatiecultuur.

[1:17:31] Wij werken dus aan het verhogen van de culturele sensitiviteit, het herkennen en voorkomen van

[1:17:37] discriminatie en uitsluiting, ook binnen de organisatie.

[1:17:41] Interventies en leren van fouten is het derde spoor en we zijn een ambassadeursnetwerk intern

[1:17:47] aan het opzetten om collega's tijdens het werk hierop te coachen.

[1:17:51] Daarnaast gebruiken we klachten om te leren en te verbeteren.

[1:17:54] Hieruit blijkt bijvoorbeeld dat we meer moeten investeren op de uitleg van de controle aan

[1:17:58] de burger.

[1:18:00] De KMAR zal zich blijven inzetten om etnisch profileren te voorkomen en te bestrijden en

[1:18:03] wil dit doen vanuit die drie eerder genoemde actielijnen.

[1:18:06] We zoeken hierbij bewust verschillende perspectieven op.

[1:18:09] Zoals ook uit recent WODC-onderzoek blijkt, het is vandaag al genoemd, zijn effectieve

[1:18:14] methoden en werkwijzen om etnisch profileren tegen te gaan moeilijk te vinden.

[1:18:18] We willen graag vanuit de verbinding met externe organisaties onze zoektocht voortzetten.

[1:18:24] Zo werken we actief mee aan een aantal onderzoeken naar effectmeting, beleving en trainingsmethode.

[1:18:30] En we geloven dat een combinatie van data, informatie en de inzet van mensen op een transparante

[1:18:36] en controleerbare manier kan leiden tot gerichte verhoging van de veiligheid, waarbij geen plaats

[1:18:42] is voor onderscheid naar etniciteit en discriminatie.

[1:18:45] We hebben als leiding de verantwoordelijkheid om onze mensen de juiste handvatten aan te

[1:18:49] reiken om hun vakmanschap en professionaliteit op die manier uit te voeren.

[1:18:54] Verbetere acties in samenwerking met partners in het veiligheidsdomein en externe organisaties

[1:19:00] die onze spiegel kunnen voorhouden, zullen ook in de komende periode verder vorm krijgen

[1:19:05] en ons helpen om ons werk professioneel, legitiem en transparant uit te voeren.

[1:19:09] Dank u wel.

[1:19:12] Dank u wel en dank ook alle voor deze inhoudelijke inleiding.

[1:19:17] Ik kijk naar de leden.

[1:19:18] Zal ik weer bij u beginnen, meneer Bamenga?

[1:19:20] Ja?

[1:19:20] Ik begin weer met u.

[1:19:22] Dank u wel.

[1:19:22] Dank u wel voor uw inleiding en dank u wel dat u er bent om nadere toelichting te geven

[1:19:28] aan de wijze dat bij handhaving eigenlijk profileert of risicoprofileering doet.

[1:19:38] Ik zou graag vragen willen stellen.

[1:19:40] Ik denk aan de Kamar, maar ook aan de politie.

[1:19:44] En als anderen ook de vragen willen beantwoorden staat het natuurlijk ook vrij om dat te doen.

[1:19:50] Wij horen in ieder geval, tenminste vooral de politie, die aangeeft van wij willen dat

[1:19:56] eigenlijk nooit meer doen, dus dat etniciteit onderdeel is van een risicoprofilering.

[1:20:03] Dat mag gewoon nooit meer onderdeel daarvan zijn.

[1:20:06] En toch horen wij, en daarom zijn we hier natuurlijk, aan een lopende band verhalen over etnisch profileren

[1:20:13] die ook het nieuwste daarin bereiken.

[1:20:17] Waar wringt het en waar is het lastig waardoor dat nog steeds gebeurt in de praktijk?

[1:20:27] Zien jullie veranderingen door de verschillende maatregelen die jullie genomen hebben over de afgelopen periode?

[1:20:35] en wat zou de wetgever daarin nog extra kunnen doen?

[1:20:41] Dat vraagt u aan de heer Doeleman en mevrouw Keizer, begreep ik.

[1:20:45] Meneer Doeleman, dan moet u beginnen.

[1:20:48] Het is al eerder geschetst, het is natuurlijk sowieso heel complex,

[1:20:51] omdat ieder mens heeft zijn vooroordelen en het is de bedoeling dat je als professional

[1:20:55] die vooroordelen naast je neerlegt, uitstelt, voordat je met een oordeel komt.

[1:21:01] En dat blijkt gewoon in de praktijk toch met enige regelmaat moeilijk te zijn.

[1:21:08] En dat is ook de reden dat we daar voortdurend de aandacht aan blijven besteden.

[1:21:12] Want het is niet iets wat je even weg kunt regelen.

[1:21:16] En dit gaat over de menselijke kant van het verhaal.

[1:21:20] En daarnaast proberen we niet alleen...

[1:21:23] We hebben ook motie 21, dat is de motie waarin aangegeven is...

[1:21:29] afkomstgerelateerde indicatoren mogen gebruiken in risicoprofielen.

[1:21:33] Twee jaar geleden is daar ook een hele inventarisatie naar gedaan.

[1:21:37] En toen hebben wij ook geconstateerd dat wij dat soort risicoprofielen niet hebben.

[1:21:41] Gelukkig. Dat die in het verleden er wel geweest zijn.

[1:21:44] En dat die inmiddels allemaal uit zijn.

[1:21:47] Dus die route hebben we volledig afgesloten.

[1:21:51] En we doen er ook alles aan om te voorkomen dat dat nog steeds gebeurt.

[1:21:56] En waarbij het ook altijd goed is om vast te stellen dat etniciteit niet iets is wat in onze systemen vastgelegd is.

[1:22:04] Dus wij kunnen niet etniciteit ophalen uit onze systemen.

[1:22:09] Dus dat als toelichting wel.

[1:22:15] Ja, ik sluit me daar voor een groot deel bij aan.

[1:22:17] Het is menswerk en ook de vele factoren die eigenlijk van toepassing zijn.

[1:22:22] Waarbij jonge mensen aan de grens staan en internationaal de hele wereld voorbij zien trekken.

[1:22:30] Waarbij we dus echt zeker ook het bewust zijn van de eigen vooroordelen of de eigen beelden die men heeft.

[1:22:36] Maar zeker ook trainen van hoe maak je nou wel de juiste keuzes.

[1:22:41] Dat zijn denk ik hele belangrijke factoren.

[1:22:43] Maar tegelijkertijd de effectmetingen, zeg maar, blijkt ook heel lastig.

[1:22:48] U vraagt, heeft het nou geholpen?

[1:22:52] En daarvan kan ik zeggen, in de gesprekken die we voeren,

[1:22:56] hebben we het gevoel dat we wel de goede factoren of de worstelingen

[1:23:01] van mensen op tafel krijgen.

[1:23:03] Tegelijkertijd is het natuurlijk moeilijk meten.

[1:23:07] Kijk, klachten, dat is de achterkant.

[1:23:08] Daar wil ik eigenlijk niet naar kijken om te zien of daar wijziging in zit.

[1:23:11] En dat ziet er stabiel uit.

[1:23:13] Maar het gaat er juist om van hoe leren wij nou als organisatie?

[1:23:17] Ik denk niet dat het in de wetgeving en dergelijke zit voor ons.

[1:23:22] Dat is denk ik ook wel belangrijk om te constateren, maar wel hoe interpreteer je zaken, wat zit

[1:23:28] er in de diepere lagen onder, ben je je daar bewust van en kun je daar vervolgens ook iets

[1:23:33] mee.

[1:23:33] Dus ik denk dat daar een aantal cruciale factoren zitten.

[1:23:40] Ik sluit me hier van harte bij aan, dat geldt ook voor gemeentelijke organisaties, dat wetgeving

[1:23:46] hier niet het juiste antwoord op is, maar wel verandering van focus,

[1:23:50] omdenken. En u heeft dat zelf in uw vraagstelling ook al naar voren

[1:23:54] gebracht. Komen we vanuit wantrouwen naar mensen of vanuit vertrouwen?

[1:23:59] En de laatste decennia is de sturing in organisaties natuurlijk ook wel

[1:24:03] geweest vanuit meten is weten en de toeslagenaffaire en de Bulgaren

[1:24:08] fraude heeft dat ook in de hand gewerkt. Dus we zullen in cultuur

[1:24:12] echt met elkaar onze collega's, met wie die op straat werken, ook moeten helpen om anders te focussen.

[1:24:19] Een deel van die mensen werkt alleen maar met probleemgevallen.

[1:24:22] Dan is je focus ook bijna alleen problemen of afwijking.

[1:24:26] Maar de wereld is natuurlijk veel breder.

[1:24:28] Dus de kunst is om dat onderscheid te blijven maken tussen het goede en dat wat afwijkt.

[1:24:33] En als je alleen maar werkt met signaleren van wat niet goed is, dan wordt dat vaak je focus.

[1:24:39] Dus daar zal heel veel aandacht naar moeten uitgaan in de cultuur van de organisaties.

[1:24:45] Mevrouw Palmen, voor u een vraag.

[1:24:49] Jammer dat ik maar één vraag mag stellen, mevrouw de voorzitter.

[1:24:54] Ik zal proberen snel een vraag te stellen.

[1:24:57] Hartelijk dank allemaal voor uw bijdrage.

[1:25:01] Heel herkenbaar, heel interessant.

[1:25:04] Eigenlijk hebben we het in het vorige blok ook al gezien.

[1:25:06] We hebben een verbod op discrimineren en een gebod op gelijke behandeling.

[1:25:11] En tegelijkertijd heeft u als professional een wettelijke taak uit te voeren die heel complex is en die er eigenlijk niet 100% uit te voeren is.

[1:25:20] U zult moeten selecteren. Linksom of rechtsom.

[1:25:24] En in de prehistorie deden we dat a-select.

[1:25:27] En daarvan wisten we in ieder geval zeker dat dat een gelijke kans bood om geselecteerd te worden.

[1:25:35] En eigenlijk vraag ik me af, en dat is meteen mijn vraag die ik eigenlijk het liefst aan u alle vier zou willen stellen.

[1:25:41] Is die gelijke kans op selectie, is dat te bereiken met andere methodieken van selecteren?

[1:25:51] Of is dat een utopie? Anders dan A-select?

[1:25:58] Zal ik het spits afbijten?

[1:26:02] Ik ben een groot voorstander van A-selecte steekproeven.

[1:26:05] Om ze te gebruiken waarvoor ze wat mij betreft bedoeld zijn.

[1:26:07] Namelijk om inzicht te krijgen in waarvoor je aan de lat staat.

[1:26:10] Inzicht te krijgen in je populatie.

[1:26:12] Inzicht te krijgen in hoe je, bijvoorbeeld in ons geval,

[1:26:16] de belastingdienst, je aangevens eruit ziet.

[1:26:20] Aanselecte steekproeven om te selecteren,

[1:26:23] vind ik het toepassen van een middel waarvoor het niet bedoeld is.

[1:26:27] Ik ga een heel onderbiedige zin zeggen uit een van mijn vorige werkingen.

[1:26:32] Dat is eigenlijk het doen van een loterij.

[1:26:35] Dan de vraag, kan je een gelijke kans garanderen als je niet aan select steken hoeft te doen?

[1:26:44] Als wiskundige denk ik dat het niet zo is.

[1:26:46] Maar de vraag is of het om de gelijke kans gaat.

[1:26:49] Of het gaat om de vraag, kan je je selectie dusdadig inrichten dat je recht doet aan alle

[1:26:56] waarborgen en aan alle juridische, ethische, maatschappelijke, politieke afwegingen en de

[1:27:03] wettelijke afwegingen die daarbij horen?

[1:27:06] En dan denk ik dat het zeker wel kan, maar een heel grote zorgvuldigheid vraagt dat het ook tijdsintensief is.

[1:27:17] Als ik kijk naar wat wij bijna in mijn directie doen, dan duurt de ontwikkeling van zo'n instrument met gemak één tot twee jaar om juist die zorgvuldige stappen te doen.

[1:27:25] Dan vraagt het ook interdisciplinair kijken, dus niet alleen met de wiskundige of statistische bril, maar ook ethisch, juridisch, maatschappelijk.

[1:27:34] En om in die zin die vragen te beantwoorden, is dit een selectie die voldoet aan alle criteria?

[1:27:39] Wat volgens mij net iets anders is, is dan betekent dat dat iedere Nederlander nu precies dezelfde wissenkundige kans heeft.

[1:27:48] Anderen op deze vraag?

[1:27:50] Heer Doelema?

[1:27:51] Ja, ik zou in ieder geval nog even in uw vraag zitten aannamen dat vroeger alle controles a-select waren.

[1:27:57] En dat is denk ik niet het geval.

[1:28:01] Er zijn natuurlijk altijd controles gedaan op basis van waarneming.

[1:28:07] En wat belangrijk is, is dat die waarnemingen, dat gedrag, dat het daarop gebaseerd is.

[1:28:12] En niet op elementen waar we het al over gehad hebben als etniciteit of ras.

[1:28:19] Het is juist de professionaliteit van de politieman op straat dat op basis van zijn ervaringen en zijn kennis en kunde

[1:28:25] controles uitvoert op situaties die zich daarvoor lenen.

[1:28:33] En dan wederom gebaseerd op uitlegbaren aan degene die vervolgens staande gehouden wordt.

[1:28:39] Om uit te leggen waarom die staande houding plaatsvindt en die controle plaatsvindt.

[1:28:44] En dan is het natuurlijk wat anders bijvoorbeeld bij een alcoholcontrole.

[1:28:46] Ja, dan zet je gewoon alle auto's aan de kant en dan laat je iedereen blazen.

[1:28:50] En dan is het een hele mooie 100% controle.

[1:28:52] En soms zie je dat bij preventief fouilleren er gezegd wordt,

[1:28:56] nou, we nemen iedere vijfde persoon, maar veel van de controles die

[1:29:01] natuurlijk dagelijks op straat plaatsvinden, zijn van een andere soort.

[1:29:06] En die hebben in het verleden ook niet de A-select plaatsgevonden.

[1:29:10] Mevrouw Siewers, wilt u hier een aanvulling opmaken?

[1:29:15] Nou, hetzelfde inderdaad voor wat betreft die A-select werkwijze.

[1:29:19] Ik denk dat dat inderdaad, net als goed als met andere ontwikkelingen,

[1:29:26] Ook niet toen het geval was, alleen toen was het alleen bij mensen en was het helemaal niet transparant.

[1:29:31] Want mensen pasten dat achter hun bureau toe of op straat.

[1:29:36] En overigens heb ik die tijd van voor de digitalisering zelf ook in de uitvoering meegemaakt.

[1:29:40] Dat was zeker niet allemaal a-select.

[1:29:45] Maar dat betekent niet dat we nieuwe technologie hebben.

[1:29:49] Het was toen niet goed en als we het nu via technologie doen is het ook niet goed.

[1:29:52] Dus de kunst is om het zowel in cultuur als in toepassing en ontwikkeling van de technologie

[1:29:58] zo te doen, in transparantie, in betrokkenheid, in toetsing vooraf, dat het het doel bereikt

[1:30:04] wat we willen bereiken, namelijk dat vreedzaam samenleven en dat de mensen die afwijken van

[1:30:09] het patroon, die dus echt de instituties misbruiken, dat daar de adequate handhaving

[1:30:18] op kan plaatsvinden.

[1:30:19] Dus we kunnen onze kop niet in het zand steken voor de technologie, maar de kunst is om dat zo te ontwikkelen met alle checks en balances erin en waarborgen juridisch, maar ook in de feitelijke toepassing.

[1:30:30] En dat het het doel bereikt waar het voor is bedoeld.

[1:30:36] Ja, mevrouw.

[1:30:37] Een hele korte toevoeging, want er is al veel gezegd.

[1:30:40] ASELECT werkt niet in ons werk.

[1:30:43] Dat hebben we ook uitgeprobeerd en daar komen geen resultaten uit.

[1:30:46] Niet allemaal wetenschappelijk verantwoord, maar we hebben twee maanden daar echt aan gewerkt.

[1:30:53] En we zien dan dat het heel veel extra tijd kost en niks oplevert waar je voor daar staat.

[1:31:00] Dus het informatie gestuurd optreden, om die term maar weer even erin te gooien, is cruciaal.

[1:31:06] En wat ik net ook aangaf, de combinatie van enerzijds die informatie die je uit data haalt

[1:31:12] En anderzijds de menselijk factor vanuit de professionaliteit en het vakmanschap.

[1:31:19] Dat levert enerzijds geobjectiveerde informatie op waarop je selecteert of controleert.

[1:31:27] En anderzijds die inschatting juist gerelateerd aan het doel.

[1:31:32] En ik denk dat daar echt de kracht zit.

[1:31:35] En dat is al lastig genoeg.

[1:31:36] Ja, meneer Helsing, de nabrander.

[1:31:40] Mag ik één kleine aanvulling geven?

[1:31:42] Ja, ik denk dat het niet verstandig is om die twee tegenover elkaar te zetten,

[1:31:46] of het één of het ander.

[1:31:48] Ik denk dat a-selective-stake-proeven een hele goede middel zijn

[1:31:51] om ook te toetsen of je model ook de goede dingen doet.

[1:31:55] En dus in combinatie passen wij die ook wel toe.

[1:31:59] Dank u wel. De heer Erkin, voor u de graf.

[1:32:01] Ja, voorzitter, toch even een vraag over het a-selective-stake-proef

[1:32:05] en dan meer gericht richting de belastingdienst, richting de heer Jansen.

[1:32:09] Want ik lees in uw position paper, we hebben in de afgelopen jaren genoeg gezien

[1:32:14] en nog gisteren, nog een artikel of eergisteren was het zelfs over duo.

[1:32:19] En risicoselectie hebben we gezien dat risicoselectie en bias leidt

[1:32:24] tot oneerlijke behandeling, tot discriminatie.

[1:32:28] En ik zie in uw position paper, zie ik dat u als het gaat om a-selective stake proof

[1:32:34] dat u aangeeft dat dat ook ongelijkheid in de hand zou kunnen werken.

[1:32:38] Ik ben eigenlijk wel benieuwd op basis waarvan u tot die conclusie komt.

[1:32:43] Zijn het op basis van bepaalde voorbeelden of is dat een generieke uitspraak?

[1:32:48] Ik kon dat niet heel goed opmaken uit uw position paper

[1:32:51] en ik vraag eigenlijk om nadere toelichting daarop.

[1:32:54] Meneer.

[1:32:56] Ja, ik denk dat het goed is om dat met een soort voorbeeld

[1:33:00] aan te duiden wat ik daarmee bedoel.

[1:33:06] Kijk, vanuit de idee gelijke kans, daar ben ik principieel een groot voorstander van.

[1:33:12] De artikel 1 in de grond staat daar niet voor niks.

[1:33:14] Dus wij willen niet discrimineren, ik wil niet discrimineren.

[1:33:17] Maar als je gaat kijken naar informatiegericht toezicht,

[1:33:21] informatiegerichte controle, informatiegerichte dienstverlening,

[1:33:24] dan, en ik pak bijvoorbeeld een voorbeeld vanuit onze praktijk,

[1:33:28] dat we weten dat bijvoorbeeld mensen die voor het eerst een huis gekocht hebben

[1:33:31] relatief veel fouten maken, ook fouten in hun eigen nadeel soms, dan wil het

[1:33:38] gelijke kans geven aan iedere willekeurige Nederlander om een

[1:33:41] controle te krijgen, eigenlijk ook zeggen dat je daarmee die groep ook tekort doet.

[1:33:46] Zo kan je er ook naar kijken. Dus gelijke kans is aan de ene kant

[1:33:53] een belangrijk goed, maar kan ook betekenen dat je informatie die je

[1:33:57] eigenlijk hebt, niet meer gebruikt en eigenlijk burgers ook het effect, de

[1:34:02] impact van die, van het feit dat je dat niet doet of eigenlijk de situatie

[1:34:06] onthoudt, de mogelijkheid onthoudt omdat je daar als organisatie gebruik van maakt.

[1:34:12] Dus het kan ook de nadelen van burgers zijn en dat moet je goed afvegen, vind ik.

[1:34:20] De heer Erken kijkt heel, denkt heel hard na. Ja, wilt u hier een vervolg vragen stellen?

[1:34:28] Ik zie hem denken. Toevallig zit ik ook bij de fractie, maar dat heeft er niks mee te maken.

[1:34:36] Het is puur toeval. A-select, voorzitter. Ik waardeer uw openheid, maar is het dan juist

[1:34:49] niet het problematische aan etnisch profileren is dat je groepskenmerken toerekent aan een

[1:34:58] Dat je zegt die persoon maakt onderdeel uit van een bepaalde groep.

[1:35:02] Dat zou bijvoorbeeld, ik zie een aantal position papers, Hickert voorbeeld.

[1:35:09] Geboorteplaats, dan reken je een soort van, los van gedrag,

[1:35:14] reken je eigenlijk iemand een bepaalde identiteit toe.

[1:35:16] Volgens mij is het juist bij a-select-stakeproof dat je dat niet doet.

[1:35:20] Je kijkt naar gedrag. Vul je een verkeerde aangifte in of een juiste aangifte.

[1:35:24] maken bepaalde groepen, dat is dus iemand die een huis koopt of een groep die een huis koopt,

[1:35:30] die maakt bijvoorbeeld vaker bij de eerste aangifte een fout. Is het dan juist niet een veilige haven

[1:35:39] waarbij je mensen puur en louter kunt beoordelen op gedrag en niet op andere kenmerken? En ik hoor

[1:35:47] eigenlijk een andere verklaring en ik ben daar, ik zou daar nog een keer op willen doorvragen,

[1:35:51] Graag, voorzitter.

[1:35:53] Ja, graag.

[1:35:53] Dank u.

[1:35:56] Ja, ik ben echt tegen etnisch profileren, dus wij gebruiken in onze modellen ook niet

[1:36:01] etniciteit.

[1:36:03] Zoals ik in de position paper zeg, nationaliteit doen we soms wel, maar omdat dat dan in de

[1:36:07] wetgeving staat dat de nationaliteit een criterium is, dat zie je bijvoorbeeld rondom de erfbelasting.

[1:36:13] Bij asselecte steenproef kijk je eigenlijk nergens naar.

[1:36:16] Daar kijk je niet naar gedrag, daar kijk je eigenlijk nergens naar.

[1:36:19] Je pakt er willekeurig een paar mensen uit.

[1:36:22] Los van wat je eventueel als informatie over die groep hebt.

[1:36:26] Wat je zou kunnen doen, is je zou kunnen zeggen ik doe eerst een soort...

[1:36:30] noem maar even een soort voorselectie.

[1:36:32] Dus ik maak een groep mensen die voor het eerst hun eigen huis hebben gekocht.

[1:36:36] En een groep mensen die aan dit of aan dat criterium voldoet.

[1:36:39] En ik ga daar binnen die groep a-select selecteren.

[1:36:42] Dat kan, dat is ook een aanpak.

[1:36:44] Maar dan verplaats je eigenlijk, noem ik even het profileringsvraagstuk,

[1:36:49] verplaats je eigenlijk naar het maken van die groepen.

[1:36:56] Mag ik zelf ook een vraag stellen?

[1:36:59] Ja, ik zit hier met een dubbele pet.

[1:37:04] Een mooi gesprek, want er is niemand te vinden die etnisch profileren zal onderschrijven of steunen.

[1:37:13] En er zullen ook vele wel te vinden zijn die vinden dat je effectief moet handhaven.

[1:37:17] En dat mag niet op basis van etnisch profileren zijn.

[1:37:23] Maar ik hoor ook in het antwoord dat u geeft, meneer Jansen, dat u zegt dat is wel informatie gestuurd.

[1:37:29] Dat is op basis van informatie.

[1:37:32] En waar ik naar op zoek ben is hoe weet je nou dat je het goede doet?

[1:37:39] Want u zegt van, als ik een nieuwe middel maak, dan ben ik daar al twee jaar mee bezig en dan toetsen we dat.

[1:37:49] Maar dan denk ik, is dat dan allemaal binnen de interne eigen organisatie of zit daar dan ook nog een toets van een externe op?

[1:37:59] Dus hoe borgen we nou dat je niet ook door het werk wat je moet doen, want ik begrijp goed wat uw werk is,

[1:38:07] dat je dus ook vanuit het werk wat je doet, bij het ontwikkelen van instrumenten,

[1:38:14] misschien wel niet de goede keuzes maakt.

[1:38:17] Dus hoe zorg je er nou dat je daar van een afstand naar blijft kijken

[1:38:21] en dat je die objectiveerbaarheid echt geborgd hebt?

[1:38:25] Want ik lees dat algoritmeregister, daar zit ik overigens ook niet goed in,

[1:38:29] misschien dat je ook kan zeggen, wat betekent dat dan?

[1:38:32] Wat zien wij daar dan als burger van hoe zo'n instrument tot stand is gekomen?

[1:38:36] Kunt u daar iets over zeggen? En ik hoop eigenlijk dat ook van anderen te horen.

[1:38:40] Want volgens mij begint hier de essentie.

[1:38:45] En moeten we daarvoor komen dat je niet in toch een tunnel zit of onbedoeld?

[1:38:50] Want ik geloof niet dat dat bewust kan, zoals daar.

[1:38:54] Nee, helemaal eens.

[1:38:56] Wij werken met een voortbrengingsproces wat gedefinieerd is in een aantal stappen.

[1:39:01] Dat begint bij een verkenning.

[1:39:03] En als daar het idee uitkomt dat een bepaald vorm van algoritme nuttig zou kunnen zijn,

[1:39:09] gaan we naar een laboratoriumfase, uiteindelijk naar een pilot.

[1:39:15] En pas dan kan eventueel, als een algoritme alle stappen doorgegaan is,

[1:39:19] kan dat ook in de praktijk gebruikt worden.

[1:39:21] En ook in die pilotfase wordt er kleinschalig getoetst en ook gekeken van wat is de impact van wat we hier doen.

[1:39:29] Naast die voorbrenging zit ook, gebruikt me bij mijn directie, een kwaliteitsframework

[1:39:35] wat heel goed gedefinieerd is, waar telkens door anderen wordt meegekeken op

[1:39:41] Wordt de zorgvuldigheid in acht genomen? Is de data goed op orde?

[1:39:45] Zijn alle waarborgen gecreëerd?

[1:39:48] De ontwikkeling die daarin zit, is dat dat eigenlijk steeds professioneler wordt

[1:39:51] en ook steeds meer gevoed wordt door andere kaders.

[1:39:54] Mijn collega noemde net al een aantal andere kaders, zoals het IAMA, het kader van ADR.

[1:39:57] Dus die kades ontwikkelen zich door, dat vind ik ook heel goed.

[1:40:00] Ik hoop ook dat die uiteindelijk tot één uniform Nederlands kade zullen groeien.

[1:40:06] Dat is één ontwikkeling.

[1:40:08] De tweede ontwikkeling is dat de bril waarnaar gekeken wordt

[1:40:11] steeds meer interdisciplinair wordt.

[1:40:14] Dus waar een aantal jaren geleden dat vooral data scientists waren

[1:40:17] die daarnaar keken, is dat nu ook met juristen,

[1:40:21] met mensen met een ethische achtergrond.

[1:40:23] Dus die interdisciplinariteit neemt toe.

[1:40:26] De stap die wij als Belastingdienst nog niet zetten, is om dat ook extern te doen.

[1:40:34] Dus in die zin, ja, dat is de Belastingdienst, kijk naar de Belastingdienst.

[1:40:38] En wij zijn natuurlijk onder de toezicht van de inspectie, maar dat is wel intern.

[1:40:49] U schetst precies de reden waarom we het programma CRAI aan het doen zijn.

[1:40:53] Een aantal van die dingen hebben we in place.

[1:40:57] om het in mooi Nederlands te zeggen.

[1:40:59] Maar we willen dat verder professionaliseren.

[1:41:02] En daar zit juist die reproduceerbaarheid, die toetsing.

[1:41:06] Zoals net ook al gezegd wordt, allerlei verschillende disciplines.

[1:41:08] De politie heeft recentelijk expliciet voor dit doel

[1:41:11] ethici aangenomen, juridische mensen die meekijken

[1:41:15] in hoe doe je dat nou op een zorgvuldige wijze.

[1:41:19] En exact dezelfde vraag waar wij nu ook mee zitten is

[1:41:21] op welke manier zou je dat kunnen laten toetsen?

[1:41:26] Moet je daar in dat externe toetsing bij halen.

[1:41:28] Daar zit natuurlijk ook altijd een bepaalde complexiteit als het gaat over

[1:41:32] dat wij in de opsporing bepaalde algoritmes willen gebruiken

[1:41:37] waar het misschien even niet verstandig is

[1:41:38] dat allerlei mensen van buiten mee kunnen kijken.

[1:41:42] Maar dat is dus ook, dat is dat dilemma.

[1:41:44] Dus aan de ene kant wil je transparant zijn.

[1:41:46] Aan de andere kant wil je ook niet de criminele gemeenschap inzicht geven

[1:41:50] op de manier waarop wij als politie mogelijk aanpakken

[1:41:54] aanpakken neerzetten. Dus dat is een vraagstuk, maar dat is ook wel precies waarom we zo'n heel

[1:42:01] proces heel zorgvuldig proberen in te richten. Als het gaat om het algoritmeregister, dit is voor

[1:42:10] een heel groot deel gevuld door gemeenten, dus die zijn daar behoorlijk goed mee bezig en een heel

[1:42:14] aantal gemeenten heeft met name ethische commissies om dat in de gaten te houden, te toetsen, toezicht

[1:42:21] erop te houden. Maar wat ik in zijn algemeenheid wil zeggen, en ik begrijp dat, we moeten vooral

[1:42:29] voor uitkijken dat we allemaal systeem, juridische kwaliteitsmodellen ontwikkelen om te kijken

[1:42:38] of we wel goed bezig zijn. Ik denk dat de belangrijkste toets is bij de mensen zelf,

[1:42:42] want als we allemaal brieven gaan schrijven aan mensen zonder dat we gecheckt hebben van

[1:42:46] hoe zit dat daar eigenlijk achter die voordeur?

[1:42:48] En zeker wij als gemeente hebben natuurlijk een vrij makkelijke entree.

[1:42:52] Kunnen mensen benaderen, kunnen vragen om daar langs te gaan.

[1:42:55] Dus ik denk dat we die nabijheid veel meer moeten zoeken.

[1:42:59] En dat ook de combinatie is tussen waar technologie ons kan helpen,

[1:43:04] maar waar we uiteindelijk op maatwerk moeten kijken.

[1:43:07] En ook met gebruikmakend, hopelijk van op een gegeven moment,

[1:43:10] de middelen die de wet WAMS ons gaat geven.

[1:43:13] om te kijken, zijn deze mensen, en dan kom ik even op dat hulpaanbod terug,

[1:43:17] kunnen wij ook proactief dienst verlenen in de zin van, met de gegevens die we hebben,

[1:43:22] mensen op gaan zoeken om ze bij te staan in de problemen die ze hebben.

[1:43:28] Want dat is uiteindelijk waar je als overheid voor een heel deel ook voor bent,

[1:43:32] naast dat stukje handhaving waar het niet goed gaat.

[1:43:36] Dus die menselijke toets aan de ene kant met ethische commissies

[1:43:39] om het model en het systeem te kunnen controleren.

[1:43:44] De rekenkamer in de gemeente kan dat ook doen.

[1:43:46] En aan de andere kant echt naar de buitenkant stappen,

[1:43:49] proactief en de mensen zelf benadering.

[1:43:51] Ik denk dat we daar ook in samenwerking wellicht ook nog veel mee kunnen doen.

[1:43:55] Maar dat betekent dat we ook op een bepaalde manier

[1:43:58] elkaar moeten kunnen helpen als overheden.

[1:44:00] En wellicht niet zozeer de wat informatie kunnen delen,

[1:44:03] maar wel dat we hebben een gezin en we zien problemen,

[1:44:06] kunnen we daar samen in optrekken om daar naartoe te gaan hulp te verlenen.

[1:44:10] Dus we kunnen hem ook wat mij betreft veel kleiner maken

[1:44:12] dan alleen maar het systeem en in het groot.

[1:44:16] Mevrouw Keijer, heeft u een aanvulling hier?

[1:44:18] Nou, een korte aanvulling.

[1:44:20] We zijn ook met workshops bezig om te kijken tussen het verschil

[1:44:24] tussen hoe werk je als mens en wat zouden de data zeggen

[1:44:29] qua selectie en controle en waar zitten de verschillen daarin,

[1:44:34] waarbij we niet alleen dat met onze eigen organisatie doen,

[1:44:38] maar zeker ook in de keten met onze partners,

[1:44:41] om ook weliswaar vanuit andere invalshoeken,

[1:44:44] maar wel vanuit de keten te kijken van wat leveren die verschillen nou op

[1:44:47] en wat zijn nou de data die je verder kunnen helpen

[1:44:51] en welke toets moet je daarin aanbrengen

[1:44:53] om vooral die tunnelvisie ook te voorkomen,

[1:44:56] waarbij je niet...

[1:44:57] Wij maken geen gebruik van de AI, even voor de duidelijkheid,

[1:45:00] zelflerend systeem of iets dergelijks,

[1:45:03] Maar hoe krijg je nou zo scherp mogelijk welke data je kunt gebruiken, op wat voor manier,

[1:45:07] waarbij je vervolgens ook die menselijke toets er ook aan toevoegt?

[1:45:15] Ik ging even naar de leden. Ja, de heer Bamenga, dan ging ik sneller om.

[1:45:18] Ja hoor. Allereerst, ik sprak toevallig afgelopen week iemand die mij vertelde dat het simpele feit

[1:45:26] dat hij werd aangesproken als welkom, dat je weer thuis bent, zeg maar,

[1:45:33] moment dat hij vanuit het buitenland naar Nederland kwam aan de grens, dat dat hem al een heel fijn

[1:45:38] gevoel gaf, na jarenlang etnisch profileerd te zijn geweest aan de grens. Volgens mij was dat de

[1:45:44] de heer Sebastiaan. Dus dat wilde ik nog even meegeven, dat zulke kleine dingen al een groot

[1:45:50] verschil kunnen maken, in plaats van extra controle, juist gewoon een welkom, welkom thuis.

[1:45:58] Er werd ook gezegd van, nou ja, meer wetgeving hebben we wellicht niet nodig.

[1:46:06] En tegelijkertijd zie ik bijvoorbeeld dat het College voor de Rechten van de Mensen,

[1:46:11] maar ook de staatscommissie Discriminatie en Racisme, maar ook de Nationale Coördinator,

[1:46:17] die pleiten bijvoorbeeld voor eenzijdige overheidshandelen,

[1:46:20] dat dat ook onderdeel wordt van bijvoorbeeld de algemene wetgelijke behandeling,

[1:46:25] omdat dat nu nog niet het geval is, juist ook om te zorgen dat de organisaties

[1:46:31] een veel meer lerende organisatie worden, zodat ze ook feedback kunnen krijgen.

[1:46:35] Ik was gewoon benieuwd. Hoe kijken jullie daar tegenaan?

[1:46:37] Als Kamer hebben we bijvoorbeeld ook APK algoritme.

[1:46:41] Dat was een motie die wij hebben ingediend, breed aangenomen.

[1:46:44] Dat zijn ook allemaal maatregelen vanuit de Kamer om toch te zorgen

[1:46:47] dat deze ongelukken beperkt worden of niet meer gebeuren.

[1:46:52] Maar hoe kijken jullie daar tegenaan?

[1:46:53] Want dit zijn toch wel vanuit de wetgever in ieder geval,

[1:46:55] instrumenten die wij hebben ingezet of kunnen inzetten om die rechten nog veel

[1:46:59] meer te waarborgen. En aan wie stelt u die vraag?

[1:47:06] Het is in ieder geval aan Kemar, maar ook aan de politie en de lastenlijst.

[1:47:11] Ik denk vanuit juist de veelheid aan factoren en de complexiteit eigenlijk en

[1:47:17] de gelaagdheid dat het goed is dat je net als het toetsingskader van het

[1:47:22] college dat zijn allemaal instrumenten die ons verder kunnen helpen om die

[1:47:27] gelaagdheid af te pellen en daar ook de maatregelen in die nodig op toe te spitsen.

[1:47:34] Dus ik denk in die zin dat dat soort instrumenten ons zeker kunnen helpen, waarbij het ook werkbaar

[1:47:39] moet blijven.

[1:47:40] Als je soms hoort hoeveel toetsen er op AI-gebied al liggen, dan is het soms wel licht door

[1:47:49] de bomen en het bos niet meer zien, maar de basis is wel dat het ons kan helpen om scherp

[1:47:55] en de vinger op de zere plek te leggen als het gaat om die gelaagdheid?

[1:48:02] Ja, inderdaad. Een klein dingetje daar aan toevoegen.

[1:48:06] Ik denk dat alle instrumenten die helpen om transparantie te creëren,

[1:48:11] reproduceerbaarheid naar de burger, betere modellen te laten zijn,

[1:48:16] die juich ik natuurlijk van harte toe.

[1:48:18] De andere kant is wel dat het risico wel steeds meer wordt dat het zo complex wordt

[1:48:22] om nog iets nieuws te realiseren dat het bijna niet meer gaat gebeuren.

[1:48:27] En ik denk dat we daar ook voor moeten waken in de snelheid waarmee technologie op dit moment gaat.

[1:48:33] Hoe criminelen die technologie wel degelijk gebruiken voor allerlei toepassingen.

[1:48:38] En als wij daarin onszelf helemaal vastzetten, dan zit daar ook een risico in.

[1:48:43] Dus ik denk dat we heel goed moeten kijken.

[1:48:45] Een van de dingen die we ook aan het doen zijn in het CryoTrack is een quickscan maken.

[1:48:49] Wat zijn nou die algoritmes die echt een hoog risico hebben?

[1:48:53] Waarvan we allemaal zeggen, oeh, hier moet je echt even goed naar kijken.

[1:48:57] Dit heeft consequenties voor mensen.

[1:49:00] Dat je die er vooral uit ligt om daar heel scherp die toets op te doen.

[1:49:06] En eigenlijk een selectie op algoritmes toe te passen.

[1:49:11] Zodat we diegenen eruit halen waar ook de meeste kans op vervelende gevolgen zitten.

[1:49:17] En daar inderdaad heel goed naar kijken.

[1:49:19] Maar als we dat te veel op alles gaan doen, dan heb je kans dat we helemaal vastlopen.

[1:49:24] Dus daar zit mijn let op.

[1:49:28] Ja, daar sluit ik me wel graag bij aan.

[1:49:30] En u noemde het woord APK van algoritme.

[1:49:34] Daar is denk ik ook heel belangrijk te realiseren dat hoe goed je een algoritme ook hebt ontwikkeld

[1:49:39] en hebt voorbereid en getoetst hebt aan de voorkant,

[1:49:43] als je hem toepast, dan ben je niet klaar.

[1:49:46] Want de samenleving, de doelgroep, de context waarin je hem toepast,

[1:49:50] die kan in de loop van de tijd veranderen.

[1:49:52] En dan loop je het risico, als je daar niet een soort van onderhoud op doet,

[1:49:55] dat je uiteindelijk dan toch in een situatie terechtkomt

[1:49:59] waarin er dingen gebeuren die je niet bedoeld had,

[1:50:01] maar die wel door die veranderende context naar voren zijn gekomen.

[1:50:05] Dus zeker in dat soort risicovolle gevallen

[1:50:07] is een vorm van onderhoud tijdens de hele levenscyclus, denk ik, heel belangrijk.

[1:50:15] Mevrouw Simmers.

[1:50:17] Algemene opmerking, en dat werd net ook al even gezegd,

[1:50:19] Hoe kunnen we voorkomen dat we het zo dicht regelen dat de overheid geen bewegingsruimte meer heeft,

[1:50:24] want uiteindelijk dienen we dat vreedzame samenleving.

[1:50:28] En in de valkuil zien te voorkomen dat we van een risico naar een regelreflex gaan,

[1:50:34] waar we natuurlijk heel goed in zijn, want we hebben heel veel regels.

[1:50:37] Dus hoe kunnen we het zo doen dat we niet naïef zijn in de toepassing van de middelen,

[1:50:41] maar wel het zorgvuldig doen waardoor we ons aan artikel 1 van de grondwet houden,

[1:50:46] maar ook aan onze opgelegde regels als overheid.

[1:50:50] Ja, ik durf beide die leden niet aan te kijken, want ik weet zeker dat ze nog vragen hebben.

[1:50:55] En het is vier uur, we hebben nog één blokje.

[1:50:59] En we moeten echt om vijf uur afronden.

[1:51:01] Het is een enkele kleine vraag, daar ben ik dus gevoelig voor.

[1:51:06] En dat weet niet mevrouw Palmen, daarom doet ze dit.

[1:51:09] Mevrouw Palmen, korte vraag nog.

[1:51:11] Ik wilde graag een vervolgvraag stellen aan meneer Jansen.

[1:51:15] Over het voorbeeld van de mensen met een eigen woning.

[1:51:20] U gaf net in het vorige blok aan van ja, maar als je al een groep gaat selecteren van mensen

[1:51:25] met een eigen woning die net de eigen woning een jaar geleden hebben gekocht, want aannamen

[1:51:30] die maken meer fouten, en ik ga daar de aaselecte steekpoep op loslaten, dan heb ik de risicoselectie

[1:51:37] al naar voren gehaald.

[1:51:38] Zei u dat nou of had ik dat niet helemaal goed begrepen?

[1:51:41] Dat snapte ik niet.

[1:51:45] Wat ik daarmee bedoel is dat je dan eigenlijk je, je noemt het even niet zozeer risicoseks,

[1:51:49] maar je profilering vraagstuk eigenlijk al naar voren haalt, omdat je van tevoren al een soort groepen

[1:51:54] defineert waarop je dan vervolgens aanslekte steekproeven gaat doen. Dus dan maak je ook

[1:51:59] al een soort groepen, stel je samen. En dat samenstellen van die groepen is eigenlijk ook

[1:52:04] een soort selectieproces. Maar die selectie die vindt plaats op de grondslagen van je wettelijke

[1:52:11] context, van je wettelijke taak. Als je de taak hebt om belasting te heffen en te innen en je

[1:52:18] Als je kijkt naar de rubrieken in je aangiftebiljet en je ziet de eigen woning staan,

[1:52:22] dan link je hem heel erg met je wettelijke taak.

[1:52:27] Dat kan maar er blijft natuurlijk wel een afweging hoe je dat doet.

[1:52:29] Dus mijn stelling is dat ook dat is een selectieproces

[1:52:32] wat je dan heel zorgvuldig zult moeten vormgeven.

[1:52:36] En dat je alleen degene doet die je net een jaar geleden in huis hebt.

[1:52:39] En niet die dat al vijf jaar hebben.

[1:52:41] Maar interessant.

[1:52:43] Veel dank voor uw aanwezigheid en voor uw inhoudelijke bijdrage aan deze ronde tafel.

[1:52:48] Ik schors weer voor een enkel moment en dan pak ik even de administratie.

[1:52:52] In het laatste blokje hebben we mevrouw Terlouw, de heer Van der Linden,

[1:52:56] mevrouw Oudshorn en de heer of mevrouw Abdul Hafiz Khan.

[1:53:03] Ik hoop dat ik het goed heb gezegd.

[1:53:04] Kunnen zij plaatsnemen achter de tafel en dan schors ik voor een enkel moment.

[1:56:05] Ja, beste mens, ik zou

[1:56:09] dit rondetafelgesprek willen voortzetten als iedereen plaats wil nemen.

[1:56:17] Aan de zijde van de Kamer is de heer Ergin moest helaas deze ronde tafel laten.

[1:56:24] Het lid Kostic, zij zit hier namens de Partij voor de Dieren, schuift aan voor dit laatste onderdeel.

[1:56:33] Ook hierin zou ik de gasten, wie ik om te beginnen hartelijk welkom wil heten en heel fijn dat u in de gelegenheid bent om hierbij aan te sluiten en ook uw bijdrage te leveren.

[1:56:43] En ik zou net als in de vorige blokken, ja, dan ga ik het rijtje af en aan u willen vragen om u voor te stellen

[1:56:49] en om een inhoudelijk aftrap op dit onderwerp te verzorgen.

[1:56:53] En dan begin ik bij mevrouw Terlouw.

[1:56:55] Ja, Ashley Terlouw is mijn naam. Ik ben hoogleraar rechtssociologie bij de Radboud Universiteit

[1:57:01] en ik heb mij veel bezig gehouden met discriminatie.

[1:57:05] En ik heb in mijn gespreksnotitie heb ik tien punten genoemd.

[1:57:09] Die ga ik niet herhalen, maar ik ben natuurlijk open voor vragen daarover.

[1:57:12] Maar ik wil in deze Mondelingen-toelichting graag teruggrijpen op het parlementair onderzoek van de Eerste Kamer in 2021

[1:57:22] over de vraag wat kan de wetgever doen om discriminatie tegen te gaan.

[1:57:27] De resultaten van dat onderzoek zijn in dat rapport neergelegd en ik hoop dat u dat ook kent.

[1:57:33] Ik was coördinator van het onderzoek dus ik hecht er veel aan.

[1:57:37] Dit rapport, maar ook nog vier deelrapporten en een van die deelrapporten

[1:57:42] betrof de politie en met als belangrijk thema etnisch profileren.

[1:57:47] Het onderzoek leidde tot een afwegingskader

[1:57:49] en ik meen dat dat kader ook nuttig is voor uw aanpak van etnisch profileren.

[1:57:56] Een kader is ondergebracht in zes hoofdthema's, die zal ik opzommen.

[1:58:00] Aandacht, normstelling en taal, eenvoud, heldere en effectieve klachtprocedures,

[1:58:07] verantwoordelijkheid en leiderschap en vertrouwen.

[1:58:09] En veel van die thema's heb ik ook al langs horen komen vanmiddag,

[1:58:12] maar ik loop ze ook nog even kort langs.

[1:58:15] Aandacht, het hebben van aandacht voor het probleem,

[1:58:19] voor de mensen die je treft, maar ook voor de uitvoeringsorganisaties

[1:58:22] die daarmee worstelen, is misschien wel het allerbelangrijkste.

[1:58:27] Er komt de laatste jaren zó ontzettend veel etnisch profileren aan het licht

[1:58:31] en dat is schokkend en baart ook zorgen over

[1:58:34] maar wat nog verborgen is gebleven.

[1:58:37] Het gaat te vaak fout. De overheid moet het goede voorbeeld geven.

[1:58:42] Goed dus dat u er vandaag aandacht voor hebt.

[1:58:44] En ik merkte in de vorige ronde dat ook de uitvoeringsorganisaties

[1:58:48] er op dit moment veel aandacht voor hebben. Daar ben ik blij om.

[1:58:51] Maar die aandacht moet permanent zijn.

[1:58:54] En er rust in mijn ogen een positieve verplichting op de overheid

[1:58:57] om het probleem actiever aan te pakken.

[1:58:59] Voor uw medewetgever, de Senaat,

[1:59:02] was dat reden voor dit parlementaire onderzoek.

[1:59:05] Aandacht voor het individu betekent, ga er niet klakkeloos van uit dat een individu tot een groep behoort

[1:59:11] en ga er ook niet klakkeloos van uit dat iedereen in een groep dezelfde eigenschappen heeft.

[1:59:17] Aandacht is ook nodig voor de proxies.

[1:59:20] Nou, dat is aan de orde gekomen en meneer Van der Linden gaat daar vast zo uitgebreid op in.

[1:59:26] In zijn notitie noemde hij een paar hele duidelijke voorbeelden.

[1:59:31] Normstelling en taal. Gelijke behandelingswetgeving en normstelling is complex, maar een paar

[1:59:38] dingen zijn in mijn ogen volstrekt duidelijk. Ethnisch profileren is discrimineren. Het

[1:59:44] mag niet. Er is geen enkele rechtvaardiging voor te bedenken. Ethniciteit mag ook niet

[1:59:49] een klein beetje een rol spelen bij controlebeslissingen. En voor indirect onderscheid moet een heel

[1:59:56] erg goede rechtvaardiging bestaan en deze norm moet bij elke uitvoeringsorganisatie

[2:00:03] en elke ambtenaar geïnternaliseerd zijn. De norm moet ook expliciet in interne instructie staan

[2:00:09] en uitgedragen worden door leidinggevende. Ik hoor dat u daaraan werkt. De ambtenaar moet hem kennen

[2:00:16] maar hij moet er ook naar kunnen handelen en taal is daarbij belangrijk. Hij moet kunnen uitleggen

[2:00:21] waarom hij een persoon controleert, waarom hij deze persoon controleert,

[2:00:26] ook aan de omstanders.

[2:00:27] En hij moet binnen zijn organisatie een cultuur heersen

[2:00:30] waarbinnen stereotyperend taalgebruik niet wordt geaccepteerd.

[2:00:34] En dat brengt me op één fout. Daarover kan ik kort zijn.

[2:00:37] De norm moet klip en klaar zijn en de controles kunnen eenvoudig.

[2:00:42] Steeksproofbewijs. Vorige ronde kwam het aan de orde.

[2:00:44] In mijn ogen moet dat kunnen.

[2:00:46] Bijvoorbeeld elke 22e en morgen elke 26e.

[2:00:50] En als het om grote aantallen gaat, elke 2002 bijvoorbeeld.

[2:00:55] De Belastingdienst geeft in zijn notitie en net ook in het gesprek hetzelfde voorbeeld

[2:00:59] van een situatie waarin de steekproef niet zou werken, maar binnen een zo neutraal mogelijk

[2:01:05] eerste selectiecriterium, belastingplichtigen die in het jaar van aangifte een huis hebben

[2:01:10] gekocht, oké, moet vervolgens wel iedereen dan wel steeksproefgewijs worden gecontroleerd.

[2:01:20] Heldere en effectieve klachtprocedures.

[2:01:23] Een heel belangrijke conclusie van het onderzoek van de Eerste Kamer...

[2:01:27] was dat het verbod van discriminatie zo slecht werkt...

[2:01:31] omdat het aan het slachtoffer is overgelaten om naleving af te dwingen.

[2:01:36] Reactief.

[2:01:37] Dus nadat hij is gediscrimineerd.

[2:01:41] Hij moet dan klagen of naar de rechter gaan.

[2:01:43] En dat is moeilijk.

[2:01:44] Niet iedereen kan dat goed.

[2:01:46] Klagen of naar de rechter gaan. Niet iedereen weet die weg.

[2:01:49] Klachtprocedures moeten daarom zo laagdrempelig en toegankelijk mogelijk zijn

[2:01:53] en vervolgens zorgvuldig en gedegen worden uitgevoerd.

[2:01:57] De ombudsman heeft daar al voldoende over gezegd en geschreven in het rapport Verkleur de Beelden.

[2:02:02] En ik wil daar nog aan toevoegen dat klachtprocedures toch in zekere zin mosterd naar de maaltijd zijn.

[2:02:08] Belangrijker is proactieve houding van de overheid die ik hiervoor al noemde

[2:02:13] En ik meen ook belangrijk een plicht voor publieke instellingen om jaarlijks te rapporteren over wat ze hebben gedaan om discriminatie tegen te gaan.

[2:02:23] Dan verantwoordelijkheid en leiderschap.

[2:02:26] In het deelrapport over de politie constateerde de Eerste Kamer een grote afstand tussen leidinggevende organisatie en de mensen op straatniveau.

[2:02:35] Het is van belang om die afstand te verkleinen.

[2:02:39] En daarbij spelen leidinggevende van teams een grote rol.

[2:02:43] Zij moeten toezien op een niet-discriminerende cultuur binnen het team en daarvoor handvat te krijgen.

[2:02:51] En daarnaast betekent het dat iedere ambtenaar die direct contact heeft met burgers

[2:02:57] verantwoordelijkheid moet voelen en moet krijgen voor naleving van de norm.

[2:03:02] Nou, tot slot vertrouwen.

[2:03:05] Het misprofileren leidt tot wantrouwen in de overheid.

[2:03:08] Dat zagen we in de eerste ronde.

[2:03:10] Anderen hebben er ook al op gewezen in hun notities.

[2:03:12] Zo schrijft Amnesty, behandel mensen vanuit vertrouwen, niet als potentiële fraudeurs.

[2:03:17] Ik denk dat dat ontzettend belangrijk is.

[2:03:20] Preventie en profileren treft altijd onschuldigen.

[2:03:24] En dan moet je je goed bewust zijn als je preventief controleert.

[2:03:30] Van groot belang is dus dat de burger weet waarom er wordt gecontroleerd,

[2:03:33] en waarom hij wordt gecontroleerd, of zij, of X.

[2:03:37] Ook de VNG noemt de relatie met vertrouwen in het openbaar bestuur en de noodzaak van

[2:03:43] transparantie voor vertrouwen.

[2:03:46] Vertrouwen betekent ook er niet klakkeloos op vertrouwen dat het wel goed gaat, maar het

[2:03:52] erkennen van een positieve verplichting om discriminatie te voorkomen en tegen te gaan.

[2:03:57] Daarmee sluit ik af.

[2:03:58] Ik zie deze rond de tafel als een heel goed teken dat u van plan bent alles in het werk

[2:04:03] te stellen om etnisch profileren in de toekomst te voorkomen.

[2:04:07] Dank u voor uw aandacht.

[2:04:10] Dank u wel.

[2:04:11] En ook inderdaad, dank voor nog even onder de aandacht te brengen van dat goede werk

[2:04:15] wat onze collega's in de Eerste Kamer al eerder hebben gedaan.

[2:04:20] We gaan luisteren naar de bijdrage van de heer Van der Linden.

[2:04:23] Ja, dank je wel.

[2:04:24] Hartelijk dank voor de uitnodiging ook.

[2:04:27] Mijn naam is Achter Van der Linden.

[2:04:28] Ik ben verbonden aan Tilburg University als docent Belasting en Technologie, Tax and Technology,

[2:04:34] zoals het een universiteit noemt.

[2:04:35] Ik ben daarnaast ook verbonden aan de Belastingdienst, maar ik zit hier vanuit de hoedanigheid als wetenschapper.

[2:04:43] Vanuit die hoedanigheid heb ik ook de paper opgesteld en ik ben in mijn position paper ingegaan op specifiek nieuwe technologieën.

[2:04:52] En het eerste wat ik zou willen benadrukken is dat kunstmatige intelligentie, dat is eigenlijk niet iets.

[2:04:58] Dat is een term van een gereedschapskist.

[2:05:02] En in die gereedschapskist zitten allerlei technieken als machine learning,

[2:05:06] als deep learning, als natural language processing,

[2:05:09] object recognition, maar kunstmatige intelligentie is niks.

[2:05:14] En als je onder de motorkap gaat kijken van kunstmatige intelligentie,

[2:05:17] dan zul je wiskundestatistiek zien en programmeercode.

[2:05:20] Dat is wat kunstmatige intelligentie is.

[2:05:23] Alleen, ze kunnen worden ingezet waarbij ze heel erg slim lijken.

[2:05:26] Dus neem bijvoorbeeld large language models,

[2:05:29] die de laatste tijd veel, tenminste, die nu actueel zijn.

[2:05:35] Maar neem bijvoorbeeld ook dat je je iPhone

[2:05:38] op basis van je gezicht kan herkennen dat jij het bent

[2:05:41] en dan krijg je toegang tot je iPhone.

[2:05:44] Ik ben een technologieenthousiasteling.

[2:05:46] Ik gebruik het zelf ook voor mijn onderzoeken.

[2:05:49] En tegelijkertijd vraag ik me af of dat machine learning,

[2:05:52] waar mijn position paper over ging,

[2:05:54] of dat het wel de juiste technologie is om in de handhaving in te zetten.

[2:05:58] En ik heb daar een focus op juridische uitvoeringsorganisaties.

[2:06:04] Ik kan niet spreken voor een politie, maar eerder voor een belastingdienst,

[2:06:08] een duo of voor binnenlandse zaken,

[2:06:10] omdat zij ongeveer een vergelijkbaar juridisch kader hebben.

[2:06:14] En de juridische kaders zijn vandaag ook al heel vaak voorbijgekomen

[2:06:19] en ook allerlei manieren om het te toetsen.

[2:06:23] En tegelijkertijd denk ik niet dat daar het probleem zit.

[2:06:26] het probleem zitten wat mij betreft in de rechtstoepassing.

[2:06:30] Dus ik denk dat juristen wel weten hoe het recht werkt,

[2:06:33] alleen als je onder de motorkap gaat kijken,

[2:06:36] kom je dan wel tot de juiste rechtsbeoordeling.

[2:06:39] En in mijn position paper heb ik dat beperkt tot discriminatie,

[2:06:44] omdat dat de vraag is.

[2:06:45] Maar je zou hem ook breder kunnen trekken,

[2:06:47] dus bijvoorbeeld het profileringsverbod in de AVG,

[2:06:49] in combinatie met geautomatiseerde besluitvorming,

[2:06:52] of het recht op een behoorlijk proces,

[2:06:53] wat er ook al voorbijgekomen is, dat mensen niet weten waarom ze geselecteerd zijn.

[2:06:58] Het zijn allemaal grondrechten en ik hoor veel statistische toetsen voorbijkomen,

[2:07:04] ik hoor ethische toetsen voorbijkomen, maar ik mis een beetje de mensenrechtentoets.

[2:07:10] Dus, nou ja, non-discriminatie en het recht op een behoorlijk proces bijvoorbeeld.

[2:07:17] Want ook al is iets statistisch zo, dan betekent het nog niet dat je het mag gebruiken.

[2:07:21] En vervolgens ben ik ingegaan in de paper op de werking van de technologie.

[2:07:27] En ik heb het al zo simpel mogelijk proberen te houden.

[2:07:30] En tegelijkertijd is het best wel complex, dus ik hoop dat het gelukt is.

[2:07:34] Maar waar het op neerkomt, waar machine learning onder de motorkap op neerkomt,

[2:07:38] is dat er vanuit trainingsdata, dus behandelde aangiftes in dit geval,

[2:07:43] een profiel van een juiste en een profiel van een onjuiste aangifte wordt gemaakt.

[2:07:49] Vervolgens komt er een aangifte binnen en wordt er gekeken in hoeverre komt deze aangifte die binnenkomt,

[2:07:55] in hoeverre komt die overeen met een aangifte die onjuist is bevonden en in hoeverre komt die overeen met een aangifte die juist is bevonden.

[2:08:04] En als een aangifte die binnenkomt heel veel kenmerken heeft met een aangifte die gecorrigeerd is, die onjuist is, dan volgt een selectie.

[2:08:15] En dat is hoe het in de basis werkt.

[2:08:18] En als je dan kijkt van wat voor gegevens worden dan meegewogen.

[2:08:21] Dat zijn veel meer gegevens dan de fiscale gedragingen van een persoon.

[2:08:27] Want ook bijvoorbeeld, eigenlijk alle kenmerken van de belastingplichtige en de aangifte komen erin terug.

[2:08:35] En eigenlijk doet me dat, ik zat er net aan te denken, doet me een beetje denken aan een flitspaal.

[2:08:41] die niet alleen op snelheid controleert, maar ook kijkt naar de kleur van de auto en het merk van de auto.

[2:08:49] En daar zit juridisch gezien een heel groot risico, omdat je dus meer meeweegt dan de gedraging.

[2:08:56] En dat is ook anders, het is een andere manier van werken.

[2:09:00] Deze manier van werken is er in 2015 ongeveer gekomen bij de investeringsagenda,

[2:09:05] waarbij technologie in de plaats moest komen van mensen.

[2:09:12] En wat is dan het verschil met wat er voorheen gebeurde en eigenlijk ook nog steeds gebeurt?

[2:09:17] Dat kan je ook zien in het rapport van de Algemene Rekenkamer.

[2:09:20] Hoe de belastingdienst traditioneel werkte is eigenlijk, als een aangifte binnenkomt en je geeft salaris A aan in je aangifte,

[2:09:28] dan werd het gecontroleerd met wat de belastingdienst doorkreeg van een werkgever.

[2:09:33] En op het moment dat dat niet overeen kwam, dan werd je gecontroleerd.

[2:09:36] Dus dat is puur op basis van het salaris dat je aangaf en het gegeven dat de belastingdienst extern doorkrijgt.

[2:09:42] Dat is een hele andere manier van werken dan deze datagedreven benadering.

[2:09:46] Waarbij je dus heel veel risico's hebt op proxies.

[2:09:51] En ik heb ook in mijn position paper laten zien dat je het gebruik van nationaliteit niet uit kunt sluiten.

[2:09:57] Of, nou geloof of wat dan ook, uit kunt sluiten omdat er heel veel proxies zijn.

[2:10:03] Dat zijn dingen die heel erg verband houden met bijvoorbeeld nationaliteit,

[2:10:08] maar niet direct beschrijven.

[2:10:11] Bijvoorbeeld bij je zin in ten opzichte van leeftijd, taalniveau of postcode.

[2:10:16] In de regio Friesland wonen weinig mensen met een migratieachtergrond

[2:10:19] en in de regio Amsterdam bijvoorbeeld meer.

[2:10:22] En dan kom ik bij de kern van het verhaal.

[2:10:27] Ik denk dat organisaties echt het juiste willen doen.

[2:10:32] En dat ze ook proberen te toetsen, maar dat uiteindelijk het ontbreekt bij de kennis van wat gebeurt er onder de motorkap,

[2:10:40] wat wegen we allemaal mee en hoe verhoudt zich dat tot mensenrechten.

[2:10:44] En dat zijn andere toetsen dan statistici bij toetsen of steekproeven of dat soort toetsen.

[2:10:52] Dank u wel. Dank u wel.

[2:10:54] Mevrouw Oudsma. Dank u wel.

[2:10:58] Alrijs, dank voor de uitnodiging. Ik denk dat het heel erg belangrijk is dat de Kamer aandacht besteedt aan een belangrijk thema als dit.

[2:11:05] En toch zit ik hier met een ongemakkelijk gevoel.

[2:11:07] Want als je kijkt naar de position papers die zijn ingediend van de uitvoeringsorganisaties, maar ook van de VNG,

[2:11:12] wordt breed erkend dat er iets profileren niet mag.

[2:11:15] Het lijkt bijna, als het wordt opgeschreven, als een ja-de, natuurlijk mag het niet.

[2:11:19] Maar toch, als je de papers leest, lijkt het vooral dat nog steeds die noodzaak voor een

[2:11:27] risicoprofilering wordt benadrukt, alsof er geen lange reeks van schandalen is ontstaan

[2:11:32] door de drang die noodzaak voor risicoprofilering als leidend te zien en niet de rechten van

[2:11:39] de burgers.

[2:11:40] En die reeks van schandalen blijft helaas nog steeds uitdijen.

[2:11:44] Wat opvalt is toch nog steeds een soort van schroom voor het uiten van de zelfreflectie

[2:11:48] in die ingediende, bijna technische position papers, waarin bewustzijn of erkenning van

[2:11:53] de schade die is aangericht door jarenlang etnisch profileren niet wordt genoemd.

[2:11:58] De structurele en collectieve benadeling van groepen mensen op basis van etniciteit door

[2:12:02] bewuste en of onbewuste vooroordelen richt schade aan.

[2:12:06] Iedere keer wanneer iemand etnisch wordt geprofileerd, onterecht wordt staande gehouden, gecontroleerd,

[2:12:11] uit de rij wordt gehaald of als potentieel fraudeur wordt bestempeld, dan knakt er iets

[2:12:15] bij diegene en bij de mensen in die omgeving.

[2:12:18] Dat doet iets met de mensen, dat doet iets met de samenleving en dat doet iets met het

[2:12:22] vertrouwen in de overheid.

[2:12:24] En laten we er niet omheen draaien, etnisch profileren is een mensenrechten schending

[2:12:27] en een schending van de menswaardigheid.

[2:12:29] Maar laten we het ook zien voor wat het is en het zo benoemen.

[2:12:32] Het is een uiting van institutioneel racisme.

[2:12:35] In maart bracht Amnesty het meest recente rapport uit over etnisch profileren en daarin

[2:12:40] hebben we moeten concluderen dat de overheid heeft gefaald en nog steeds faalt om mensen

[2:12:44] te beschermen tegen haar eigen discriminerende overheidscontroles, overheidsbreed.

[2:12:49] En hoewel artikel 1 van de grondweld helder is, ziet Amnesty een patroon bij de overheid

[2:12:53] van het negeren van signalen en of passiviteit.

[2:12:58] Bij het toeslagenschandaal werd jarenlang niets gedaan met de signalen van discriminatie.

[2:13:02] Bij de duode dienst Uitvoering Onderwijs duurde het maar liefst tien jaar voor de risicoprofielen

[2:13:07] bij de werking werden gesteld naar signalen over mogelijke discriminatie.

[2:13:10] En op dit moment wordt willens en wetens het discriminerende visumalgoritme van buitenlandse

[2:13:15] zaken in de lucht gehouden.

[2:13:17] Signalen alleen blijken dus helaas niet altijd genoeg en dan is het soms nodig om naar de

[2:13:21] rechters te stappen.

[2:13:22] Zo ook bij het etnisch profileren door de Koninklijke Mauritius C.

[2:13:25] Het gerechtstof was helder.

[2:13:27] Ethniciteit mag geen enkele rol spelen bij overheidscontroles.

[2:13:31] En gelukkig worden er dan nu eindelijk ook stappen in die goede richting gezet.

[2:13:36] Ras, etniciteit, afkomst of uiterlijk mogen volgens de politie nooit onderdeel uitmaken

[2:13:40] van de selectiebeslissing, zo komt in het nieuwe handelingskader te staan.

[2:13:44] En ook de Kmar gaat de werkinstructie zo aanpassen dat etnisch profileren niet meer mogelijk

[2:13:48] moet zijn.

[2:13:49] Maar dat is papier.

[2:13:51] Want wat gaan we daarvan in de praktijk zien?

[2:13:53] Uit onderzoek van de politie zelf bleek dat zelfs slechts 39 procent van de politiemensen

[2:13:59] op de hoogte was van het vorige handelingskader professioneel controleren.

[2:14:03] En in hoeverre is men daadwerkelijk met die verandering van die interne cultuur?

[2:14:09] En hoe zit dat bij de KMAR?

[2:14:11] Amnesty International en Control al de lietstijden al meer dan 10 jaar tegen etnisch profileren.

[2:14:16] En de cultuurveranderingen zijn nog maar net gestart.

[2:14:18] En zo, als iedereen weet, cultuurveranderingen zijn weer barstig.

[2:14:22] Amnesty vindt daarom dat systematische registratie en monitoring van controles nodig is.

[2:14:26] Want anders blijft het risico bestaan op etnisch profileren bij deze twee instanties.

[2:14:31] Er zijn helaas instanties die helemaal niks leren van het oordeel van het gerechtshof.

[2:14:35] Het kabinet bijvoorbeeld, want dat erkent nog steeds niet dat de etniciteit nooit een rol

[2:14:40] kan en mag spelen in selectiebesluiten.

[2:14:43] En dat past binnen het patroon dat Amnesty ziet.

[2:14:50] Het kabinet geeft geen of matig tot zeer zwakke opvolging aan dwingende oproepen of signalen

[2:14:57] van discriminatie, of die nu van de slachtoffers komen, vanuit de Kamer of zelfs vanuit de rechtelijke

[2:15:01] macht.

[2:15:03] En in plaats daarvan wordt de verantwoordelijkheid om de discriminatie tegen te gaan door het

[2:15:07] kabinet, waardoor ook veel overheidsinstanties stelselmatig bij individuele klachtenprocedures

[2:15:12] gelegd, zoals waar de ombudsman en mevrouw Terlouw ook net op wezen.

[2:15:18] Dat is onacceptabel.

[2:15:20] De overheid moet discriminatie aan de voorkant van haar handelen tegengaan en daar hoort

[2:15:23] strikte regulering van risicoprofilering bij.

[2:15:27] Amnesty wil de Kamer aanmoedigen om als medewetgever de handschoen op te pakken

[2:15:31] waar kabinet na kabinet deze heeft laten liggen.

[2:15:36] Alsjeblieft, pak uw rol op.

[2:15:38] Mensen moeten beschermd worden tegen institutioneel racisme,

[2:15:41] ook in de vorm van discriminatie door risicoprofilering.

[2:15:44] Dank u wel.

[2:15:46] Dank u wel. Dan gaan we luisteren naar de bijdrage van mevrouw Abdullah Vizekan.

[2:15:52] Dank u wel voor de uitnodiging.

[2:15:56] Laat me beginnen met dat ik net goed geluisterd heb naar de verschillende uitvoeringsorganisaties

[2:16:00] en dat het fijn is om te horen inderdaad dat het wordt gezegd, het niet profileren, dat

[2:16:05] mag niet, dat willen we niet, sommigen zeggen zelfs dat doen we niet en dat is best wel

[2:16:11] ingewikkeld want de meeste uitvoerders die gebruiken juist ook het aspect dat a-select

[2:16:19] dat a-select-selecteren te weinig oplevert en dat risico-selectie juist nodig is.

[2:16:26] En daar zit misschien ook precies de kern van het probleem waar ik mijn bijdrage voor over het voetlicht wil brengen.

[2:16:32] Ik zit hier namens Control Delete, een organisatie dat zich inzet tegen etnisch profileren en inderdaad al ruim 10 jaar strijd samen met Amnesty.

[2:16:41] We hebben intern best lang gesproken over wat en hoe we onze inbreng vandaag over het voetlicht zouden brengen.

[2:16:49] Dat heeft te maken met dat onze visie duidelijk is.

[2:16:52] Op elke actualiteit reageren we inmiddels een blog en worden we uitgenodigd door de media.

[2:16:58] Dus wat kunnen we nog anders inbrengen dan jullie eigenlijk al weten?

[2:17:02] Ook hebben we intern gesproken over wie van ons hier moet gaan zitten.

[2:17:05] Uiteindelijk zit ik hier.

[2:17:06] Ik zit hier omdat ik naast de 10 jaar strijd vanuit Contra Al Delite tegen etnisch profileren,

[2:17:11] ik ook een persoonlijke strijd voer.

[2:17:13] Ik ben een Caribische, islamitische, geboren Nederlander en al bijna 40 jaar in gevecht

[2:17:18] met overheidsinstanties vanwege de impact van de risicoprofielen op mijn leven, van

[2:17:24] mijn familie, vrienden en collega.

[2:17:27] En er zijn een legio voorbeelden te geven van institutioneel racisme door het gebruik

[2:17:31] van etniciteit in risicoprofielen.

[2:17:33] En slechts het topje van het ijsberg wordt hier in de Tweede Kamer besproken.

[2:17:39] Maar wist u dat er meer dan vijftig overheidsinstanties op grote schaal voorspellende algoritmes gebruiken

[2:17:44] die etnisch profileren in de hand kunnen werken?

[2:17:47] Dat zijn er echt heel veel.

[2:17:50] En op één volgende regering in Nederland zeggen allemaal dat ze tegen etnisch profileren

[2:17:54] en discriminatie zijn, maar de grap van alles is dat de overheid zich er zelf schuldig aan

[2:17:58] maakt.

[2:17:59] En de regering deed de afgelopen tien jaar te weinig voor om het te stoppen.

[2:18:05] In april 2021 werd een motie aangenomen met 118 stemmen voor die opriep om overheidsinstanties

[2:18:12] etniciteit niet meer te laten gebruiken om fraude te bestrijden.

[2:18:16] Deze motie volgde kort op het stembusakkoord over fraudebestrijding dat wij vanuit Control

[2:18:21] Adlit initieerden.

[2:18:22] Er had eigenlijk allang doorgepakt moeten worden door uitvoering te geven aan deze aangenomen

[2:18:27] motie.

[2:18:27] En dat gebeurde niet, waardoor het gewoon nog steeds plaats kan vinden.

[2:18:32] Sterker nog, de regering verdedigt nog steeds het gebruik van etniciteit in risicoprofielen.

[2:18:38] Samen met betrokken burgers en maatschappelijke organisaties voerden wij een rechtszaak tegen de staat.

[2:18:45] Het gerechtshof Den Haag heeft in 2023 een hele duidelijke uitspraak gedaan.

[2:18:49] En die uitspraak luidde...

[2:18:51] Selectiebeslissingen die tussen haakjes mede gebaseerd zijn op etniciteit, zijn in strijd

[2:18:57] met het discriminatieverbod, zoals Dagmar Oudzoorn zo even ook aangaf.

[2:19:01] Het mag gewoon nooit gebruikt worden.

[2:19:04] En hoewel de uitspraak alleen ging over grenscontroles door de Qamar, zijn wij als coalitie van mening

[2:19:08] dat het verbod ook zit op andere overheidsdiensten.

[2:19:13] En juridisch valt niet te verdedigen waarom dit op andere terreinen anders zou zijn.

[2:19:16] Het kabinet legde zich niet neer bij deze uitspraak en bleef volhouden dat het gebruik

[2:19:23] van uiterlijke kenmerken en risicoprofielen in uitzonderlijke gevallen is toegestaan.

[2:19:28] Maar dat is dus in strijd met de uitspraak van het gerechtshof.

[2:19:32] Gedurende de rechtszaak voegden we natuurlijk ook het toeslagensgedaal op de voet.

[2:19:36] En bij een rond de tafel gesprek ter voorbereiding op de eerste parlementaire enquête in februari

[2:19:40] 2022 riepen wij vanuit Control Alt Delete op om tijdens het onderzoek ook aandacht te

[2:19:46] voor discriminatie en racisme. Daar leek gehoor aan gegeven te zijn, omdat in de onderzoeksopzet

[2:19:54] gebruik gemaakt is van discriminerende risicoprofielen, genoemd als een van de hoofddoelen van de enquête,

[2:20:02] maar wat blijkt, er is voor gekozen om discriminatie vanwege ras tussen aanhangstekens buiten de

[2:20:08] deur te houden. Sterker nog, in de twee parlementaire enquêtes werd racisme niet onderzocht, vastgesteld

[2:20:14] of erkend. Het woord ras, in de juridische term, te vinden in artikel 1 van de grondwet,

[2:20:22] is een juridische term waar de begrippen etniciteit, afkomst en huidskleur onder vallen. De Belastingdienst

[2:20:28] werkte met risicoprofielen die selectiecriteria bevatten, zoals allochtoon, niet-westerse

[2:20:35] landgenoten van buitenlandse origine, ondernemers van allochtone afkomst en belastingplichtigen

[2:20:42] wie er achternaam eindigt op IC of iets.

[2:20:48] De Belastingdienst selecteerde ook mensen vanwege hun niet-westerse voorkomen.

[2:20:53] Dit zijn voorbeelden van selectiebeslissingen die mede gebaseerd zijn op ras.

[2:20:58] Juridisch gezien was er dus sprake van racisme bij de toeslagenaffaire.

[2:21:02] En door dit niet mee te nemen in het onderzoek,

[2:21:04] blijven hele belangrijke aspecten van het toeslagenschandaal,

[2:21:07] zoals etnisch profileren en institutioneel racisme, onderbelicht.

[2:21:10] Het uitblijven van erkenning draagt bovendien het risico op herhaling in zich.

[2:21:15] Want als de politiek niet herkent dat dit racisme is, dan kan het racisme zich ongestraft

[2:21:22] herhalen.

[2:21:24] En nu om antwoord te geven op de vraag, wat kan de Tweede Kamer doen om de mensenrechten

[2:21:28] in Nederland te beschermen?

[2:21:30] Ons antwoord is, dwing bij alle overheidsinstanties af dat ras nooit een rol speelt in beslissingen

[2:21:37] om burgers te controleren.

[2:21:39] Behandel burgers als individuen en treed burgers vanuit vertrouwen tegemoet.

[2:21:45] Waarborg transparantie en zorgvuldigheid bij controles.

[2:21:49] Registreer en evalueer alle controles, registreer algoritmes en toets deze aan mensenrechten.

[2:21:56] En tot slot, verscherp het toezicht op deze controles, het discriminatieverbod verplicht

[2:22:02] de overheid om alle mensen in Nederland te beschermen tegen discriminatie en institutioneel

[2:22:06] racisme.

[2:22:07] En dat duwt geen verder uitstel.

[2:22:11] Dank u wel.

[2:22:12] Dank aan u allen voor deze stevige inhoudelijke inleiding.

[2:22:16] Ik kijk naar de leden.

[2:22:19] Zullen we gewoon hetzelfde rijtje afgaan en beginnen met de heer Bamenga?

[2:22:23] Ja, dank u wel voor uw bijdrage allemaal.

[2:22:27] Ik had een vraag voor iedereen eigenlijk.

[2:22:31] De uitvoeringsorganisaties spraken zojuist van de helende werking van de menselijke tussenkomst

[2:22:37] bij risicoprofilering. Ik was benieuwd hoe jullie daarin staan.

[2:22:44] Korte reactie. Ik heb vaak gehoord van agenten, ja maar mijn ervaring is ook belangrijk.

[2:22:53] En mijn ervaring zegt mij dat het effectief is om bijvoorbeeld een mens met een hoodie te controleren.

[2:23:01] En een ervaring van een mens werkt eigenlijk net zo als een algoritme.

[2:23:06] heeft ook een zichzelfversterkend effect.

[2:23:09] Je gaat daardoor al gauw, als je denkt, hé, mijn ervaring zegt dat,

[2:23:13] ook de volgende keer wil iemand met een hoodie controleren.

[2:23:17] En daardoor pak je ook alleen maar mensen met een hoodie

[2:23:19] en nooit meer mensen zonder een hoodie.

[2:23:21] Dus dat heeft een zichzelfversterkend effect.

[2:23:23] Dus ik heb daar niet zo veel vertrouwen in, die menselijke factor.

[2:23:30] Andere, mevrouw? Heer Van der Linden?

[2:23:33] Ik zou de vraag dan vanuit de technologie beantwoorden.

[2:23:37] De technologie maakt dan een eerste keuze in wie wel en wie niet.

[2:23:42] Dus stel je hebt twee typen mensen, de ene zijn groen, de andere zijn blauw, om het even heel makkelijk te maken.

[2:23:48] Als aan de voorkant voor selectie 70 groene mensen worden uitgeworpen en 30 blauwe mensen,

[2:23:54] dan is er daarna wel menselijke tussenkomst.

[2:23:57] Maar aan de voorkant is er al een voor- en nadeel dat heeft plaatsgevonden.

[2:24:02] En in dit geval een nadeel is dat er minder blauwe mensen zijn geselecteerd, want er zijn er maar 30.

[2:24:05] En het voordeel, andersom, daar maak je een keuze in.

[2:24:10] En dat nadeel werkt door.

[2:24:12] Ook al is daarna menselijke tussenkomst.

[2:24:14] Dus omdat de computer zegt, jij wel, jij niet, daar zit al een eerste factor in.

[2:24:18] Een eerste schifting.

[2:24:21] Ik kijk even naar de andere vraag.

[2:24:25] Menselijke tussenkomst, daar kan je van zeggen, het is essentieel, maar geen garantie voor een rechtvaardige besluitvorming.

[2:24:31] Uit onderzoek blijkt ook dat mensen geneigd zijn om de uitkomsten van algoritme als het

[2:24:37] soort moment van objectief neutraal te zien.

[2:24:40] Dus dan krijg je er een automation bias, wordt dat genoemd, dat krijg je erin.

[2:24:45] En wat natuurlijk ook is, de lange reeks schandalen laat zien dat de menselijke toekomst ook

[2:24:50] tot ramp kan leiden, want bij DUO was er een menselijke toekomst en bij het toeslagenschandaal

[2:24:55] was er ook een menselijke toekomst.

[2:24:56] En ik wil ook nog zeggen dat doordat het een vorm is van institutioneel racisme,

[2:25:02] institutioneel discriminatie, zie je dat het opeenvolgend gaat waar overal menselijke tussenkomst is.

[2:25:09] Ook de Raad van State moest erkennen, wat je zou zeggen dat is een zeer menselijke tussenkomst,

[2:25:14] dat die vooroordelen door hebben gewerkt.

[2:25:18] Dus in al die reeksen waar mensen zeiden wij zijn het slachtoffers, overal werken dat indoor.

[2:25:23] Dus ook wij hebben onze zorgen over die maatschappen, die menselijke tussenkomst.

[2:25:28] Zeker zolang die vooroordelen of ervaringen nog een rol spelen.

[2:25:35] En dat zit in heel veel stukken.

[2:25:37] Dat zit ook bij de politie, de discretionaire bevoegdheid die ze hebben.

[2:25:40] Ze hebben altijd nog de mogelijkheden om dat zelf te doen.

[2:25:42] Daar zit ook een mogelijke bij in.

[2:25:45] En zolang dat er niet uit is, is het geen garantie.

[2:25:47] Dus er moet echt gewoon gekeken worden, hoe krijgen we het eruit?

[2:25:51] En wat kunnen we doen om het te bestrijden?

[2:25:54] Het moet gewoon niet kunnen.

[2:25:55] Punt.

[2:26:00] Ja.

[2:26:00] En het mag dus ook niet.

[2:26:03] Ja.

[2:26:04] Ja.

[2:26:06] Mevrouw Palmen.

[2:26:08] Ja, dank u wel, voorzitter.

[2:26:10] Ook alle heel erg dank voor de bijdrage.

[2:26:13] Ik moet zeggen, het duizelt mij op dit moment.

[2:26:17] Zoveel informatie en mijn buurman gniffelt al, maar ik heb het idee dat wij misschien

[2:26:25] tot op heden heel erg de link op de verkeerde manier aan het leggen zijn geweest.

[2:26:30] En als ik alle voorgaande blokken, maar ook vooral uw bijdrage,

[2:26:35] tot mijn laat doordringen, dan is het woord rechtstoepassing

[2:26:39] wat bij mij heel erg naar... Ja, blijft resoneren.

[2:26:44] Mensenrechten. Wat gebeurt er bij mensen? Wel, wat ervaren zij?

[2:26:49] En tegelijkertijd een hele andere wereld van technologie.

[2:26:55] Ik ben zelf natuurlijk ook opgeleid als jurist.

[2:26:58] De meeste juristen weten best wel hoe een wet in elkaar steekt.

[2:27:02] Maar als je denkt, ik ga schilderen en mijn kwast heeft deze eigenschap...

[2:27:08] dan verwacht ik een mooie schilderij te kunnen maken.

[2:27:10] Maar eigenlijk schildert die kwast niet zoals ik denk dat hij schildert.

[2:27:14] Die doet namelijk hele andere dingen.

[2:27:16] Onzichtbare inkt of zo, die in een keer ook kan ontploffen of weg is.

[2:27:20] Dus als we dan op zoek moeten naar de oplossing...

[2:27:24] want ik zou het heel graag willen oplossen en willen voorkomen.

[2:27:28] Dan vraag ik eigenlijk aan u van help.

[2:27:31] Hoe kunnen we er nu voor zorgen dat we elkaars taal gaan begrijpen,

[2:27:35] elkaars taal gaan spreken en daarvoor gaan zorgen

[2:27:39] dat we die techniek onder die motorkap veel meer gaan beheersen?

[2:27:44] En vice versa.

[2:27:45] Heel ingewikkeld, maar ik hoop dat u me kunt beantwoorden.

[2:27:48] Dat is wel de one million dollar question.

[2:27:50] Ja, ik wou niet op de techniek ingaan, maar ik denk dat het dan toch nuttig is om nog eens te kijken

[2:27:57] naar het onderzoek van de Eerste Kamer, omdat die precies met dit probleem heeft geworsteld en het

[2:28:03] ook heeft teruggebracht tot die zes punten die ik heb genoemd, omdat ze denken dat dat zijn de

[2:28:08] handvatten, dat geeft de toetsingskade. Dus ja, dat geeft enige grip. Is misschien herhaling van

[2:28:17] maar dat is wel de reden dat ik die punten heb genoemd.

[2:28:22] Ik denk dat we met die zes punten wel de essentie hebben.

[2:28:31] Meneer Van der Linden.

[2:28:32] Ja, dankjewel.

[2:28:34] Een hele ingewikkelde vraag.

[2:28:36] Ik weet ook niet hoe ik hem precies moet duiden,

[2:28:39] maar ik begon eigenlijk in mijn bijdrage al met een stukje demystificatie van

[2:28:43] wat is kunstmatige intelligentie nu echt?

[2:28:46] En als ik kijk naar overheidsinstanties waar het vaak mis is gegaan,

[2:28:50] Dan zie ik een gemeenschappelijke deler en dat is vaak dat de algoritmes zijn binnengevlogen door externe partijen.

[2:28:59] Dus die zijn door externe organisaties aan de overheid verkocht omdat ze volgens die organisaties beter werken dan traditionele algoritmes.

[2:29:10] En een traditioneel algoritme is gewoon een als-dit-dan-dat constructie en dus dan kom ik weer bij dat salaris dat afwijkt van wat de werkgever doorgeeft.

[2:29:21] Voor mij, in het handhavingsbeleid, vaak is het een aanname dat de nieuwe technologie,

[2:29:27] dat die daar beter werkt dan de, ik noem het even de traditionele technologie,

[2:29:32] met de als dit dan dat constructies.

[2:29:36] Want, waarom ik daaraan twijfel, is het volgende.

[2:29:39] In de wet staat gewoon, als dit de situatie is, dan is dit de uitkomst.

[2:29:44] Als dit dan dat.

[2:29:46] Dus op basis van de wet in combinatie met het aangifteprogramma

[2:29:49] kun je heel duidelijk definiëren van als dit gebeurt in combinatie met dat,

[2:29:54] ja, dan is dat een risico.

[2:29:56] Dus bijvoorbeeld het doon dat afwijkt van het doon dat je doorkrijgt

[2:29:58] of het vermogen dat je aangeeft en de panden die je bezit, op die manier.

[2:30:04] En eigenlijk zou je ook zo naar het recht moeten kijken van

[2:30:08] wat zegt de wet en wanneer heb ik een risico?

[2:30:12] En als je zo gaat kijken, dan ga je alleen maar de factoren meenemen

[2:30:16] die iets zeggen over het risico.

[2:30:19] En het risico bij...

[2:30:20] Het is een beetje verwarrend misschien om meer risico te gebruiken,

[2:30:24] maar het risico als je machine learning gaat toepassen

[2:30:27] in de handhavingsprofilering is dat meer wordt meegewogen

[2:30:30] dan je echte gedraging.

[2:30:33] Dus als je vraagt naar een oplossing,

[2:30:36] voor mij is het nog steeds een aanname

[2:30:38] dat machine learning effectiever is dan de traditionele algoritmes.

[2:30:41] En ik zou daar graag meer onderzoek naar willen zien

[2:30:44] in welke situaties die dan effectiever zou moeten zijn, dus machine learning effectiever zou moeten zijn.

[2:30:50] En als het dan effectiever is, of het ook juridisch door de beugel kan als je de AVG en de grondrechten pakt,

[2:30:55] en de mensenrechten, of ja, grondrechten en mensenrechten.

[2:30:58] Dat is toch een hopelijke antwoord.

[2:31:00] Ik wil graag een tweeledig antwoord geven als dat kan.

[2:31:04] Allereerst hebben we als Amnesty een aantal waarborgen die we adviseren.

[2:31:10] Sowieso wees terughoudend met de risicoprofilering en we handelen mensen vanuit vertrouwen.

[2:31:14] Want in principe gaat het over onschuldige mensen, niet over verdachte mensen.

[2:31:18] Er zit een groot verschil tussen.

[2:31:20] Een normstelling.

[2:31:22] Het discriminatieverbod is duidelijk.

[2:31:23] Het mag niet.

[2:31:24] Dat moet uitgedragen worden.

[2:31:26] Maar ook striktere regels voor controle.

[2:31:28] Een betere omschrijving van controlebevoegdheden in wetten of binnen de richtlijnen.

[2:31:33] En controles voor criminaliteitsbestrijding alleen uitvoeren bij een redelijk vermoeden van schuld.

[2:31:38] A-selecte controllers, een verplichte mensenrechtentoets aan de voorkant en dat ook blijven monitoren.

[2:31:48] Ook waarin bijvoorbeeld in de AI-act uitzonderingen gelden.

[2:31:51] Geen zelflerende of blackbox modellen, weten ze wat je doet.

[2:31:54] Een verantwoording, wees duidelijk, wees, registreer de algoritmes, wees transparant,

[2:32:01] laat het onderzoeken, kijk naar de klachtenafhandeling en toezicht.

[2:32:05] Dus zorg voor voldoende middelen en adequate bevoegdheden voor de toezichthouders en een

[2:32:09] betere klachtenafhandeling.

[2:32:11] En aan de andere kant is heel vaak in de discussie krijg je te horen dit is ontstaan, we hebben

[2:32:18] fouten gemaakt.

[2:32:20] En dat vind ik een iets te zwakke vertaling voor nee, er zijn daar leuke keuzes gemaakt.

[2:32:25] Er zijn keuzes gemaakt om het onderscheid te maken.

[2:32:29] Agenten zijn daar jarenlang op getraind.

[2:32:30] bij de belastingdienst zitten, dat soort cemen, dat zijn keuzes waarin jarenlang de risico-inschatting

[2:32:38] prevaleerde boven de mensenrechten. Dat is niet iets wat is overkomen, daar is voor gekozen.

[2:32:45] En die keuzes, daar moet je echt, en die erkenning, er is bewust voor gekozen om onderscheid te maken

[2:32:52] voor burgers, is daarom waarom het ook zo belangrijk is om het te hebben over het institutionele

[2:32:56] racisme wat erachter zit. Want het is een keuze geweest, een keuze om tegen een deel van de

[2:33:02] burger te zeggen je bent anders en wat dat betreft ben ik daar ook een beetje fanatiek want ik heb

[2:33:05] dezelfde persoonlijke strijd als mijn buurvrouw. Ik was 19 toen ik voor de eerste keer etnisch

[2:33:11] geprofileerd werd. Ik heb 14 jaar blijkbaar op de FSV-lijst van de belastingdienst gestaan zonder

[2:33:15] dat ik het überhaupt wist. Het gevoel wat dat met je doet en dan overtuigd gelover zijn in een

[2:33:22] een democratisch rechtsstaat dat geeft klappen.

[2:33:25] En dat is wat het doet.

[2:33:27] En ik weet beter, ik weet wat voor regime ze zijn waar dit slechter kan.

[2:33:30] Alleen ik wil het in mijn Nederland niet zien.

[2:33:32] Mijn Nederland, want het is ook mijn Nederland.

[2:33:38] Dank u wel.

[2:33:39] Mevrouw Abdelaziz.

[2:33:42] Ja, ik sluit me natuurlijk volledig aan bij wat Dagmar Oudzorn zo even aangeeft.

[2:33:47] Omdat de stappen van norm stellen tot en met toezicht houden.

[2:33:54] Dat is iets waar wij samen als organisaties voor strijden

[2:33:58] en dat regelmatig bij jullie onder de aandacht brengen.

[2:34:00] Dus dat is jullie en ik ook niet onbekend.

[2:34:02] Ik denk dat het wel goed is om ook bewust te zijn

[2:34:04] dat het gebruik van algoritmes bestaat...

[2:34:08] Een algoritme bestaat uit selectiebeslissingen.

[2:34:11] En de wijze waarop die algoritmes worden ingevuld, ja,

[2:34:17] zorgt ook voor bepaalde uitkomsten.

[2:34:19] Dat is dus ook de reden waarom inderdaad bijvoorbeeld het toeslagenssandaal

[2:34:22] heeft plaats kunnen vinden op de manier waarop het heeft plaatsgevonden.

[2:34:25] En ik zei in mijn bijdrage ook heel expliciet...

[2:34:27] dat het component ras ook daar echt in meegenomen moet worden...

[2:34:32] om lering te trekken dat het in het vervolg niet meer plaatsvindt.

[2:34:35] Kijk, er zijn heel veel elementen die teruggekomen zijn...

[2:34:39] in zowel toeslagensfandaal als andere overheidsinstanties...

[2:34:42] die zich in onze beleving schuldig hebben gemaakt aan etnisch profileren.

[2:34:46] En of dat nou een selectie criterium is, een donatie aan een moskee...

[2:34:51] Want dat is waar het over gaat, als voorbeeld.

[2:34:55] Dat is gewoon een criterium waarop je geselecteerd kan worden om extra gecontroleerd te worden.

[2:34:59] Of je naam eindigt, zoals mevrouw Kostiets, op iets.

[2:35:02] Ja, dat is zeg maar wat gewoon niet mag.

[2:35:06] En waar jullie als wetgever gewoon een norm voor moeten stellen.

[2:35:09] En die norm is eigenlijk datgene waar de motie al eer op is aangenomen en wat tot uitvoering gebracht moet worden.

[2:35:15] Maar die norm ligt er nu ook gewoon juridisch door de uitspraak van het Hof.

[2:35:19] En dat is wat ons betreft hetgeen waar jullie op moeten sturen.

[2:35:24] En er moet verzorgd raken dat dat ook verankerd wordt.

[2:35:30] Dank u wel.

[2:35:30] Dit kost iets.

[2:35:31] Heeft u behoefte aan een vraag te stellen?

[2:35:34] Ja, heel veel vragen.

[2:35:36] Ten eerste dank voor het organiseren.

[2:35:39] Dank aan de collega's die dit hebben georganiseerd.

[2:35:42] We zijn nu helaas een kleine fractie.

[2:35:43] Dus ik moet van het ene naar het andere debat.

[2:35:46] Maar ik ben blij dat ik dit nog even heb kunnen meepakken.

[2:35:49] En voor iedereen die hier is, heel erg bedankt.

[2:35:52] Ja, ik denk dat het handelingsperspectief inderdaad heel belangrijk is, tenminste voor mij als Kamerlid.

[2:35:58] Ik denk dat collega's dat ook hier delen. Dus wat kunnen we doen?

[2:36:01] En ik begrijp ook wel van aan jullie kant.

[2:36:03] Ja, jongens, het zijn hier talloze rapporten over geschreven.

[2:36:05] Zo vaak in het nieuws geweest. Handel nou.

[2:36:12] Ja, wat kan ik hier specifiek over vragen dat we verder komen?

[2:36:17] Ik denk dat ik, want jij zei iets over die 50 organisaties.

[2:36:22] waren het overheidsorganisaties die etnisch profileren toepassen?

[2:36:26] Nee, dus er zijn uit het nieuwsbericht van de NOS, volgens mij was het 2019 denk ik,

[2:36:34] maar dat staat ook in onze position paper met een dieplink ernaartoe,

[2:36:38] daar staat dat meer dan 54 overheidsinstanties gebruik maken van algoritme

[2:36:42] die etnisch profileren in de hand zouden kunnen werken.

[2:36:45] Dus dat is niet bewezen dat ze alle 54 ook inderdaad etnisch profileren,

[2:36:50] maar die algoritme, ja dat is wel een belangrijke toevoeging,

[2:36:52] Maar die algoritmes zouden wel, en die sproven dingen aan de hand, kunnen werken.

[2:36:57] Oké. Ja, dan is mijn vraag, is het nuttig dat de overheid in kaart brengt bij welke organisaties,

[2:37:08] misschien te beginnen dicht bij de overheid, er risico's zijn, wat er al van bekend is?

[2:37:15] En een soort tijdlijn wordt gemaakt op welke manier de adviezen van de experts als jullie kunnen worden toegepast.

[2:37:22] En een van die adviezen is zo'n mensenrechtentoets.

[2:37:24] En dat klinkt, als je dat tegen mij zegt, dan denk ik...

[2:37:26] O ja, tuurlijk, mensenrechtentoets. Maar hoe ziet het er in concreet uit?

[2:37:30] Hoe zou je een mensenrechtentoets in dit geval vorm kunnen geven?

[2:37:36] Ik denk dat dat zeer nuttig is.

[2:37:38] En ik heb er al voor gepleit dat van elke overheidsinstelling...

[2:37:41] wordt gevraagd om elk jaar te rapporteren wat ze hebben gedaan om het te voorkomen.

[2:37:46] Het lijkt me dat deze organisaties specifieke vragen moeten krijgen.

[2:37:50] Hoe voorkomt u dat in uw auto-algoritmische systemen die dat risico in zich dragen?

[2:37:57] En de mensenrechtentoets, ja dat klinkt een beetje vaag.

[2:38:01] Volgens mij moet je in de eerste plaats toetsen aan artikel 1 van de Grondwet

[2:38:06] en artikel 14 van het Europese verdrag voor de rechten van de mens.

[2:38:10] Dat zegt je mag niet discrimineren.

[2:38:13] En die norm is volgens mij heel duidelijk dat je etniciteit niet mag gebruiken

[2:38:17] en ook geen criteria die aan etniciteit verwant zijn.

[2:38:21] Zoals nationaliteit wil ik toch nog even noemen,

[2:38:24] wat heel vaak niet als staatsburgerschap wordt gebruikt,

[2:38:27] maar als een etnisch criterium.

[2:38:32] En in aanvulling daarop, dit is natuurlijk het duidelijkste stuk,

[2:38:34] maar er zitten ook andere componenten in, zoals privacy.

[2:38:37] Er zijn ook andere waarborgers daarin, dus daarom trekken we hem iets breder,

[2:38:42] maar dat is dat we met heel veel overheid handelen zeggen,

[2:38:47] Respecteer dat in die mensenrechten en kijk naar degenen die nodig zijn voor dit soort systemen.

[2:38:52] Als het gaat over big data heb je natuurlijk nog een aantal toetsen die je kan doen naast degenen waar we het nu over hebben.

[2:38:59] Zoals bijvoorbeeld privacy, vrijheden en een ongezonde focus op bepaalde religies en de consequenties die dat heeft.

[2:39:09] Dus een mensenrechtentoets kan echt breder dan dat in overheidshandelen in zijn algemeenheid, daarom noemen wij het zo.

[2:39:17] Ja, en ons advies zou ook zijn, betrek niet alleen juristen, maar maak ook gebruik van

[2:39:24] de expertise van mensen uit gemargaliseerde groepen, omdat zij zijn ook heel goed in staat

[2:39:30] om eerder te signaleren wat mogelijkerwijs een bepaalde groep in de samenleving extra

[2:39:35] zou kunnen benadelen ten opzichte van een andere groep.

[2:39:38] Om een voorbeeld te geven, wat dan ook mooi staat in het rapport van gelijk rechtdoen van

[2:39:42] de Eerste Kamer is het voorbeeld van de VOG.

[2:39:46] De VOG is een nieuwe wet voor aangenomen door de Tweede Kamer heen, door de Eerste Kamer

[2:39:53] heen en bij mijn inspreken bij de parlementaire onderzoek heb ik toen ook aangegeven van ja,

[2:40:00] als jullie nou weten dat mensen met een migratieachtergrond veel meer politiemutaties achter hun naam hebben

[2:40:06] vanwege etnisch profileren, weten dat die politie-mutaties nu gebruikt worden

[2:40:11] in het al dan niet beoordelen of iemand een verklaring om clientgoed gedrag kan krijgen,

[2:40:16] ja, dan weten we dus dat nu een groep extra benaderd wordt op de arbeidsmarkt

[2:40:20] wat niet nodig was geweest.

[2:40:22] En als daar experts uitgemarginaliseerde groepen bij aanwezig waren geweest,

[2:40:26] dan hadden ze hier precies op die blinde vlekken kunnen wijzen.

[2:40:29] Dus ik denk dat dat ook een heel belangrijk gegeven is om dat in acht te nemen.

[2:40:33] Ik wil nog iets zeggen, voordat de tijd zo meteen om is, want ik zie u al kijken.

[2:40:39] Ik vind het belangrijk om te benoemen wat betreft het toeslagend schandaal.

[2:40:43] Want de twee gedupeerden die hier een verhaal hebben gedaan...

[2:40:46] en hebben dat ook proberen over het voet dicht te brengen.

[2:40:48] Daar heeft etniciteit echt ook een belangrijke rol gespeeld.

[2:40:51] En dat is niet benoemd, dat is ook niet erkend.

[2:40:55] Terwijl dat wel één van de redenen is waarom de mensen gedupeerden zijn.

[2:41:00] En het feit dat uit een van de onderzoeken bleek dat meer dan 70 procent een migratieachtergrond heeft,

[2:41:06] waarvan Caribische Nederlanders, dus even voor jullie beeldvorming, dat is dus Dagmar en ikzelf en onze achtergrond,

[2:41:12] 32 keer vaker gedupeerde konden zijn dan andere Nederlanders.

[2:41:17] Ja, dat is waar het over gaat, maar dat moet dan wel ook op die manier erkend worden, benoemd worden,

[2:41:22] en vooral ook voorkomen worden in de toekomst.

[2:41:27] Mag ik ook inderdaad zelf van de gelegenheid gebruikmaken om een vraag te stellen,

[2:41:31] Want wat ik zelf een worsteling vind, is dat we elke keer, ook als ze hier...

[2:41:37] en dat zal u ook hebben, denk ik zo, dat we dan achter de incidenten aanlopen.

[2:41:42] En dan kan je nog zeggen, zelfs die toeslagaffaire...

[2:41:47] dat heeft toch lang kunnen slepen voordat daar hele directe...

[2:41:52] ook vanuit de zijde van de politiek actie op is genomen.

[2:41:56] En dat zie je nu. Dan hebben we het duo. Dus we hebben allemaal incidenten.

[2:42:02] U allen zit hier veel dichter op dan wij met vele dossiers en werkzaamheden waar we mee bezig zijn.

[2:42:15] Is het voorstelbaar dat er een soort actieve informatie is van de mogelijke risico's waar het gaat om etnisch profileren?

[2:42:27] Eigenlijk noemt u net al een, een wet die door beide Kamers is aangegaan,

[2:42:32] want u zegt dat ze kan een mogelijk negatief gevolg hebben.

[2:42:35] Maar is het voorstelbaar dat daar een soort actieve informatie richting politiek zou zijn?

[2:42:44] En welke organisatie, denk ik ook bijna, is dat dan juist vanuit de wetenschap of is dat vanuit Amnesty?

[2:42:50] Bij wie zou dan dat ook liggen, om dat proactief te signaleren of op die risico's te wijzen?

[2:42:58] En ja, ik zie me graag daarna...

[2:43:00] Laat ik heel kort zeggen, ik verval in herhaling.

[2:43:03] Het zou in de eerste plaats bij al die overheidsinstanties zelf moeten liggen.

[2:43:08] En dan moet het niet een soort beste jongetje van de klas kijken, hoe goed we het allemaal doen.

[2:43:13] Maar dat ze ook expliciet zoeken naar de risico's en melden, hier is een risico.

[2:43:18] en misschien zelfs we kunnen het nog niet helemaal verhelpen.

[2:43:23] Beter dan het niet erkennen dat er een risico is en zeggen we doen het allemaal zo goed.

[2:43:30] Misschien een aanvulling.

[2:43:34] Laten we zeggen dat ik vrij zeker weet dat in ieder geval twee organisaties dit al tien jaar doen.

[2:43:40] We hebben hier op gewezen proactief en dat er en dat is vaak zo dat er een schandaal nodig is om het te laten landen.

[2:43:48] Maar het is niet zo dat het niet gezegd is, dat er niet voor gewaarschuwd is en dus dat is heel erg belangrijk en ik denk wat ook heel erg belangrijk is, is dat we hebben nu zoveel van dit soort schandalen gezien en misschien is dan het moment om inderdaad te zeggen doe die doorlichting, we zetten het stop, het mag niet, we gaan kijken en hoe gaan we het opnieuw inrichten met gelijke rechten voor iedereen.

[2:44:18] En dus het naleven van die grondwet.

[2:44:22] En helaas is het dus, en het wrangen daarvan is,

[2:44:26] is dat er eerst heel veel slachtoffers tussen moeten zitten voordat het komt.

[2:44:32] En dat is wat eigenlijk onnummelijk frustreert.

[2:44:36] Maar als je al tien jaar, en ik zelf zit niet zo lang bij Amnesty,

[2:44:41] maar doordat ik het, dat is een hele strijd, ik weet dat het van controlatleten,

[2:44:44] al zo is en we blijven daarop hameren, we blijven ervoor doen en toch is het zo

[2:44:50] van dat je ziet dat dat leerproces heel erg langzaam gaat.

[2:44:54] Want toen ik net bij Amnesty kwam, weet ik dat we rapporten uitbrachten en dat we

[2:44:59] nou echt bijna gekwetst de overheidsinstanties spraken die zeiden

[2:45:07] ja maar wij discrimineren toch niet en die waren echt boos, boos als het gaat

[2:45:12] over vormen van etnisch profileren in het systeem.

[2:45:15] En dat is...

[2:45:20] Deze discussie is niet fijn, maar het is een gegeven dat het zo is.

[2:45:24] En laat dan voortkomen uit al deze soort dingen

[2:45:26] dat de erkenning dat er een vorm van institutioneel en systemisch racisme

[2:45:30] en discriminatie is, dat we daar dan in ieder geval wat aan doen.

[2:45:34] Het is te laat voor heel veel mensen, maar het is vooral heel erg

[2:45:38] op het moment dat zij helemaal voor niks dit allemaal hebben moeten ondergaan

[2:45:42] omdat er geen lering uitgetrokken wordt.

[2:45:44] En wij blijven wel roepen, want het is ons werk.

[2:45:48] En onze passie, zeg ik er ook nog even bij.

[2:45:50] Mag ik daar ook op reageren?

[2:45:54] Want inderdaad, en om heel concreet te zijn,

[2:45:59] zelfs als de Kamer geïnformeerd is en een parlementaire enquête doet,

[2:46:04] twee keer, dan wordt racisme nog steeds niet erkend.

[2:46:10] Neem de situatie rondom de toeslagenaffaire.

[2:46:12] Wij noemen toeslagen schandaal.

[2:46:15] En dat is denk ik toch ook wel wat we met elkaar echt moeten gaan erkennen.

[2:46:19] Wij sluiten ons ook volledig aan bij wat mevrouw Terlouw zegt.

[2:46:22] Er moet echt een doorlichting plaatsvinden bij de verschillende overheidsinstanties,

[2:46:26] maar voordat die doorlichting plaatsvindt,

[2:46:29] betrek dan ook alsjeblieft de juiste organisaties en experts

[2:46:33] bij de onderzoeksopzet om die doorlichting plaats te laten vinden.

[2:46:36] Ik vind dat ook echt wel expliciet, ik wil dat graag expliciet benoemen,

[2:46:40] Omdat bij de eerste parlementaire enquête rondom de toeslagenaffaire zou racisme en discriminatie niet meegenomen zijn.

[2:46:49] Los van het feit dat het nu nog steeds niet eruit gekomen is.

[2:46:51] Terwijl we het eigenlijk allemaal wel weten.

[2:46:53] Maar het zou niet eens meegenomen zijn.

[2:46:55] Dus in die doorlichting betrekten ook echt wetenschappers, juristen, etici.

[2:47:00] Maar ook echt mensenrechtenorganisaties, experts uit gemarginaliseerde groepen.

[2:47:03] Om ook echt mee te kijken dat de juiste vragen gesteld worden.

[2:47:07] Zodat ook echt de juiste informatie op tafel komt.

[2:47:09] En dan kan je met elkaar gaan kijken hoe je daar actie op tegen kan ondernemen.

[2:47:17] Graag gedaan.

[2:47:18] Ik zou actief informeren zou ik eigenlijk ook uit elkaar willen trekken

[2:47:22] richting burger en richting dan de politiek.

[2:47:25] Want een burger weet vaak niet op welke manier die geselecteerd is.

[2:47:28] Dus of dat hier een traditioneel algoritme achter zit

[2:47:31] of een machine learning algoritme.

[2:47:33] En ik geef ook weleens lezingen voor de rechtspraak

[2:47:35] en zij vragen mij ook van hoe weet ik nou wat voor type algoritme is toegepast.

[2:47:40] En eigenlijk begint het al bij het actief informeren

[2:47:42] van, nou, je krijgt een brief binnen van, nou, u bent geselecteerd voor een controle,

[2:47:46] denk ik evenveel vanuit een belastingdienst of vanuit een duo,

[2:47:50] communiceer dan in die brief al welke selectiemethodiek is toegepast.

[2:47:53] Want die selectiemethodiek is ook belangrijk voor die risicobeoordeling.

[2:47:57] Dus daar zou ik een actieve informatieplicht in willen zien.

[2:48:02] Maar ook, denk ik, vanuit de politiek in de zin van, uiteindelijk is een minister

[2:48:06] en een staatssecretaris zijn verantwoordelijk voor een uitvoeringsorganisatie.

[2:48:11] Dus op het moment dat er een nieuw kabinet aankomt...

[2:48:17] Dan zou ik dus, als ik minister zou worden, dan word ik niet.

[2:48:20] Dan zou ik willen weten...

[2:48:23] GELACH

[2:48:27] Nou, nu u dit zo zegt, is de kans wel gestegen.

[2:48:31] Kijk uit, Zout. O, jee, jee.

[2:48:34] Ik heb het thuis wat uit te lekken.

[2:48:35] Nee, maar kijk, ik zou dan als minister, stel ik zou het worden, zou ik willen weten van welke...

[2:48:45] Pas bij machine learning toe binnen onze uitvoeringsorganisatie.

[2:48:50] Want één gemeenschappelijke deler hebben al die algoritmes waar we het over hebben.

[2:48:54] En dat is dat er vaak machine learning algoritmes zijn waarbij de uitsondering van...

[2:48:59] waarbij je achternaam iets en hoge zorgkosten met een meegewogen en andere uitzondering is.

[2:49:03] Dat was een traditioneel algoritme.

[2:49:06] Dus kortom, als je minister wordt,

[2:49:09] licht je uitgangsorganisatie door, wordt het toegepast.

[2:49:12] Mag ik een kleine toevoeging doen?

[2:49:14] In het nieuwe coalitieakkoord zie ik wel weer een extra risico op etnisch profileren

[2:49:19] bij de voorgenomen extra MTV-controles aan de binnengrenzen.

[2:49:25] Dus daar zou ik ook in de eerste plaats heel alert op willen zijn.

[2:49:31] Zeg maar, ik heb een hele mooie metafoor vandaag gehoord die ik vanaf nu altijd ga gebruiken van de flitspaal.

[2:49:40] De flitspaal die flitst alleen bij een auto die te snel rijdt en de kleur en de merk van de auto doet er niet toe.

[2:49:49] Dat geldt dus ook eigenlijk voor alle criminele gedragingen.

[2:49:53] De diversiteitskenmerken van een persoon die doen er niet toe.

[2:49:55] die zijn niet voorspellend, die zijn niet van invloed, het is gewoon een persoon die een strafbaar feit plicht.

[2:50:03] Ik moet ook erg denken, kijk even naar de collega's, naar de discussie of het gesprek wat we hebben gehad met de staatscommissie

[2:50:09] die ook bezig is met de doorlichtingen bij de overheidsorganisaties.

[2:50:14] Dus ik zit, daar moeten we toch ook nog eens dit gehoord hebben, kijken wat daar nou...

[2:50:19] Nou goed, we hebben nog genoeg te doen, dat is maar helder.

[2:50:25] Ja, we hebben... Het is een paar minuten voor vijf.

[2:50:29] Ja, ik heb zelf eigenlijk ook nog een klein vraagje, maar...

[2:50:34] Zullen we allebei een klein vraagje?

[2:50:35] Oké. Ik ben een woord voor de veiligheid en heb dus heel veel...

[2:50:41] Met Contra Alt Delete ook al eerder contact gehad, een collega van u ook.

[2:50:48] En dat ging...

[2:50:50] Die blauwe familie was natuurlijk allerlei aanleiding om ook bij de politie

[2:50:56] nou, met elkaar over te hebben wat we daarvan vinden.

[2:51:00] En daar heeft de organisatie ook zeker een bijdrage aan geleverd.

[2:51:03] Ik wil maar zeggen, je zegt het wordt zo vaak gezegd, maar ik wil maar zeggen

[2:51:06] in het geval van politie is daar een hele goede en ook een hele duidelijke bijdrage

[2:51:13] vanuit Kongschool Adeliet geleverd.

[2:51:14] En een van de, er was natuurlijk politie voor iedereen en ook die app om ervoor te zorgen

[2:51:20] dat je in ieder geval ook als agent goed registreert wat je doet en waarom.

[2:51:26] En wat ik dan ook interessant zou vinden om van uw organisatie te horen,

[2:51:29] hoe gaat dat dan nu echt? Blijft u ze dan ook volgen?

[2:51:32] En ook als er misschien dus ook andersom, als er misschien nu wel goed zou gaan,

[2:51:37] dan zou ik dat ook interessant vinden om als woordvoerder te horen.

[2:51:40] En ik denk dat dat wel voor meer collega's gaat.

[2:51:43] We zitten bijna in een systeem met elkaar, hoe vreselijk ook,

[2:51:49] dat we dus weer achter een incident met z'n allen achteraan hollen.

[2:51:57] Maatregelen, organisaties zijn mee aan de slag.

[2:52:00] We moeten langduriger volgen met elkaar en langduriger in de gaten houden.

[2:52:05] Zou ook uw organisatie daar, ook als het naar een specifiek geval van de politie,

[2:52:10] iets over kunnen zeggen hoe dat dan gaat?

[2:52:13] Wij monitoren alles op de voet en zijn ook een kritisch gesprekspartner van de politie.

[2:52:19] Dus we hebben het ook over alle interventies, projecten die ingezet worden.

[2:52:27] En hebben daar ook echt wel een analyse op over de verschillende dingen die u zo heeft aangegeven.

[2:52:34] Maar ik ontvang het vooral als een tip.

[2:52:38] Zo neem ik hem in ontvangst.

[2:52:39] We zorgen ervoor dat we ook tussentijds daar een terugkoppeling over geven,

[2:52:43] zodat jullie daar nog beter op geïnformeerd zijn

[2:52:46] waar eventueel op gestuurd moet worden.

[2:52:49] Dus dat gaan we zeker doen, ja.

[2:52:52] Heel snel. Dank voor uw bijdrage.

[2:52:57] En volgens mij werd net ook al aangegeven dat het heel belangrijk is

[2:53:02] dat er eigenlijk een soort cultuur is van expliciet zoeken naar de risico's.

[2:53:09] in plaats van we doen het al goed. Ik heb inderdaad ook wel eens gesprekken gevoerd

[2:53:16] bijvoorbeeld met de politie hierover en dan werd bijvoorbeeld aangegeven dat er dan wel belangrijk

[2:53:22] is dat er ook een cultuur ontstaat eigenlijk dat niet alle fouten meteen afgestraft worden zodat

[2:53:27] mensen zich veel veiliger voelen om inderdaad dat eerder ook aan te geven. Dus dat is misschien

[2:53:35] een vraag van hoe kunnen we, denk ik, met z'n allen zorgen dat er inderdaad een soort cultuur ontstaat

[2:53:40] waar Nationale Ombudsman er ook over gesproken heeft. Vergisrecht had hij het volgens mij over,

[2:53:45] dat iedereen het recht heeft om zich ook te vergissen. Dat staat in jullie akkoord van NSC,

[2:53:52] hierbij reclame voor NSC. Mijn vraag was ook, mijn allerlaatste vraag, hoe denkt u dat normstelling,

[2:53:59] Dat is ook wat Control Ateliet zojuist zei.

[2:54:02] Betere verankering daarvan bijdraagt aan ook betere rechtstoepassing.

[2:54:07] Met inachtneming van wat er ook net door uitvoeringsorganisatie gezegd is van kijk uit.

[2:54:13] Dat dat niet nog meer normstelling verzorgt.

[2:54:18] Dat het wat drukker wordt op een wijze van spreken.

[2:54:22] Mag ik iets zeggen?

[2:54:25] Oh, sorry.

[2:54:26] Ja.

[2:54:26] Heel kort, eenzijdige overheidshandelen toevoegen aan de algemene wet gelijke behandeling lijkt me heel belangrijk.

[2:54:33] En verder heb ik heel veel begrip voor de problemen die grote uitvoeringsorganisaties hebben.

[2:54:38] Met heel veel ambtenaren die ze moeten aansturen en heel veel mensen die ze moeten vinden dat ze moeten controleren.

[2:54:48] En ik vind ook dat we ze daarbij moeten steunen met voldoende geld en middelen en informatie.

[2:54:54] en dat we ze moeten helpen om die individuele agenten die cultuur te geven waar u het over hebt?

[2:55:10] Ik denk dat juist, ik ga een compliment geven aan de politie vandaag omdat ik vond echt dat zij

[2:55:17] de enige uitvoeringsorganisatie waren die vandaag aan tafel zaten die heel duidelijk de nieuwe norm

[2:55:23] norm uitspraken. En dat is heel erg belangrijk, want een van de redenen waarom er ook weerstand

[2:55:28] binnen organisaties is, is juist omdat die norm niet duidelijk is. Die wordt niet stellig

[2:55:33] genomen en wordt ook niet actief uitgedragen. En de wijze wat de politie dat vandaag heeft

[2:55:37] gedaan, maar ook in het nieuwe handelingskade professioneel controleren, daar is geen spel

[2:55:43] tussen te krijgen. En dan wordt de kunst om ook inderdaad echt erop te gaan toezien en

[2:55:49] mensen te gaan aanspreken op het moment dat ze zich daar niet aan houden, maar het begint

[2:55:53] bij een heel duidelijk heldere norm op papier en ook actief uitdragen en ervoor zorgdragen

[2:56:01] dat in alle proces- en beleidsdocumenten dat ook terug te lezen is, want in het eerderhandelingskader

[2:56:07] stond het er soort van, maar werden de instructies die gegeven werden aan de basisteams, ja die

[2:56:12] Die konden nog steeds... Nee, dat was gewoon etnisch profileren.

[2:56:16] Dus ja, dat.

[2:56:21] Misschien nog een kleine oproep ook aan de politiek.

[2:56:26] Op het moment dat je ziet dat de eerste voorzichtige schredenen zijn tot inzicht...

[2:56:31] is het heel erg belangrijk dat je die gelijke behandeling blijft uitdragen...

[2:56:36] en dat je niet nieuwe uitzonderingspositie op nieuwe groepen creëert.

[2:56:42] En als je dan kijkt naar coalitieakkoorden, regeerakkoorden,

[2:56:48] laat dan ook die normstelling daarin uitkomen,

[2:56:51] want het is heel moeilijk voor uitvoeringsorganisaties

[2:56:54] om normen uit te dragen op het moment dat die politiek op een andere manier wordt uitgedragen.

[2:56:59] Dus ook daar zit een verplichting.

[2:57:00] Het zit hem niet alleen bij normen, het zit hem niet alleen bij de wetgeving,

[2:57:04] maar het zit ook in het gedrag en in uitingen.

[2:57:06] Dus het is heel erg belangrijk dat je de voorzichtige schreden

[2:57:09] niet doet door nieuwe uitzonderingsposities te creëren.

[2:57:15] Dat wilde ik als laatste nog zeggen.

[2:57:17] Dank u wel, mooie slotbijdooi.

[2:57:20] Wilt u uw microfoon even uitzetten?

[2:57:21] Mevrouw Aswanus, dan gaan we galmen.

[2:57:23] We zijn aan het einde van deze rondetafel gekomen.

[2:57:26] Ik dank u hartelijk voor uw bijdrage.

[2:57:29] Natuurlijk ook de gasten uit de eerdere rondes.

[2:57:32] Volgens mij hadden we een zeer informatief en inhoudelijk rondetafel.

[2:57:37] Een goed gesprek met elkaar.

[2:57:39] We komen hier nog over te spreken in een commissiedebat vanuit Binnenlandse Zaken.

[2:57:44] We danken natuurlijk alle leden voor hun actieve bijdrage.

[2:57:48] Alle geïnteresseerden en ook ondersteuning aan de kant van de Kamer.

[2:57:52] Ik wens u allen een hele fijne middag, fijne avond.