Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Online Kinderrechten

[0:00:00] en heren en mensen die ook op de tribune zitten en mensen die live meekijken. Ik ben de heer

[0:00:06] Seder, Kamerlid namens de ChristenUnie. Ik mag vandaag dit belangrijke en mooie rondtafelsprek

[0:00:12] voorzitten. En we hebben een aantal Kamerleden, een aantal genodigden die ons gaan bijpraten

[0:00:19] over dit mooi, toch belangrijke onderwerp. Dat doen we niet alleen. We hebben een aantal

[0:00:24] Kamerleden, mevrouw Van der Werff van D66, mevrouw Drol van de VVD, de heer Valies van

[0:00:29] de PVV en de heer Siks-Dijkstra van NEC. Misschien dat er nog wat Kamerleden aansluiten.

[0:00:35] We hebben dit rondafspraak verdeeld in drie blokjes. We gaan het eerst hebben over onderzoek,

[0:00:41] daarna vanaf vier uur over de maatschappelijke gevolgen en blok drie van vijf tot zes over

[0:00:46] de veiligheid en weerbaarheid. Dat is een stevig programma, daarom wil ik dat ook ordentelijk

[0:00:52] doen. Ik wil iedereen gelegenheid geven om vragen te stellen, maar dat wil ik wel eerst

[0:00:57] naar dat ik de onderzoekers de gelegenheid geef om hun position paper, die velen gehad

[0:01:04] hebben of misschien ook niet, maar die hebben dat ingestuurd, om daar nog een korte toelichting

[0:01:08] op te geven, een aantal minuten. Dan wil ik voorstellen dat eerst de onderzoekers dat

[0:01:12] doen, dat ik daarna ook de Kamerleden de gelegenheid geef om vragen te stellen. Laten we eerst

[0:01:17] beginnen met het aantal Kamerleden. Twee vragen per keer. En dan kijken we even of daar nog

[0:01:24] sturing nodig is. We hebben in blok 1 mevrouw Ina Koning, hoofddocent

[0:01:31] ontwikkelingspedagogiek. Goedendag. We hebben dokter Regina van der Eijnen, universitair

[0:01:37] hoofddocent. Goedendag. We hebben professor Simone van der Hof, hoogleraar recht en digitale

[0:01:42] technologie. Goedendag. En van het Vrijjonkerinstituut rond van Wonderen, senior onderzoeker. Dank

[0:01:48] u wel. Ik ga beginnen met mevrouw aan mijn rechterhand, mevrouw van der Hof. Zou u

[0:01:53] u kort kunnen toelichten wat uw belangrijkste punten zijn. Ik zou de microfoon aandoen en

[0:02:07] ook uit. De reden daarvoor is dat mensen online kunnen meekijken. En dat de camera niet

[0:02:12] continu op u gericht is. Want dat gebeurt als hij aan is.

[0:02:17] Dank u wel. Voordat ik inga op een tweetal onderwerpen, die ik ook in mijn positionpaper

[0:02:23] aan de orde heb gebracht, wil ik toch nog eerst eventjes het belang van general comment

[0:02:28] 25 van het VN Kinderrechtencomité hier benadrukken. Dat is het document dat uitlegt wat de betekenis

[0:02:35] is van kinderrechten in de digitale wereld, maar ook welke verantwoordelijkheden verdragstaten,

[0:02:40] waaronder natuurlijk ook Nederland, hebben bij de bescherming van kinderrechten in de

[0:02:43] digitale wereld. Het gaat om het beschermen van kinderen tegen risico's en schade, zoals

[0:02:48] seksueel misbruik, schadelijke content, economische uitbuiting en mentale problemen. En om het

[0:02:54] bevorderen van hun vrijheden, van informatie, interactie, gedachtevorming en spel. Het vinden

[0:03:01] van een balans tussen bescherming en vrijheid is hierbij essentieel. En wat we zien is

[0:03:06] dat nu kinderrechten aan beide zijden onder druk staan.

[0:03:09] Ik richt me in verband met de tijd op twee onderwerpen uit de position paper waar we

[0:03:15] onderzoek naar doen.

[0:03:16] Onderwerp 1.

[0:03:18] Een veilige digitale wereld voor kinderen kan alleen bestaan als platforms weten wie

[0:03:24] kinderen zijn en hun diensten en functies daarop aanpassen.

[0:03:29] Zonder adequate leeftijdsverificatie is een veilige digitale omgeving voor kinderen niet

[0:03:34] mogelijk, tenzij een dienst volledig vrij is van schadelijke contacten, content en ontwerp.

[0:03:41] En dat geldt helaas voor de meerderheid niet.

[0:03:45] De vraag is niet meer of er leeftijdsverificatie moet komen, maar hoe dat moet gebeuren.

[0:03:51] In Nederland laten we zien, met een dienst, zoals bijvoorbeeld Jiffy, dat dit op een privacy-vriendelijke

[0:03:56] manier kan, waarbij alleen wordt gedeeld of iemand ouder is dan 12, 15 of 17 jaar.

[0:04:02] Het moment is nu om deze methoden te implementeren. Het is cruciaal dat deze methoden zijn gebaseerd

[0:04:10] op Europese waarden, zodat we niet afhankelijk worden van leeftijdsverificatiediensten van

[0:04:17] grote techbedrijven buiten Europa waar we weinig invloed op gaan hebben.

[0:04:26] Dan mijn tweede onderwerp. Het recht van kinderen om vrij te kunnen spelen in de digitale wereld

[0:04:32] wordt alleen gerespecteerd als zij tijdens dat spel niet economisch worden uitgebouwd.

[0:04:39] Dit zijn twee belangrijke kinderrechten die zij aan zij staan in het VN kinderrechtenverdrag.

[0:04:46] En allebei onvoldoende worden beschermd.

[0:04:50] Wat we zien is dat met de veranderende verdienmodellen in videogames, spelers steeds meer onder

[0:04:55] druk worden gezet om geld uit te geven, advertenties te bekijken en om op bepaalde tijden te spelen.

[0:05:02] Dit kan frustrerend zijn, maar het leidt ook tot oneerlijke situaties voor kinderen, zoals

[0:05:08] we recent zagen bij de flinke boete die de ACM uitdeelde voor Fortnite.

[0:05:14] Maar een boete is niet genoeg, het gaat niet snel genoeg.

[0:05:18] Daarom is het belangrijk om gamers en ouders beter te informeren over de mogelijk ongezonde

[0:05:24] en schadelijke ontwerpkeuzes die we zien in games.

[0:05:28] Dit soort ontwerp is vaak niet zichtbaar zonder de juiste informatie te hebben, en

[0:05:33] die wil je hebben voordat je een game koopt of downloadt.

[0:05:38] Hetzelfde geldt voor online platforms, met verdienmodellen die niet in alle opzichten

[0:05:43] in het belang van kinderen zijn.

[0:05:45] In het project GameCheck werken we met het Trimbles Instituut en de TU Eindhoven aan

[0:05:50] een tool die deze voorlichting op game-niveau biedt en kan worden uitgebreid naar online

[0:05:57] platforms. Een duurzame implementatie, door bijvoorbeeld een organisatie met veel ervaring

[0:06:03] zoals het NIKAM, is cruciaal. En ik verwijs dan ook graag naar hun bijdrage later vanmiddag.

[0:06:10] Tot slot. Dit alles staat natuurlijk niet los van meer algemene aanbevelingen die ik alleen

[0:06:15] heel kort zal noemen. Verstevige toezicht, zoals we zagen met de boeting voor Fortnite,

[0:06:21] verstevige toezicht op digitale diensten, stimuleer handhaving van regelgeving die we

[0:06:27] gewoon ook al hebben op allerlei onderwerpen. Stimuleer richtlijnen voor gezond gebruik van

[0:06:32] technologie. Stimuleer technologie die kinderrechten respecteert. En vanmiddag ook een mooi voorbeeld

[0:06:38] met Hackshield. En luister naar wat kinderen zelf vinden over deze digitale wereld. Zowel

[0:06:45] in positieve zin, maar ook als het gaat om de negatieve aspecten. Daar hebben zij ongelooflijk

[0:06:50] veel over te vertellen. Dank u wel.

[0:06:53] Dank u wel voor de betoog. Zou ik graag het woord willen geven aan mevrouw Koning. Voordat

[0:06:59] ik ernaartoe wil ik ook mevrouw Katman van de partij GroenLinks B4JA verwelkomen. Aan

[0:07:04] mevrouw Koning het woord. Ik zou graag Van der Hof willen vragen om de microfoon uit te

[0:07:09] roepen. Dank u wel. Ik geef het woord graag eerst even aan mijn

[0:07:12] collega, Regine van der Eijnden. Dat mag. Mevrouw van der Eijnden, u heeft

[0:07:17] het woord. Dank u wel dat ik hier ook mag spreken.

[0:07:22] Ik zou graag de komende twee minuten iets meer aandacht voor ons onderzoek willen vragen

[0:07:27] en daar wat meer over willen vertellen.

[0:07:30] Samen met mijn collega Ina Koning en ook andere collega's hebben wij de afgelopen tien jaar

[0:07:34] vrij veel onderzoek gedaan naar de impact van sociale mediagebruik, maar ook de impact

[0:07:40] van symptomen van sociale mediaverslaving op het welbevinden van jongeren en ook op hun

[0:07:45] functioneren.

[0:07:46] Dus in het ene geval gaat het over de duur van sociale mediagebruik en in het andere

[0:07:50] geval gaat het echt om symptomen van verslaafd gedrag. Zo kun je denken aan voortdurend in

[0:07:55] gedachte met sociale media bezig zijn, ook als je niet online bent. Verlies van controle,

[0:08:01] het leidt tot problemen in het gezin, het leidt tot problemen op andere levensdomeinen. Sociale

[0:08:05] media gaan eigenlijk altijd voor alle andere activiteiten. Wat we de afgelopen tien jaar

[0:08:11] eigenlijk heel duidelijk gezien hebben, is dat de grip van de sociale media-industrie

[0:08:16] op het gedrag van onze kinderen steeds groter is geworden. Dat zien we bijvoorbeeld uit

[0:08:21] internationaal onderzoek, HWSC-studie. Daar komt een heel duidelijke trend uit naar voren

[0:08:27] dat in heel Europa het percentage jongeren, wat wij problematische gebruikers noemen,

[0:08:33] dus die hebben minstens zes symptomen van verslaafd gedrag, dat dat percentage gestegen is. Als

[0:08:45] hebben wij betiteld als verslaafd aan sociale media, problematische sociale media gebruiker.

[0:08:53] En dat percentage is in de tussentijd, in 2021 en 2022, gestegen naar 7% van de meisjes.

[0:08:59] En bij 13-jarigen is het 8% van de meisjes. Waarom is dat een probleem? Zo'n stijgende

[0:09:06] trend is natuurlijk een probleem. Verslaafd gedrag impliceert ook dat het gepaard gaat

[0:09:10] met problemen. Maar dat zien we ook heel goed in ons onderzoek. Omdat we zien dat als je

[0:09:17] kijkt naar het duur van sociale media gebruik en naar de symptomen van verslaving, dan kun

[0:09:22] je bij het duur van sociale media gebruik zeggen dat het soms positieve, soms negatieve gevolgen

[0:09:28] heeft. Dat ligt aan het kind, dat ligt aan wat ze doen op sociale media. Als het gaat

[0:09:33] om die symptomen van verslaafd gedrag, dan zien we heel duidelijk en overtuigend dat

[0:09:38] dat het een negatieve spiraal in gang zet waarbij het slechter gaat met die kinderen. Hun mentale

[0:09:43] welbevinden neemt af, meer depressieve symptomen. Ze zijn minder tevreden over zichzelf, hun

[0:09:50] zelfbeeld wordt negatiever. En hun concentratie neemt ook af. Dat zien we ook in de schoolcijfers.

[0:09:59] Slaap is ook een ander domein waar we effecten op zien. Dus met andere woorden, ja, sociale

[0:10:06] media problematiek neemt toe onder jongeren. De sociale media-industrie heeft een grotere

[0:10:12] impact op onze jongeren door alle verslavende elementen die nu zijn toegevoegd of de afgelopen

[0:10:16] jaren zijn toegevoegd. Dus ik denk dat het heel belangrijk is om daar verder over in

[0:10:21] gesprek te gaan. En dat doe ik met veel plezier zometeen.

[0:10:25] Dank u wel voor uw betoog. En dan wil ik nu graag het woord aan mevrouw Koning even.

[0:10:30] Dank u wel. Ook om hier de gelegenheid te krijgen om jullie iets te vertellen over wat wij weten

[0:10:37] en zien wat heel belangrijk is. Daarom was het slim dat ik na mijn collega zou gaan,

[0:10:47] want zij heeft er heel duidelijk uitgelegd wat de risico's zijn. Dus daar ga ik verder

[0:10:53] dan niet op in. Ik ben naast universitair hoofddocent zelf ook moeder van drie dochters

[0:10:59] van negen, twaalf en veertien jaar. Mijn oudste twee zitten ook op social media. Dat is dus

[0:11:06] ontzettend lastig, dus ik ervaar dat zelf ook als moeder. Ik ben dan ook heel blij dat

[0:11:11] wij in een land leven waarin in die fysieke omgeving er allemaal veiligheidsmaatregelen

[0:11:19] ingevoerd zijn. Dus de kinderen kunnen een zwemdiploma behalen. Mijn kinderen kunnen

[0:11:25] veilig naar school fietsen, omdat er fietspaden aangelegd zijn. Deze veilige leefomgeving die

[0:11:33] we in de fysieke omgeving zien, die zien we niet in de online wereld. Die ontbreekt daar

[0:11:37] volledig. En wij laten onze kinderen daar wel los. En daarin worden dan dus die kinderen

[0:11:48] blootgesteld aan al die risico's, zoals mijn collega al toelichte. Door die verslavende

[0:11:53] elementen die in die platforms zitten, wordt de aandacht van onze kinderen zo lang mogelijk

[0:12:00] vastgehouden en wordt bepaald wat zij zien en ook wat zij niet zien.

[0:12:04] Ter illustratie onderzoek uit 2022 laat zien dat jongeren eigenlijk continu worden blootgesteld.

[0:12:11] En dit onderzoek was gefocust op TikTok, worden blootgesteld aan schadelijke video's.

[0:12:17] Zij hebben laten zien dat binnen 2,6 minuten video's over zelfmoord worden getoond aan

[0:12:24] kinderen.

[0:12:26] En elke 39 seconden schadelijke video's over lichaamsbeeld en mentaal welbevinden.

[0:12:33] Dat is wat onze kinderen te zien krijgen.

[0:12:37] En het is voor ouders eigenlijk onmogelijk om tegenwicht te bieden tegen deze krachten

[0:12:43] die op die sociale media platforms plaatsvinden.

[0:12:46] Ook voor mij is het een dagelijkse uitdaging om mijn kinderen hierin te begeleiden, in

[0:12:54] het gezonde schermgebruik. En hoe is dat dan mogelijk voor ouders die deze kennis en capaciteiten

[0:13:00] niet hebben? We kunnen er namelijk niet op vertrouwen dat die techbedrijven dit zelf

[0:13:06] allemaal gezond gaan inrichten. Zij hebben compleet andere belangen. En ja, ik ben op

[0:13:13] dat er ook wordt gewerkt aan regulering, maar voor de huidige generatie kinderen en ouders

[0:13:21] is dat te laat. Dat duurt te lang. En momenteel zijn er ontzettend veel kinderen die elke dag

[0:13:29] worden blootgesteld aan al die risico's in die online wereld. Dus richtlijnen voor gezond

[0:13:36] schermgebruik zijn daarom juist nu op korte termijn zeer relevant om die op te stellen

[0:13:44] en te delen met ouders en ook professionals die met ouders en kinderen werken. Die zouden

[0:13:51] op een heldere en toegankelijke manier gedeeld moeten worden. Wij zien uit onderzoek dat

[0:13:57] vooral preventie echt essentieel is. Zodra kinderen al gewoontegebruik ontwikkeld hebben,

[0:14:04] is het lastiger voor ouders om daar nog iets in te betekenen. Het kan wel, maar het is

[0:14:10] moeilijker. Dus preventief is het heel belangrijk dat ouders weten wat ze zouden moeten doen.

[0:14:18] Even twee voorbeelden van wat daarin opgenomen zou kunnen worden. Dat is de toegang tot sociale

[0:14:24] media platforms, dat het zo lang mogelijk wordt uitgesteld, in ieder geval tot dertien

[0:14:28] jaar als we kijken naar de opzet van de huidige sociale media-platforms. En wat we ouders

[0:14:36] ook zouden adviseren is dat als kinderen een eigen smartphone krijgen, dat ze op dat moment

[0:14:41] ook zich bewust zijn meteen van het maken van afspraken over wanneer, hoe, wie, wat

[0:14:46] en waar zij daar gebruik van mogen maken. Dus ik pleit voor actie om die bewustwording

[0:14:52] bij ouders en professionals over de kansen, want die zijn er ook. Social media, dat biedt

[0:14:57] ook ontzettend veel kansen. Maar er zijn ook risico's om ze daarover te informeren. Mijn

[0:15:05] kinderen hebben de mazzel, al vinden ze zelfs niet altijd, maar dat ik ze daarin redelijk

[0:15:11] goed kan begeleiden. Maar de veiligheid van kinderen zou niet van mazzel moeten afhangen.

[0:15:17] Elk kind heeft het recht op gezond schermgebruik. Dus daarom draag ik heel graag mijn steentje

[0:15:22] bij aan initiatieven die dat gezonde schermgebruik kunnen stimuleren en ben ik heel blij om daarover

[0:15:28] met jullie in gesprek te kunnen gaan. Dankjewel voor uw bijdrage. Ik zou graag het woord willen

[0:15:35] geven aan de heer van Wonderen. Dank u wel. Mijn achtergrond is onderzoeker polarisatie

[0:15:42] radicalisering dus ik geef ook een beetje vanuit die context zal ik zaken aan de orde.

[0:15:48] Misschien eerst even over de bredere trends van mentale gezondheid, dat was ook een expliciete

[0:15:55] vraag.

[0:15:57] Er is net al wat over gezegd, maar ook breder, ook los van sociale media, wordt er langjarige

[0:16:06] trendonderzoek uitgevoerd naar het mentale welbevinden van jongeren.

[0:16:11] Dan zie je inderdaad dat zaken als mentale problemen, depressie, eenzaamheid, toeneemt.

[0:16:16] Vooral bij meisjes.

[0:16:17] dus prestatiedruk ook. De coronaperiode is daarin een versneller, een katalysator geweest

[0:16:28] dat de problemen nog meer manifest werden, ook door het thuiszitten en soms de problematische

[0:16:34] thuis situaties van jongeren. Maar goed, het is een versneller geweest, maar niet een oorzaak

[0:16:42] de corona. Het maakt deel uit van een langjarige trend. Je ziet deels ook herstel, maar deels

[0:16:50] ook niet. Met name de jongeren die al kwetsbaar waren, die hebben eigenlijk door die coronaperiode

[0:16:55] nog steeds blijvende problemen. Ik zie het ook als ik scholen bezoek. Wat ik vaak terughoor

[0:17:01] is van ja, we hebben nooit eerder zoveel thuiszitters gehad dan voor corona. De hele coronaperiode

[0:17:13] en die lockdown heeft er ook al toe geleid dat jongeren ook steeds meer, ja, zaten thuis

[0:17:17] en ze hadden ook nog meer tijd dan anders om aan sociale media te besteden.

[0:17:24] Dat heeft ze ook wel kwetsbaar gemaakt, ook bijvoorbeeld omdat jongeren op zoek gingen

[0:17:28] naar vragen.

[0:17:31] Jongeren werden boos op de overheid ook vanwege de lockdown, allerlei dingen die ze niet mochten,

[0:17:35] niet mochten bezoeken, moesten binnenblijven.

[0:17:37] Het heeft ook tot meer wantrouwen en boosheid naar de overheid geleid.

[0:17:42] ook hier zie je wel herstel, maar het is nog niet helemaal weg. Het is wel iets wat nog

[0:17:45] resoneert. In het algemeen is het zo bij sociale media dat er zijn jaren geweest dat extremistische

[0:17:55] content een probleem was voor jongeren. Vooral dat het ook op de mainstream sociale media

[0:18:02] platforms sprake was van extremisme. Door wetgeving is dat afgenomen. Dus echt illegale

[0:18:08] verboden content op de grote sociale media-platform is minder makkelijk vindbaar. En dat is verdwenen

[0:18:16] naar kleinere platforms. En in plaats daarvan is een breif van wat wij noemen borderline

[0:18:29] content gekomen. Dat is niet illegale content op platforms, maar die wel kan aanzetten tot

[0:18:40] polarisatie. En het is ook content die minder makkelijk te herkennen is. Het gaat ook om

[0:18:48] mainstreaming van extreme content door humor, door memes, door cartoons. Het is een heel

[0:19:00] moderatoren van sociale mediaplatforms ook lastig is om te herkennen. Eigenlijk is het

[0:19:05] bijna niet te doen. En het zijn wel de jongeren die daarmee geconfronteerd worden. Wat is

[0:19:15] nou het probleem hiervan? Het feit dat er mis- en desinformatie al aanwezig is op sociale

[0:19:23] mediaplatforms. Voor een veerkrachtige democratie wil je dat mensen goed geïnformeerd zijn

[0:19:28] en ook de jongeren. Dat wordt lastig. Als je niet goed geïnformeerd bent vanwege alle

[0:19:33] desinformatie, dan is het moeilijker om een burger te zijn binnen de democratie, om daar

[0:19:40] een goede stem in te hebben. Daarbij wil ik nog overigens de invloed van algoritmes nog

[0:19:47] enigszins nuanceren. Er wordt heel vaak gezegd dat het algoritmes zijn en dat mensen worden

[0:19:52] blootgesteld aan content. Vergeet niet het handelingsperspectief van de jongere die achter

[0:19:58] zijn computer zit. Hij is wel degene die klikt op fotootjes. Vaak zijn jongeren ook wel op

[0:20:03] zoek naar content, willen meer weten van iets. Dus dat gaat ook om het mediagedrag. Ook de

[0:20:14] offline context moet je niet uitsluiten. Als het gaat om toegang tot extremistische content

[0:20:20] voor jongeren. Er worden linkjes gedeeld tussen jongeren. Jongeren komen terecht in echo-kamers.

[0:20:27] Dat zijn van die online groepen waarin mensen met elkaar, vaak afgesloten groepen, over

[0:20:33] bepaalde thema's praten. Vaak zie je daar dat de meest radicale stemmen het meest aanzien

[0:20:39] hebben in je groepen. Dat versterkt ook. Hoe zit het nou met de oplossingen? Het is

[0:20:47] lastig om iets aan die bordelijncontent te doen, juist vanwege de problemen met moderatie

[0:20:56] ook. Ik heb er niet heel veel vertrouwen in dat de platforms goed in staat zijn om die

[0:21:00] bordelijncontent aan te pakken. De DSA-wetgeving die geïmplementeerd is, de Europese wetgeving,

[0:21:07] Je hebt het over de zogeheten trusted flaggers, dat zijn experts op bepaalde thema's die vermonde

[0:21:17] extreme content bijvoorbeeld goed kunnen herkennen vanwege de symbolen. Je hebt allerlei complottheorieën

[0:21:25] waarin elementen van antisemitisme zijn te herkennen, bijvoorbeeld ook in de QAnon-complottheorieën.

[0:21:35] Maar omdat deze zaken veranderen voortdurend. Het is heel dynamisch. Een tussentvlekker

[0:21:39] zou bijvoorbeeld de Anne Frank Stichting kunnen zijn die meekijkt en die makkelijker dan de

[0:21:44] platform zelf in staat is om te zeggen, hier zitten elementen van antisemitisme in en die

[0:21:49] daar de platforms mee kunnen helpen om dat te modereren. Meer aandacht voor opiniemakers

[0:21:56] op sociale media. Je hebt allerlei opiniemakers waarvan wat minder bekend is wat een invloed

[0:22:03] is met name op polarisatie onder jongeren. Maar denk ook aan allerlei gezondheidsvloggers

[0:22:14] of die bijvoorbeeld ook de gezondheid van jongeren in gevaar kunnen brengen met foute

[0:22:18] adviezen of die jongeren allerlei cremmetjes voor op het gezicht aansmeren dat je zeven

[0:22:24] lagen over elkaar moet doen. Dat kost heel veel geld en is allemaal niet nodig. En vergeet

[0:22:29] ook niet de online subculturen die er zijn. Je hebt veel bekendere, zoals de manosfeer,

[0:22:35] je hebt wat obscuurdere subculturen, bijvoorbeeld de vikingcommunity, die op zichzelf niet extremistisch

[0:22:44] zijn. Het is ook heel leuk om daar aan deel te nemen, maar waarin ook wel extremistische

[0:22:51] randjes zitten. Dit zijn gateways naar extremisme, sommige van die subculturen. Ik zou zeggen

[0:22:56] besteed daar ook aandacht aan. En tot slot, wat ik al zei, er is ook een verantwoordelijkheid

[0:23:03] bij de gebruiker zelf, bij zijn eigen handelingen. Juist omdat je de platforms, ik heb er weinig

[0:23:11] vertrouwen in, maar probeer nog meer in te zetten op de weerbaarheid van jongeren, om

[0:23:16] zijn media wijs te maken, om nepnieuws te herkennen. Er zijn nu al lespakketten die

[0:23:21] worden ontwikkeld voor scholen, dat is al een aantal jaren. Ik zie dat dat steeds meer

[0:23:24] wordt omarmd. Alleen heb je twee, drie lessen die worden gegeven op scholen in het herkennen

[0:23:30] van nepnieuws, in trolling. Hoe herken je dat? Maar voor jongeren om dat echt te herkennen,

[0:23:36] om daar vaardig in te worden, moeten ze ook oefenen. Dat betekent dat je niet kunt volstaan

[0:23:39] met drie lessen, maar dat het echt een langer traject moet worden.

[0:23:43] Dank u wel, ook voor de toelichting. Ik heb aangegeven twee vragen. Ik denk, dat komt

[0:23:49] Ik wil het even beperken tot één vraag.

[0:23:52] Ik denk dat we een aantal rondes kunnen doen.

[0:23:54] Dat is niet uw schuld, hoor.

[0:23:56] Maar ik denk dat het wel een uitkomst daarvan is.

[0:24:00] Ik wil graag vragen aan het Kamerlid of u een vraag wilt stellen, kort en brombondig.

[0:24:05] En ook aan wie u de vraag wilt stellen.

[0:24:06] Dan doen we dat per tweetal.

[0:24:09] En dan geef ik het over aan degene die de beantwoording kan doen.

[0:24:12] Mevrouw Van der Werff.

[0:24:14] Dank u wel, voorzitter. Ook dank aan onze gasten die vandaag zijn gekomen voor een zeer interessant

[0:24:21] onderwerp dat mij na aan het hart ligt. Voor wie wil weten hoe ik daar persoonlijk over

[0:24:27] denk, we hadden vanochtend in het AD een opinieartikel en dat heette Stop de schermtijdepidemie.

[0:24:33] Het sluit zeer aan bij een aantal van de punten die u heeft gemaakt zojuist. Het is even kiezen

[0:24:39] met de vragen. En dan zou ik het graag over de leeftijdsgrens willen hebben. Daar heeft

[0:24:44] u in de stukken ook een aantal dingen over genoemd. Het gaat niet alleen om minder schermgebruik,

[0:24:51] maar vooral hoe ga je daarmee om op het moment dat het in beeld komt. Ja, wat zal ik dan

[0:24:59] eens vragen? Wie zou er eigenlijk verantwoordelijk moeten zijn voor die leeftijdsgrens op social

[0:25:07] media en wie zou dat moeten handhaven? Hoe zou je dat in de praktijk kunnen doen?

[0:25:12] Aan wie stelt u die vraag?

[0:25:15] Ik denk dat mevrouw Van der Hof een interessante is daarover. Die heeft daar een mening over,

[0:25:24] dat heb ik in ieder geval begrepen. De reden dat ik even twijfelde was, is omdat mevrouw

[0:25:29] Koning een indringend pleidooi deed over die richtlijnen zijn nu nodig en wat ga je daar

[0:25:33] dan meedoen. Misschien kunt u daar beide even op reageren.

[0:25:36] Dankjewel. Mevrouw Drol.

[0:25:39] Dank u wel, voorzitter. En dank aan de gasten. Zeer boeiend en belangrijk onderwerp naar

[0:25:46] mijn mening. Mevrouw Van der Hof had het over een aantal aanbevelingen. Dat ging onder andere

[0:25:52] over dat de regelgeving moet zijn en dat die ook gehandhaafd moet worden. Daar ben ik het

[0:25:57] helemaal mee eens. Anders heeft de hele regelgeving geen zin. Maar u gaf ook iets aan dat de huidige

[0:26:03] regelgeving eigenlijk ook al niet wordt gehandhaafd. Of dat daar in ieder geval nog winst te behalen

[0:26:10] valt. Kunt u aangeven waarom er op dit moment nog niet genoeg mee gedaan wordt?

[0:26:17] Dank u wel. Het zijn twee vragen. Dan koppel ik me even terug. Het is misschien goed om

[0:26:20] mevrouw Koning de eerste antwoord te laten over de vraag van mevrouw Van der Werf. En

[0:26:29] En dan mevrouw Van der Hof, tenzij u nog als een korte aanvulling heeft, de vraag van mevrouw

[0:26:33] Van der Hof te nemen.

[0:26:34] Mevrouw Koning.

[0:26:36] Ja, dank u wel.

[0:26:37] Wij hebben dat inderdaad opgenomen over die leeftijdsgrenzen en de leeftijdsverificatie

[0:26:43] en het sluit inderdaad heel mooi aan bij mijn buurvrouw.

[0:26:49] Wie is daar verantwoordelijk voor?

[0:26:53] Wat wij zien is dat de techbedrijven het niet zelf goed gaan neerzetten, want die hebben

[0:26:58] daar helemaal geen belang bij.

[0:27:00] We zien nu dat 30 tot 40 procent van de kinderen toegang hebben tot TikTok, terwijl er een

[0:27:07] formele toegang is vanaf 13 jaar.

[0:27:11] Dus wat er op dit moment is, dat helpt niet.

[0:27:15] Daar kunnen kinderen heel makkelijk omheen komen.

[0:27:17] En ik vind het sowieso, het hele gezonde schermgebruik, een gedeelde verantwoordelijkheid.

[0:27:23] Waar de overheid een rol in speelt, waar ouders een rol in spelen, waar jongeren zelf een

[0:27:27] in spelen, waar scholen ook heel belangrijk in zijn. Maar ik denk dat het heel belangrijk

[0:27:35] is om te beginnen met wet- en regelgeving. Dus het beleid opstellen rondom wat vinden

[0:27:40] wij wenselijk, in ieder geval. En datzelfde is bijvoorbeeld gedaan als we het hebben over

[0:27:46] andere risico's voor kinderen, zoals het beginnen met drinken. Natuurlijk zijn er kinderen die

[0:27:51] onder de leeftijd van 18 jaar alcohol kopen, maar de boodschap is heel duidelijk, vanaf

[0:27:55] 18 jaar, dan mag dat. Dat is het beleid. Dus ik vind dat het moet beginnen met beleid en

[0:28:02] vervolgens is het zeker, ligt een grote verantwoordelijkheid ook bij ouders om dat na te leven en de kinderen

[0:28:08] zelf natuurlijk.

[0:28:11] Dank u wel, mevrouw Van Hoffen.

[0:28:13] Toch eerst nog even over die vraag van wie moet dat handhaven, die leeftijd? Want daar

[0:28:18] bestaan wat onduidelijkheden of in ieder geval daar worden wat incorrecte dingen ook over

[0:28:23] De wet zegt nergens dat je pas vanaf 13 jaar toegang mag hebben tot social media. Dat zeggen

[0:28:30] de contracten van de online platforms. Of de algemene voorwaarden, moet ik zeggen, van

[0:28:36] de online platforms waar je een account opent. Dat betekent dus ook dat zij die regels stellen,

[0:28:42] dan moeten zij ook die regels handhaven. Het frame is nu altijd kinderen liegen, maar het

[0:28:51] vreemd zou moeten zijn. Wij doen het helemaal niet goed als online platforms, want die kinderen

[0:28:54] hebben allemaal toegang onder de dertien jaar. Dat betekent dus dat er een heleboel kinderen

[0:29:01] onder de dertien jaar op die online platforms zijn onbeschermd. Die worden niet beschermd

[0:29:06] door die platforms, want die platforms zeggen jullie horen hier niet te zijn. Dus om dat

[0:29:10] even recht te stellen. Die regel moet worden gehandhaafd door de platform zelf, want zij

[0:29:14] stellen die regel. Dan over de handhaving van de wetgever. Dat is een heel ingewikkelde.

[0:29:24] Ik refereerde al even aan die boete van ACM voor Fortnite. Wat je ziet is dat dat ongelofelijk

[0:29:33] veel tijd kost. Dat betekent dat zij onderzoek moeten gaan doen bij Fortnite. Zij hebben

[0:29:37] daar ook bevoegdheden toe om daar naartoe te gaan, om daar informatie op te halen. Hetzelfde

[0:29:42] geldt voor een rechtszaak. Ik ben zelf betrokken bij een rechtszaak van een stichting massenschade

[0:29:49] en consument tegen TikTok. Dat duurt gewoon jaren. En ondertussen zitten die kinderen

[0:29:54] natuurlijk wel allemaal op die online platforms of die spelen die games. Dus dat is gewoon

[0:29:59] niet 1, 2, 3 veranderd. Er is ook nog wel een moeilijkheid dat we er niet altijd zelf

[0:30:06] over gaan als Nederland. Dat zie je natuurlijk bij de AVG, maar je ziet het ook bij de audiovisuele

[0:30:11] Media Diensten richtlijn, die gaat over schadelijke content. En dan zie je dat de bevoegdheid

[0:30:17] daar ligt, zeker als het gaat om die online platforms in Ierland, omdat daar die platforms

[0:30:22] gevestigd zijn. Dus we hebben daar hier ongelooflijk veel expertise op, zeker als het gaat over

[0:30:28] schadelijke content. Maar daar kunnen we weinig mee doen, omdat we er niet over gaan. Wat

[0:30:33] dat betreft is de Digital Services Act een verbetering, ten aanzien van die grote platforms

[0:30:38] in ieder geval omdat daar de bevoegdheid op Europees niveau ligt. Dan zie je dat het meteen

[0:30:45] over heel Europa gaat. Dus ja, daar liggen gewoon een aantal moeilijkheden qua handhaving.

[0:30:52] En omdat jij ook al terecht zei, mijn buurvrouw aan rechterzijde, van ja, die kinderen zitten

[0:30:58] nu allemaal op die platforms en die maken dat dagelijks mee, dan ga je toch zoeken naar

[0:31:03] andere oplossingen. En die zitten dan veel meer ook in de voorlichting, in de preventiesfeer,

[0:31:10] omdat we daar namelijk wel iets kunnen doen op dit moment. En ook heel erg snel. En dat

[0:31:16] is, denk ik, wel echt heel hard nodig. En wat ik dan heel mooi vind aan een project

[0:31:22] als GameCheck, is dat je echt gaat laten zien wat die games, maar wat ik zei, je kan het

[0:31:28] ook bij platforms doen, je gaat echt laten zien, op een hele visuele manier, met alle

[0:31:33] informatie die ouders en kinderen nodig hebben om het ook te begrijpen, ga je in een oogopslag

[0:31:38] laten zien wat er gebeurt in die games en waar je dus wellicht ook op zou willen letten

[0:31:44] en ook een besluit over zou willen nemen. Misschien beter dat je dit nog niet speelt

[0:31:50] of dat je dit speelt als je wat ouder bent. Dus dat is denk ik mooi aan zoiets, om dat

[0:31:59] in ieder geval heel toegankelijk te maken. Maar het is niet alleen de oplossing. Die

[0:32:02] handhaving blijft ook heel erg belangrijk, omdat we die regels nu eenmaal hebben. En

[0:32:07] die kunnen ook heel veel gaan betekenen.

[0:32:10] Dank u wel voor uw antwoord. Ik wil door naar de heer Fliessen. Zou u uw vraag kunnen formuleren

[0:32:14] en ook aan wie u deze wilt stellen?

[0:32:17] Voorzitter, dank u allemaal voor uw bijdrage. Het was een heldig bijdrage. Ik heb eigenlijk

[0:32:21] niet zo heel veel vragen. De enige vraag die ik zou kunnen bedenken is waar u de grootste

[0:32:26] kans om een aansluiting te vinden bij die DSA. U geeft aan dat de DSA niet echt de gode

[0:32:32] sleutel is in het debat. Maar waar ziet u de gouden kans? En dat zou ik aan allemaal willen

[0:32:38] vragen. U moet toch één kiezen, anders kies ik één voor u. Dan zou ik het toch vragen

[0:32:45] aan de dames van der Einde en mevrouw Koning, aangezien zij samen ook de paper hebben opgesteld.

[0:32:52] Dan leg ik hem bij mevrouw Van der Eijlen neer.

[0:32:58] Dank voorzitter en ook dank aan iedereen voor hun komst en voor een heldere verhaal over het opsturen van hun position paper.

[0:33:06] Ik had eigenlijk een vraag aan mevrouw Van der Hof, specifiek als het gaat om gedragsontwerp in videospellen.

[0:33:11] In uw inleiding ging u voornamelijk in op het economische component, kinderen die economisch uitgebuit worden.

[0:33:17] Maar in uw position paper wordt duidelijk dat u breder kijkt naar andere nadelige effecten

[0:33:21] aangaande verslaving en dergelijke.

[0:33:23] Nou, is er al wel enige wetgeving rondom microtransacties, wat wel en niet mag, maar eigenlijk op andere

[0:33:31] effecten, van videogameontwerp, verslaving, tijdsverspilling, misleidend gedrag, manipulatie.

[0:33:38] Ik heb het idee dat daar nog een groot gat zit op het gebied van wetgeving.

[0:33:41] Heeft u enige aanbevelingen voor ons als wetgever wat wij daarmee zouden kunnen doen?

[0:33:47] Dat ga ik eerst voorstellen aan mevrouw Van Eijden.

[0:33:51] Dank je wel.

[0:33:54] Wat moet er nu vooral gebeuren?

[0:33:56] Ik denk, en dat schrijven we ook in onze position paper,

[0:34:00] dus ik weet in ieder geval dat mijn buurvrouw het daarmee eens is,

[0:34:03] ik denk dat we heel erg in moeten zetten op ouders meer richtlijnen geven,

[0:34:07] meer adviseren op het gebied van smartphone-gebruik,

[0:34:10] sociale media-gebruik, gamen, eigenlijk het hele pakket.

[0:34:13] En ik denk dat dat essentieel is,

[0:34:16] Omdat heel veel ouders echt geen idee hebben hoe ze er nu mee om moeten gaan.

[0:34:20] Zeker niet meer op het moment dat hun kind al een smartphone heeft die de hele dag bij

[0:34:24] zich draagt.

[0:34:25] Dan wordt het voor ouders echt heel erg lastig om nog in te grijpen en iets te doen.

[0:34:29] En wat wij in ons onderzoek eigenlijk heel duidelijk zien, is dat het sowieso allemaal

[0:34:35] te vroeg nu plaatsvindt.

[0:34:37] Goed om te weten ook dat 40% van de ouders spijt heeft van het feit dat ze hun kind al

[0:34:42] zo vroeg een smartphone hebben gegeven. Dus daar hebben ouders echt hulp bij nodig. Er

[0:34:49] is nu een generatie die loopt rond met die telefoon, die zijn soms 8, 9 jaar. En dat ding

[0:34:53] is er de hele dag. En ook TikTok en andere sociale media. Dus ik denk dat we ernaartoe

[0:34:58] moeten dat ouders, de nieuwe generatie ouders, want dit is een moeilijkere groep, maar dat

[0:35:04] die hulp krijgen en richtlijnen krijgen waardoor ze zich bewust zijn van het feit dat die telefoon

[0:35:10] dat dat echt een digitome kwestie is. Daarna gaat het een eigen leven leiden. Dat punt kun

[0:35:16] je uitstellen. Er zijn ook steeds meer ouders die dat proberen uit te stellen. Dus dat lijkt

[0:35:24] me belangrijk, smartphone aan zich. Ik denk dat er een advies moet komen van de overheid

[0:35:28] dat het misschien een goede leeftijd is als ze dertien zijn. Maar voor die tijd, mocht

[0:35:33] er dan een smartphone zijn, die ze niet op hun lijf dragen, maar die gewoon in de huiskamer

[0:35:38] waar ook ouders over kunnen beschikken. Een telefoon die niet van hen zelf is. Op het

[0:35:42] moment dat ze een telefoon cadeau hebben gekregen, dan vinden ze ook dat ze het recht hebben

[0:35:47] om daar gebruik van te maken. Het helpt als het een gezamenlijk product is. Voorkomen

[0:35:53] dat er een telefoon in de slaapkamer is als kinderen naar bed toe gaan. Dat soort hele

[0:35:59] concrete richtlijnen. Ik denk dat de overheid daar samen met experts en begeleid door onderzoek

[0:36:07] Ik denk ook dat de overheid daar een belangrijke functie heeft.

[0:36:14] Korte aanvulling, graag.

[0:36:16] Kunt u de microfoon uitzetten, mevrouw Van Einde?

[0:36:22] Ter aanvulling nog op wat mijn collega hier aangeeft,

[0:36:25] is ook dat de afstemming met scholen ontzettend belangrijk is.

[0:36:30] Als kinderen de hele dag op school wel achter een scherm zitten,

[0:36:34] dan kun je als ouder alsnog je stinkende best doen.

[0:36:37] in. Maar dan weegt dat niet op weer. Dus die afstemming met scholen en hoe scholen digitale

[0:36:46] media inzetten, digitale leermethoden, dat is ook ontzettend relevant.

[0:36:53] Dankjewel. Ter beantwoording van de vraag van de heer Dijkstra. Volgens mij was het van

[0:36:56] Rolf.

[0:36:59] Dank u wel, voorzitter. Ja, ik werd ook nog heel even getriggerd door de heer Verlies.

[0:37:07] Ik heb grote hoop dat de DSA wel degelijk iets gaat doen.

[0:37:14] We zien dat de Europese Commissie bezig is met het onderzoeken van de audits die de grote

[0:37:20] platform hebben ingediend.

[0:37:23] Kinderrechten zijn daarbij een prioriteit, er zijn ook al een aantal onderzoeken gestart.

[0:37:27] Alleen een probleem, en dan kom ik bij de vraag van de heer Dijkstra, is dat die specifieke

[0:37:35] bepalingen gaan over online platforms.

[0:37:38] Games zijn vaak, niet altijd trouwens, sommige gamebedrijven vallen er wel onder, maar de

[0:37:43] meeste gamebedrijven zijn vaak geen online platforms, dus die regels zijn niet op hen

[0:37:47] van toepassing.

[0:37:48] Het klopt dat we voor een deel bepaalde problemen kunnen aanpakken, als het gaat om microtransacties

[0:37:55] en dergelijke. Dan gaat het met name om het consumentenrecht, oneerlijke handelspraktijken.

[0:38:01] Maar dat is consumentenrecht, dus het gaat vaak ook over economische schade die consumenten

[0:38:06] hebben gelopen. En niet zozeer om andere soorten schade. Die kan zitten in verslaving, in allerlei

[0:38:16] conflicten die in een gezin ontstaan. Er zijn allerlei problemen die we zien rondom gedragsontwerp

[0:38:22] van games. Maar je kunt dat ook uitbreiden naar platforms.

[0:38:28] Waar Nederland, voor een deel hebben we de bevoegdheid in Europa liggen, met de DSA

[0:38:33] onder andere, daar heb ik grote hoop op dat daar toch wat gaat gebeuren. Waar we in Nederland

[0:38:38] natuurlijk wel bevoegdheid hebben is als het gaat over gokken. Deze Kamer heeft het ook

[0:38:43] al eens gehad over lootboxes. Ga eens kijken of je daar wat kunt betekenen.

[0:38:51] Zowieso op gokkengelijkend ontwerp. Wat we zien, niet alleen in games, maar ook online

[0:38:59] platforms. Daar ligt een psychologisch principe aan ten grondslag. Endless scrolls zijn ook

[0:39:07] gebaseerd op dat gokprincipe. De manier waarop je psychologie werkt als het gaat om gokken.

[0:39:16] Niet alleen lootboxen, maar ga breder kijken naar allerlei op gokken lijkende ontwerpprincipes

[0:39:24] die we zien.

[0:39:26] Daar ligt ook een bevoegdheid voor Nederland, omdat die ook raken aan de gezondheid van

[0:39:31] kinderen.

[0:39:33] Dus kan dat een haakje zijn, zowel gokken als gezondheid kunnen haakjes zijn, denk ik,

[0:39:40] om wellicht met regelgeving toch iets te betekenen als Nederlandse overheid.

[0:39:49] Dank u wel voor de toelichting. Mevrouw Katman.

[0:39:53] Dank dat u er bent voor dit belangrijke onderwerp.

[0:39:55] Ik heb een vraag aan mevrouw Koning, want u triggerde mij.

[0:39:59] Volgens mij hebben we een beetje hetzelfde.

[0:40:01] Dat je professioneel hier heel veel mee bezig bent...

[0:40:03] en ook juist met concrete regels handvatten.

[0:40:06] Hoe kunnen we het beter doen? En als ouder je heel erg machteloos voelt.

[0:40:09] Ik heb zelf drie jongens, precies in de leeftijd van elf, dertien en veertien.

[0:40:14] Nou, ga er maar aan staan.

[0:40:17] En ik ben het helemaal met u eens dat we meer richtlijnen en snel.

[0:40:20] Want alle ouders die ik hierover spreek, aan alle tafels, die zeggen...

[0:40:23] eigenlijk is mijn kind al verloren, maar laten we dan voor alle andere ouders...

[0:40:27] en alle kinderen die wat jonger zijn, nu snel handelen.

[0:40:30] En dan wordt er vaak gezegd, laten we dan de richtlijn geven...

[0:40:33] eigenlijk net als Kijkwijzer doet met films.

[0:40:35] geen smartphone tot 12, dan van 12 tot 14 een startphone, dus dat is er eentje die misschien

[0:40:42] niet van jezelf is, en als die het wel is zitten er maar hele beperkte applicaties op waarmee

[0:40:47] je misschien alleen contact kan leggen met vrienden en vriendinnetjes. Dan ga je vanaf

[0:40:52] 14 misschien wel naar die smartphone, maar dan kan die nog niet alles, en social media

[0:40:55] vanaf 16. En dan wil ik eigenlijk concreet aan u vragen wat u van deze richtlijnen zou

[0:41:01] vinden. Dat is eigenlijk ook wat de GroenLinkspartij van de Arbeid zo snel mogelijk zou willen

[0:41:05] doen.

[0:41:07] JOURNALIST GESPREKSLEIDER

[0:41:07] Dank u wel.

[0:41:09] Het is over levensverificatie gegaan. Ik vind het ook heel belangrijk dat het ook handhaafbaar

[0:41:14] is. Daarom heb ik de motie ingediend voor wettelijke kaders, zodat het niet om te zeilen

[0:41:20] valt.

[0:41:20] U had het over Ivi. Ik ben benieuwd wat u vindt van andere initiatieven die momenteel spelen.

[0:41:30] IEDIN is er ook, maar ik vraag me af of u nog andere alternatieven kent, mede ook omdat

[0:41:38] het kabinet heeft aangegeven te worstelen hoe je de afweging tussen privacy en deugdelijke

[0:41:46] leeftijdsverificatie goed kan laten landen. Ik ben benieuwd of u nog andere beelden heeft

[0:41:50] om het kabinet daarbij op weg te helpen. Ten aanzien van de vraag van mevrouw Katman

[0:41:56] Dan zou ik het woord willen geven aan mevrouw Koning.

[0:41:59] Dank u wel. En heel herkenbaar.

[0:42:02] Ik denk dat dat al een hele mooie oplossing zou zijn.

[0:42:07] De huidige opzet van de platforms zoals ze nu zijn...

[0:42:12] met alle verslavende elementen die erin zitten...

[0:42:14] mijn buurvrouw noemde net ook al het endless scrolling, bijvoorbeeld...

[0:42:18] dat is schadelijk.

[0:42:20] Tegelijkertijd zitten er ook elementen in sociale media...

[0:42:23] die heel veel kansen bieden voor kinderen en jongeren. Dus contact te maken met hun

[0:42:30] vrienden waar dan ook ter wereld is iets wat ze heel veel kan brengen. Dus de huidige opzet

[0:42:38] van de sociale media platform zeg ik inderdaad, uitstellen, geen toegang geven, zolang ze

[0:42:44] zo blijven. Eigenlijk zou ik liever zien dat er kindvriendelijke sociale media platforms

[0:42:50] komen. En dat je ze wel al iets eerder toegang kan geven tot die platforms onder begeleiding

[0:42:56] van ouders. En in gesprek tussen ouders en kinderen. Maar dan moeten we wel zeker weten

[0:43:03] dat die verslavende elementen daar niet in zitten en dat die leeftijdsverificatie op

[0:43:09] orde is. Want anders heeft dat geen zin.

[0:43:15] Dank u wel. Mevrouw van der Hof.

[0:43:16] Ja, dank u wel voor uw vraag, voorzitter. We hebben een aantal jaar geleden ook een groot

[0:43:24] project gedaan voor de Europese Commissie. Dat heet de EU-consent. En als spin-off daarvan

[0:43:30] wordt ook gewerkt aan leeftijdsverificatie die gedecentraliseerd, dus on-device en privacy-vriendelijk

[0:43:39] zou moeten gaan werken. Wat je ziet, net als Jiffy, is dat er projecten ontstaan waarin

[0:43:49] dat gebeurt. Een belangrijke ontwikkeling die goed in de gaten moet worden gehouden

[0:43:55] is de ontwikkeling van de EU Digital Wallet. Door de Europese Commissie wordt het in gang

[0:44:03] gezette met de digital identity regulation project om Europa breed, EU breed, te zorgen

[0:44:12] dat er de mogelijkheid komt om digitale identiteiten, maar dus ook credentials zoals leeftijd te

[0:44:21] kunnen gebruiken voor dit soort toepassingen. Daar is nog wel wat kritiek op, omdat blijkbaar

[0:44:30] maar in de technische details zit nog wel iets dat dat dan niet per se anonieme credentials

[0:44:36] zijn. En dat is eigenlijk ook mijn oproep in de position paper. Ga daar ook als Kamer en

[0:44:42] als Nederlandse overheid heel goed op letten dat dat dus volledig privacyvriendelijk wordt

[0:44:49] vormgegeven. Want het is ook wel een heel controversieel onderwerp. En ik merk ook

[0:44:54] dat ik daar zelf ook wel in ben gaan bewegen. En ook nu wel van mening ben dat we het voor

[0:44:59] kinderen echt niet veilig kunnen maken zonder die leeftijdsverificatie. En wettelijk gezien

[0:45:03] moet die dus ook gewoon soms. Dus de devil is wel in de detail als het gaat om hoe je

[0:45:09] dat technisch gaat vormgeven. En dat is best lastig. Dus daar moet je echt bovenop zitten,

[0:45:16] want het is echt ongelooflijk belangrijk dat je dat gaat doen op een manier dat je ook

[0:45:21] online nog wel anoniem kunt blijven. Dat is gewoon een heel belangrijk recht dat we hebben,

[0:45:26] En ook belangrijk, denk ik, voor onze rechtsstaat dat dat zo blijft.

[0:45:31] Dank u wel.

[0:45:32] We hebben nog een kwartier.

[0:45:33] Ik denk dat als wij onze vragen kort en bondig formuleren, dat we allemaal nog een ronde

[0:45:37] kunnen.

[0:45:38] Dan begin ik bij mevrouw Van der Werf.

[0:45:41] Dank u wel, voorzitter.

[0:45:42] Dan gaat mijn laatste vraag naar mevrouw Van den Einde.

[0:45:45] Ik wil alleen nog even snel tegen meneer Van Wonderen zeggen dat wij begin december,

[0:45:49] en misschien vindt u dat interessant, een rondetafelgesprek organiseren over misleidende

[0:45:53] influencers.

[0:45:54] Het gaat precies over het schemergebied dat u net benoemde.

[0:45:59] Het is niet heel duidelijk dat het niet mag van de wet, maar het is wel onzin.

[0:46:03] En heel veel kinderen tuinen erin.

[0:46:05] Dus wellicht kunt u daar nog een bijdrage aan leveren.

[0:46:07] Ik wou nog even doorgaan op wat mevrouw Van den Eijnden aangaf...

[0:46:11] over die richtlijnen voor ouders die zo nodig zijn.

[0:46:15] Dat zegt eigenlijk iedereen.

[0:46:18] Welke rol zou je daar als overheid bij moeten en kunnen spelen?

[0:46:22] Je zou een landelijke publiekscampagne kunnen doen, maar moet dat alleen van ons komen?

[0:46:29] Of moeten de techbedrijven en de mensen die deze producten verkopen...

[0:46:33] daar ook niet gewoon aan meedoen?

[0:46:36] Dus we kunnen ouders en scholen betrekken...

[0:46:39] maar zou je dan niet naar een soort bijsluiter of iets dergelijks moeten bij een mobieltje?

[0:46:45] Ik noem nu maar even wat, maar ik ben wel benieuwd naar welke vormen je dat zou kunnen doen...

[0:46:49] zodat het niet alleen maar een vrijblijvend overheidsadvies blijft.

[0:46:55] Dank u wel. En mevrouw Drol?

[0:46:59] Dank u wel voor deze... Sorry? O, zes, sorry.

[0:47:02] We halen ze even per twee op.

[0:47:04] Dank u wel, voorzitter.

[0:47:05] Ik wou nog heel even terugkomen op de vraag die ik net gesteld heb.

[0:47:09] Want ik vind het heel fijn om te horen dat er zo ingezet wordt op preventie.

[0:47:14] En dan zeker over de ouders.

[0:47:15] Ik denk dat daar heel veel winst te halen valt.

[0:47:20] Maar als het gaat over die regelgeving, dan hoor ik u ook zeggen dat het heel ingewikkeld

[0:47:25] is gemaakt.

[0:47:27] Volgens mij moet de regelgeving goed uitvoerbaar zijn en ook goed handhaafbaar.

[0:47:33] Kunt u daar misschien iets over zeggen wat zou helpen?

[0:47:36] We zitten hier aan tafel en zijn we ook bemachtigd om daar iets mee te doen, ook als het Europees

[0:47:42] ook daar kunnen we iets mee doen, omdat ik ervan overtuigd ben dat als je regelgeving

[0:47:46] doet, het moet wel goed handhaafbaar zijn. En als je dat niet doet, dan heeft die hele

[0:47:51] regelgeving geen zin. Het is ingewikkeld, ingewikkeld, duurt lang. En dat schiet dan

[0:47:57] zijn doel voorbij.

[0:48:01] Volgens mij was mevrouw Van der Einde aan de uur. En aan wie stelde u uw vraag, mevrouw

[0:48:05] Drol?

[0:48:11] Bedankt voor deze boeiende vraag. Persoonlijk denk ik dat het wel degelijk echt iets van

[0:48:17] van de overheid moet zijn en dat je daar in alle gevallen de industrie, zeker zoals die

[0:48:21] zich nu aftekent, dat je die erbuiten moet houden. Als je met een niks campagne komt

[0:48:29] of een campagne om het roken aan banden te leggen of alcoholgebruik onder jongeren te

[0:48:38] verminderen, dan wil je daar niet de alcoholindustrie bij hebben. En we hebben daar ervaring mee.

[0:48:44] Vrouw Van Rer, met een korte, verduidelijke opmerking.

[0:48:50] Ik bedoelde eigenlijk meer op welke manier zou je de industrie kunnen verplichten om

[0:48:55] mee te doen aan je boodschap.

[0:48:57] Want ik zou ook niet met onderhandelaars van drank en rookwaren willen gaan kijken hoe

[0:49:03] kunnen we nou een leuke poster maken en jullie toch nog wat verkopen.

[0:49:06] Maar ik zou wel willen kijken naar hoe kan je nou afdwingen dat die boodschap niet vrijblijvend

[0:49:12] een spotje is dat we twee maanden in een bushokje zien.

[0:49:18] Ik denk dat dat dus via een ander kanaal zou gaan, waar sommige collega's beter in zitten

[0:49:24] dan ik, maar dat het veel meer gaat over regelgeving. Zoals bijvoorbeeld het voorstel van collega

[0:49:34] van Sparretak binnen de Europese Unie om de industrie wel te dwingen om een aantal stappen

[0:49:42] te nemen. Wat natuurlijk dan vanzelf verandert de omgeving en dat zal effect hebben. Maar

[0:49:49] ik denk dat de boodschap en de hulp aan ouders en de adviezen echt van de overheid moeten

[0:49:54] komen. Anders zou het vertrouwen van ouders ergens in het geling kunnen zijn. Dus ik denk

[0:50:01] dat het twee verschillende kanalen zijn. Je hebt wat de overheid doet aan adviezen, richtlijnen

[0:50:06] voor ouders. En je hebt de wettenregelgeving die gemaakt wordt om de industrie een haltoe

[0:50:14] te roepen. Ik denk dat daar verschillende dingen zijn.

[0:50:25] U raakt wel precies op de frustratie die bij mij leeft. Een aantal jaar geleden, toen de

[0:50:37] er zijn wel wat dingen veranderd, maar veel te weinig. Een van de dingen die daar een

[0:50:43] rol speelt, denk ik, is dat het soms best wel heel complexe juridische vraagstukken met

[0:50:51] complexe technologieën zijn. En als je er dan ook nog een kinderrechtenaspect in probeert

[0:50:58] te krijgen, dan is ook niet altijd die expertise daar meteen. Dat merk ik ook in mijn eigen

[0:51:04] vakgebied, mijn eigen onderzoeksgebied. Je hebt de rechten en technologie juristen en

[0:51:10] je hebt de kinderrechten juristen. Met een aantal mensen proberen we dat wat meer bij

[0:51:16] mekaar te brengen. Misschien is het iets om met toezichthouders over in gesprek te gaan,

[0:51:22] waar natuurlijk ongelofelijk veel expertise zit en ook de wil om wat te doen, om te kijken

[0:51:26] of je daar veel meer ook vanuit een heel specifiek kinderrechtenperspectief met die wetgeving

[0:51:33] aan de gang kunt gaan. Zowel op het gebied van het consumentenrecht als op het gebied van

[0:51:38] het gegevensbeschermingsrecht. Ook al zijn op dat laatste gebied natuurlijk die bevoegdheden

[0:51:43] liggen wat lastiger, maar dat wil niet zeggen dat je wellicht helemaal niks kunt doen.

[0:51:49] Nogmaals, ik heb wel hoop dat we onder de DSA wat meer beweging gaan krijgen, omdat het

[0:51:54] nu vanuit de Europese Commissie wordt aangepakt. Dus Europa breed. Wat we bij de eerste toezichthouder

[0:52:00] zagen, de privacytoezichthouders, dat ze toch iets te veel mee bewogen met het bedrijfsleven,

[0:52:05] met de grote bedrijven. Daar wat te weinig kritisch op waren, zijn ook soms teruggefloten

[0:52:10] door de nationale toezichthouders, waaronder ook onze eigen AP. Maar met de DSA, nu dat

[0:52:17] naar een Europees niveau wordt getrokken, heb ik wel hoop. En ook de prioriteit ligt op

[0:52:21] kinderrechten. Dus dat is ook iets wat echt nieuw is. Heb ik de hoop, en moeten we denk

[0:52:28] ook even afwachten wat daar nu gaat gebeuren. Maar ik heb wel de hoop dat we daar duidelijkere

[0:52:36] regels krijgen voor die platforms. Waardoor ze echt wel wat dingen moeten gaan veranderen.

[0:52:42] En niet alleen de dingen die niet raken aan hun verdienmodel, maar ook de dingen die juist

[0:52:46] wel raken aan hun verdienmodel. Zoals die endless scroll, zoals die recommender system.

[0:52:50] waar kinderen ook letterlijk bang voor zijn. Omdat ze door te swipen weten ze dat ze bepaalde

[0:52:58] content kunnen gaan zien die ze liever niet zien als ze echt te lang ergens blijven hangen.

[0:53:04] Dus ja, laten we dat even afwachten. Maar ik ben het met u eens dat er veel meer zou moeten

[0:53:10] gebeuren.

[0:53:11] Dank u wel voor die opmerking. We hebben nog zes minuten. En dat gaan we alleen redden

[0:53:16] als we een beklopte vraag en een beklopte antwoorden vanaf nu gaan geven. Dus de heer

[0:53:19] U gaat het goede voorbeeld geven.

[0:53:23] Ik zal mijn best doen.

[0:53:24] Dezelfde vraag aan de heer van Wonderen.

[0:53:27] De overige kandidaten.

[0:53:28] De manco in de DSA.

[0:53:30] En de kans daarbij om dat op te pakken.

[0:53:34] Ik had een vraag aan de heer van Wonderen.

[0:53:36] Hij stelde terecht dat sinds de coronatijd jongeren meer naar binnen gekeerd zijn.

[0:53:41] In echo kamers terechtkomen.

[0:53:43] Wat ik graag van hem zou willen horen.

[0:53:45] Heeft hij ideeën?

[0:53:46] Hoe halen we ze er weer uit?

[0:53:47] Dank u wel. Twee vragen voor de heer Van Wonderen.

[0:53:58] De kansen vanuit de DSI... Ik ben geen jurist, dus wat ik ervan weet is dat die trusserd

[0:54:07] vlekkers, die noemde ik al, door externe deskundigen mee te laten kijken met de platforms, met

[0:54:13] de moderatoren. Ik denk dat daar wel kansen zitten.

[0:54:22] Je hebt natuurlijk ook de kleinere, de aandacht richt zich wel heel erg op de grote sociale

[0:54:32] mediaplatforms. En dat zijn ook enorm moeilijk grijpbare instituten. Maar je hebt ook kleine

[0:54:41] platformen, ook lokale Nederlandse platforms. Daar waar het gesprek ook in de DSA heel veel

[0:54:51] vanuit Brussel wordt gevoerd met grote platforms. Dan heb je de Nederlandse overheid met kleinere

[0:54:56] platforms met een sterkere positie en meer mogelijkheden. En dan de vraag over hoe je

[0:55:05] haalt die mensen uit de echo-kamers. Dat is natuurlijk wel een weerbastig fenomeen. Eigenlijk

[0:55:13] noemen we dat ook een flitseradicalisering als het gaat om echo-kamers. Dat betekent

[0:55:20] eigenlijk dat daar vroeger als jongeren zich aansloten bij een extremistisch gedachtegoed

[0:55:30] en dat ook gingen uitdragen, bijvoorbeeld in de vorm van kleding of dat je zwarte boots

[0:55:34] aantrok met witte fetes, dan straalde heel wat uit. Dat betekende ook dat je er eigenlijk

[0:55:37] voor koos om de schepen achter je te verbranden. Dus vriendschappen, ouders, die zagen dat

[0:55:44] allemaal. Met die echokamers kan het gebeuren dat jongeren die op zoek gaan omdat ze geïnteresseerd

[0:55:51] zijn of met gelijkgestemd in contact willen komen, dan kunnen ze in zo'n echokamer terechtkomen.

[0:56:01] Vaak is de dynamiek van zo'n echokamer radicaliseren. Degene die de grootste mond heeft en het meest

[0:56:06] extreem is, heeft de meeste aanzien in zo'n groep. Maar ook gebeurt er vaak heel weinig.

[0:56:11] Dus dan wordt er vaak gezegd van wij gaan op pad, wij gaan de straat op, wij gaan naar

[0:56:16] die en die en die, weet ik veel, of van ik heb wapens, of een negen van de tien keer

[0:56:25] of een negen negen van de honderd keer blijkt dat gewoon grootspraak te zijn.

[0:56:29] Dus heel veel jongeren die gaan er ook weer uit, ook om een vriendin te krijgen of werk

[0:56:32] of wat ook.

[0:56:34] Dus die ideeën radicaliseren weer heel snel.

[0:56:37] dan heb je eigenlijk een moment van radicalisering gehad. Wat weinig mensen hebben opgemerkt,

[0:56:45] van die jongeren is er niet anders aan gedragen. Niet naar vrienden, niet naar z'n ouders.

[0:56:50] Hij is er ook weer zelf terug. En dat is hoe het meestal gaat. Dus, maar goed. Ja, dat

[0:56:59] is wat ik erover kan zeggen. Verder kun je er ook niet, denk ik, niet zo heel veel extern

[0:57:03] aan doen.

[0:57:04] Dank u wel voor uw opmerking.

[0:57:06] Ik zie af van mijn vraag.

[0:57:07] Mevrouw Katman, als u een korte vraag heeft, kan u die kort beantwoorden en dan kunnen

[0:57:11] we het blok afsluiten.

[0:57:12] Ik heb een vraag voor mevrouw Van der Eijden.

[0:57:14] U zei dat 8 procent van de 13-jarige meisjes is verslaafd aan sociale media met alle gevolgen

[0:57:20] van dien.

[0:57:21] Kunt u een korte schets geven hoe het dan eigenlijk gaat met de andere 92 procent?

[0:57:26] Is dat allemaal puik in orde of niet?

[0:57:30] Mevrouw Van der Eijden.

[0:57:32] Nee, helaas. Het is voor die 92 procent niet allemaal puik, 13-jarige meisjes. We zien

[0:57:39] namelijk dat op het moment dat jongeren al 2, 3, 4 symptomen van dat verslaafde gebruik

[0:57:47] ontwikkelen, dat het ook al effecten heeft op welbevinden, concentratie. Het is een lineair

[0:57:56] verband. En die groep van zes of meer symptomen, dat is echt de harde groep. Daar weten we

[0:58:01] zeker van dat het echt niet goed met ze gaat. Maar we zien eigenlijk bij de groep die veel

[0:58:04] minder symptomen heeft. En dat is ongeveer een derde van alle jongeren die toch al twee

[0:58:10] of meer symptomen heeft, waarvan we kunnen zien dat het al impact heeft op welbevinden,

[0:58:16] concentratie, slaap, school. Dus ja, helaas is dat wat ik hier aan toe kan voegen.

[0:58:25] Dank u wel. Het is een voor vier. We zijn keurig op tijd afgerond. Ik wil onze gasten bedanken

[0:58:32] voor uw tijd. Ik wil even een korte wisselpauze van vijf minuten. Dan kan het volgende blok

[0:58:38] plaatsnemen over de maatschappelijke gevolgen. Dank u wel namens de Kamerleden en de commissie.

[0:58:43] We beginnen over vijf minuten aan het volgende blok. Dank u.

[1:03:06] Ik zou ieder graag willen verzoeken om weer plaats te nemen, zodat wij kunnen beginnen

[1:03:11] aan het tweede blok van dit rondetafelgesprek.

[1:03:35] Dag mensen. Ik ga door en dat komt omdat wij een vol blok hebben.

[1:03:41] We willen iedereen gewoon de ruimte geven om zijn of haar zegje te kunnen doen.

[1:03:46] Wij hebben een nieuw blokje en het blokje heet maatschappelijke gevolgen.

[1:03:51] Daar hebben wij een aantal mensen uit maatschappelijk veld uitgenodigd.

[1:03:55] We hebben de heer Scholtes, de heer Loch, mevrouw Kalverboer.

[1:03:59] Wij hebben de heer Kruip en de heer Pijpers.

[1:04:05] Allemaal vanuit de eigen expertise, zullen ze zichzelf kort voorstellen.

[1:04:09] Ik wil opnieuw voorstellen dat u twee minuten de tijd krijgt om zichzelf voor te stellen.

[1:04:14] Ik zal wat strenger zijn omdat we meer mensen hebben...

[1:04:16] en daar ook ruimte willen bieden om wat interacties te hebben.

[1:04:20] Dus of u twee minuten de position paper kunt voorstellen en die kunt toelichten...

[1:04:25] dan gaat opnieuw de Kamer de gelegenheid geven om vragen te stellen.

[1:04:28] Ik wil graag beginnen bij de heer Scholtens.

[1:04:33] Dank u wel, geachte leden van de Kamer, geachte voorzitters.

[1:04:36] Dank voor de uitnodiging en wat goed ook dat u de tijd neemt om over dit belangrijke onderwerp te spreken.

[1:04:41] Ik ben Alexander Scholts, wethouder ICT, Digitale Stad en Zorg en Gezondheid van de gemeente Amsterdam.

[1:04:48] Ik spreek hier namens het college van Amsterdam, maar ik probeer ook vooral te spreken namens de jongeren die wij dagelijks eigenlijk spreken,

[1:04:54] ook over deze problematiek op scholen, in jongerencentra, rondom sportactiviteit.

[1:04:58] Dus ik probeer ook te spreken namens Amina, Emma en Givenchy, waar ik zo op terug zal komen.

[1:05:04] Want ze vertelt zelf ook over de negatieve gevolgen die er zijn in de online leefwereld.

[1:05:09] Sextortion, social media verslaving, concentratieproblemen, online aangejaagde ruzies en pesten, impact

[1:05:17] op de mentale gezondheid, et cetera.

[1:05:19] En mijn boodschap is absoluut niet keer jongeren af van de wereld met verboden, want social

[1:05:24] media kan ook veel goeds brengen.

[1:05:26] Maar mijn boodschap is wel, we moeten jongeren beter beschermen in de online wereld, we moeten

[1:05:30] ze beter voorbereiden op die online wereld en we moeten beter weten wat er speelt in

[1:05:35] die online wereld.

[1:05:36] En ik vraag daarbij uw speciale aandacht voor de positie en de emancipatie van jonge vrouwen

[1:05:39] en meisjes.

[1:05:41] Want zij worden het vaakst slachtoffer van online shamen en pesten en in extreemere gevallen

[1:05:46] ook van sekstortion.

[1:05:48] Laat ik een voorbeeld geven.

[1:05:49] Ik sprak laatst Amina op een school en ze vertelde toen ze veertien was ging er een

[1:05:53] naaktfoto van haar rond.

[1:05:54] Dat was overigens een nepfoto, maar die foto ging toch rond, belandde op Telegram met haar

[1:05:59] telefoonnummer.

[1:06:00] En dat begon met vrienden die naar haar stuurden, wat had ik van jou niet verwacht dat je dit

[1:06:04] zou doen.

[1:06:05] Ze kreeg bedreigingen, ze werd afgeperst, ze werd iedere keer online gebeld.

[1:06:11] Ze was dus exposed, haar vader kwam erachter en pakte haar telefoon een halfjaar af.

[1:06:16] En een halfjaar was ze die zomervakantie geïsoleerd, voelde zich heel alleen.

[1:06:20] Dat had een enorme impact op haar.

[1:06:22] Ze is hem nu jaren verder.

[1:06:24] Ze is er bovenop, ze durft het nu over te vertellen, maar het heeft een grote impact

[1:06:28] op haar gehad.

[1:06:29] En wat had ze graag gewild?

[1:06:30] Dat ze toen hulp had weten te vinden en dat iemand haar had kunnen helpen om ook die foto

[1:06:35] in één keer van het internet af te halen.

[1:06:38] En zo zijn er vele verhalen over wat meisjes als Amina meemaken, maar ook over Emma en

[1:06:42] Givenchy, die vertellen dat ze tot diep in de nacht op de telefoon zitten, eindeloos

[1:06:45] scrollend, de volgende ochtend moe met concentratieproblemen, want ja, die verslavende algoritmen werken,

[1:06:51] zoals ze zijn beoogd om te werken, verslavend.

[1:06:55] Beste Kamerleden, ik zet af.

[1:06:56] Onder het mond van vrijheid

[1:06:58] laten we onze kinderen en jongeren eigenlijk vogelvrij in die online wereld.

[1:07:02] En wat mij betreft is het hoge tijd om daar wat aan te doen.

[1:07:04] Dank u wel.

[1:07:05] Dank u wel.

[1:07:06] Dan wil ik het woord geven aan de heer Loch.

[1:07:09] Dank u wel.

[1:07:10] Allereerst hartelijk dank voor deze uitnodiging.

[1:07:12] Wij zijn vanuit iTeachers ontzettend trots

[1:07:14] om hier de scholen te mogen vertegenwoordigen

[1:07:17] waarop wij onze lessen geven.

[1:07:20] Eerst even een kleine toelichting op iTeachers.

[1:07:22] Wij zijn een bedrijf, ja, maar wel een met een heel groot maatschappelijk hart.

[1:07:27] Wij hebben een hele sterke behoefte om maatschappelijk bij te dragen.

[1:07:30] Wij doen in de kern een stukje ontzorging voor scholen op het gebied van digitale geletterdheid.

[1:07:37] En digitaal burgerschap, die moet ik niet vergeten.

[1:07:39] Wij hebben hiervoor een doorlopende leerlijn gecreëerd.

[1:07:43] Die begint eigenlijk al bij groep 1 van de basisschool...

[1:07:45] en die eindigt aan het einde van het voortstoot onderwijs op 6 HAVO of VWO, om het zo maar even te zeggen.

[1:07:52] Wij zijn met onze lessen vooral te vinden in wijken waarvanuit de gemeente zorgen over

[1:07:56] bestaan en daarnaast ook in het speciaal onderwijs. En in aanvulling daarop werken wij heel veel

[1:08:01] samen met welzijnsorganisaties. Ik vind het erg jammer dat Team Toekomst vandaag niet

[1:08:05] aanwezig is. Daar werken wij heel nauw mee samen en die kunnen hier ook heel veel nuttige

[1:08:09] dingen over zeggen. Maar daarnaast doen wij ook heel veel met verschillende stichtingen,

[1:08:15] bibliotheken Rotterdam, om niet alleen jongeren, maar ook ouderen te helpen in deze digitale

[1:08:19] samenleving. Wij zijn ervan overtuigd dat digitale geletterdheid essentieel is voor

[1:08:25] jongeren om niet alleen nu, maar zeker ook straks succesvol deel te nemen aan de moderne

[1:08:30] samenleving. In een wereld die steeds verder digitaliseert hebben zij die vaardigheden

[1:08:35] gewoon nodig om kritisch om te gaan met de technologie, veilig te navigeren op het internet

[1:08:40] en uiteindelijk ook de kansen die deze digitalisering biedt te benutten. Wij zijn van mening dat

[1:08:46] dat zij zonder deze kennis achterstanden op gaan lopen en daardoor ook op school maar

[1:08:51] ook later in de maatschappij en op de arbeidsmarkt kansen gaan missen.

[1:08:56] Dus om jongeren een best mogelijke start te geven in het leven moeten wij ervoor zorgen

[1:09:00] dat digitale geletterdheid een vast onderdeel is van hun onderwijs en dat de lessen die

[1:09:05] daarin gegeven worden, worden gegeven door goed opgeleide leraren die op de hoogte zijn

[1:09:10] van de laatste ontwikkelingen op het gebied van digitale geletterdheid en daarbij geldt

[1:09:15] uiteraard dat jongeren, ongeacht hun achtergrond, toegang moeten hebben tot de juiste middelen

[1:09:20] en begeleiding. Dank u wel.

[1:09:24] Dank u wel. Ik wil graag het woord geven aan mevrouw Kalterboer.

[1:09:28] Dank u wel. En ook dank voor deze uitnodiging. Ik kom hier niet alleen iets vertellen, maar

[1:09:36] ik zat hier het afgelopen uur ook om te horen wat er allemaal aan kennis en expertise is.

[1:09:42] Dat is heel erg veel.

[1:09:45] Misschien is mijn beginboodschap ook, of misschien ook wel vooral,

[1:09:51] zorg ervoor dat die kennis en expertise bij elkaar gebracht wordt.

[1:09:55] Daar heeft naar mijn idee de overheid ook een rol in.

[1:09:58] Want het is veel te gefragmenteerd.

[1:10:01] Het kinderrechtenverdrag en het kinderrechtenkader

[1:10:04] kan daar een hele goede richtlijn in zijn.

[1:10:08] Dus leg het langs de toets van het kinderrechtenkader.

[1:10:11] en zorg dat de overheid dit zelf ook beschikbaar stelt.

[1:10:17] Dan waar ik het ook over wilde hebben.

[1:10:20] Bij de Kinder om het Man komen vrijwel geen klachten en signalen binnen...

[1:10:25] over rechten van kinderen in hun online wereld, in hun online leven.

[1:10:30] Misschien is dat wat tekenend, want de meeste klachten en de meeste signalen...

[1:10:35] die de Kinder om het Man binnenkrijgt, worden ingediend en verwoord door volwassenen.

[1:10:41] En volwassenen hebben te weinig zicht op het online leven van kinderen. Dat geldt voor

[1:10:47] ouders, dat geldt voor heel veel scholen en dat geldt ook voor de overheid. En dat geldt

[1:10:55] voor online kinderrechten waartegen volwassenen kinderen moeten beschermen, maar dat geldt

[1:11:03] ook voor de kansen die online biedt en waar volwassenen kinderen in moeten ondersteunen.

[1:11:10] We hadden het vorige blok over de leeftijd. Ik was afgelopen maandag voor de jeugddag

[1:11:20] en daar zat ik in een sessie met jonge kinderen die allemaal online actief waren. Ik was zo

[1:11:27] onder de indruk van een elfjarig jongetje die vertelde dat hij een podcast had over

[1:11:34] beroepen. Want ieder kind kiest het beroep van zijn eigen ouders, zegt hij. Maar kinderen

[1:11:39] kunnen veel meer. Dus als we het dan hebben over de kansen. Er zijn enorm veel kansen

[1:11:45] en kinderen en jongeren benoemen ook heel erg die kansen. En zeggen ook wel dat volwassenen

[1:11:52] altijd tegen verandering en vooruitgang zijn. Vroeger was er het schoolkraaitje en de leraar

[1:11:59] was bang dat hij overbodig werd door het schoolkrijtje. Dus het verhaal van kinderen, dat die positief

[1:12:07] zijn, dat vind ik ook een heel belangrijk verhaal, want het gaat ook om kinderrechten.

[1:12:13] En kinderrechten zit ook in dat aspect. Ik vroeg kinderen wat de boodschap vandaag zou

[1:12:23] moeten zijn als ik hier zat. En ze waren wel unaniem over het volgende. Volwassenen gaan

[1:12:29] met kinderen in gesprek. En de kinderen zeiden, de kennis ligt bij ons en we hebben bescherming

[1:12:35] nodig. En daar waar jullie ons offline in de wereld beschermen, kunnen wij online onze

[1:12:42] gang gaan. En verder, de online wereld biedt enorm veel kansen, maar is daarmee ook een

[1:12:50] bron van kansenongelijkheid en zorgt ervoor dat alle kinderen van die kansen kunnen profiteren.

[1:12:57] De kinderombudsman doet zelf twee onderzoeken op dit moment naar het online leven van kinderen.

[1:13:06] En daarmee komt deze bijeenkomst voor mij een beetje te vroeg.

[1:13:12] We doen een onderzoek naar de kwaliteit van leven van kinderen offline.

[1:13:19] En we hebben kinderen dezelfde of vergelijkbare vragen gesteld over online.

[1:13:24] We willen kijken of we daar verschillen zien bij verschillende groepen kinderen, bijvoorbeeld

[1:13:29] kinderen in armoede, kinderen die zeggen dat hun ouders op een vervelende manier zijn gescheiden

[1:13:33] of kinderen die met geweld thuis opgroeien.

[1:13:37] Omdat we het idee hebben dat, zoals ik al zei, er is heel veel kennis, maar kennis is

[1:13:42] gefragmenteerd en wij willen van kinderen weten hoe zij de kwaliteit van hun leven ervaren.

[1:13:49] Er zijn meer dan 2000 kinderen die de lijst hebben ingevuld en we komen op 20 november

[1:13:55] de dag voor de rechten van het kind komen we ermee.

[1:13:58] En verder doen we op dit moment een verkenning.

[1:14:04] We doen een verkenning over toezicht op naleving van kinderrechten.

[1:14:09] Want wij hebben het idee dat het enorm versnipperd is en daarmee heel erg ontoegankelijk en dat

[1:14:16] er te weinig regie op is.

[1:14:19] Dank u wel. Dan hebben wij de heer Kruip, die wil u vragen om u op het oog te houden.

[1:14:26] Dank u wel, voorzitter. Dank ook voor de uitnodiging. En ook dank aan de Commissie Digitale Zaken

[1:14:33] voor het agenderen van dit belangrijke onderwerp. Ik hoop dat wij daar ook met de SCB in de digitale

[1:14:39] wereld een beetje aan hebben kunnen bijdragen. De online wereld heeft grote voordelen. Dat

[1:14:46] hebben we net al gehoord vanuit meerdere deelnemers in dit gesprek. Het is een plek om vrienden

[1:14:54] te maken, te spelen en ook kennis op te doen en te leren. Maar juist ook in die online wereld

[1:15:01] worden kinderrechten verwaarloosd en ook zelfs geschonden. En dat terwijl het V1 kinderrechten

[1:15:06] verdrag onverkort van toepassing is, ook in die digitale wereld. Er is veel aandacht voor

[1:15:14] Maar vaardigheden, vaardigheden bij kinderen, bij ouders, om op een gezonde manier te navigeren

[1:15:20] in die online wereld, door middel van digitale geletterdheid, media-wijsheid, dat is ook

[1:15:26] nog steeds een hele wereld te winnen.

[1:15:29] Maar we denken ook dat er meer aandacht moet zijn voor die wet- en regelgeving en het handhaven

[1:15:35] daarvan.

[1:15:36] Met vaardigheden alleen voorkom je niet dat kinderen en jongeren ook in aanraking komen

[1:15:41] met verslavende algoritme, met schadelijke content, ongepaste reclame, gokelementen in

[1:15:47] games, criminele activiteiten. Kinderen hebben het recht op online bescherming. En dat kunnen

[1:15:56] we niet laten afhangen van sociale media en platforms in de tech-industrie. Daar moeten

[1:16:00] we echt een sterkere, vettere gegeven van nodig hebben, vooral ook een goede naleving

[1:16:05] We doen in onze position paper een drietal aanbevelingen. Ten eerste, de digitale diensten

[1:16:13] en in bijzonder games en sociale media platforms moeten in de basis veilig zijn en bijdragen

[1:16:19] aan de ontwikkeling van kinderen. Dat is waar we met elkaar naartoe moeten. En een manier

[1:16:24] om dat te waarborgen zit natuurlijk in hoe een digitale dienst is ontworpen. En een manier

[1:16:31] om dat verder te kunnen toetsen en te kunnen stroomlijnen, is het verplichten van een kinderrechten

[1:16:37] impact assessment, wat we kunnen plotten onder de Digital Services Act, zodat we inderdaad

[1:16:43] verzorgen dat de techindustrie en digitale aanbieders zich ook steeds moeten verhouden

[1:16:48] tot dat kinderrechtsverdrag en daar ook verantwoording over moeten afleggen. Dus wij zouden graag

[1:16:54] zien dat Nederland daar stevig voor gaat pleiten in Brussel. En net als mijn buurvrouw

[1:17:03] net al zei, die ook in het vorige gesprek al terugkwam, is dat toezicht heel erg belangrijk.

[1:17:09] En we zien inderdaad ook dat dat toezicht nog versnipperd is bij verschillende organisaties.

[1:17:16] En ik denk dat het belangrijk is om meer in samenhang te kijken hoe we dat beter kunnen

[1:17:19] organiseren. Zodat ook duidelijk is waar welke verantwoordelijkheid ligt. Want ja, die toezicht

[1:17:27] is natuurlijk heel belangrijk om die wet- en regelgeving ook in de praktijk te laten werken.

[1:17:32] En tot slot het luisteren naar kinderen. Ik denk dat de sessie hiervoor was u ook aanwezig

[1:17:38] bij een bijeenkomst met jongeren, wat we samen met jullie hebben georganiseerd. Het is heel

[1:17:43] belangrijk om naar de ervaring van kinderen en jongeren te luisteren. Zij weten wat er

[1:17:47] online gebeurt. We moeten weten wat hun behoeftes zijn, wensen en verwachtingen, om ook te kunnen

[1:17:53] kijken hoe we hun goed kunnen ondersteunen daarin.

[1:18:01] Ik ga ook naar een afronding. Er is veel werk te verzetten en een hele wereld te winnen

[1:18:07] om de online wereld veiliger, eerlijker, kansrijker en ook leuker te maken voor kinderen. En daarin

[1:18:12] draagt iedereen een verantwoordelijkheid. Jongere kinderen, ouders, leerkrachten, bedrijven,

[1:18:17] maar in de laatste plaats ook zeker de overheid om de juiste voorwaarden te stellen.

[1:18:22] Dank u wel.

[1:18:23] Dank u wel.

[1:18:23] En tenslotte zou ik de heer Pijpers het woorden willen geven.

[1:18:27] Ja, ook ik spreek mijn dank uit voor de uitdaging.

[1:18:29] Fijn dat ik hier mag zijn.

[1:18:32] Ik ben Remco Pijpers van Stichting Kennisnet, de publieke ICT-partner voor het onderwijs.

[1:18:35] En het ligt voor de hand dat ik hier een vurig pleidooi hou voor digitale geletterdheid.

[1:18:39] Maar anderen hebben dat al gedaan en het spreekt vanzelf dat we daar alle prioriteiten aan stellen.

[1:18:45] Ik wil vooral één punt uit onze position paper halen, en dat is de zorgen die er zijn

[1:18:51] met betrekking tot kinderrechten in de digitale onderwijsomgeving. En als voorbeeld het goede

[1:18:57] werk dat verricht is bij het instellen van smartphoneregels op de scholen in het primair

[1:19:03] en voortgezet onderwijs. Die zijn het resultaat van gesprekken binnen de onderwijssector,

[1:19:07] met ook de betrokkenheid van ouders en leerlingen, onder lichte dwang door te dreigen met een

[1:19:12] verbod van de voormalige onderwijsminister Dennis Wiersma. Begrenzing is een goede zaak,

[1:19:20] maar we moeten wel bedenken dat begrenzing in de digitale wereld nieuwe vraagstukken

[1:19:25] in de hand werkt. Het strengere smartphonebeleid zorgt weliswaar voor meer rust, maar verplaatst

[1:19:31] de digitale afleiding naar de laptops. En om deze afleiding te beperken gebruiken steeds

[1:19:35] meer scholen monitorsoftware om leerlingen te controleren. Marktpartijen spelen daarop

[1:19:40] in met nieuwe toepassingen en algoritmische functionaliteiten om te controleren. Begrijpelijker

[1:19:46] wijs kan dat door de leerling als buiten gewoon onprettig worden ervaren. De aandacht voor

[1:19:51] schermvrij opvoeden is broodnodig, de aandacht voor het tegengaan van verslaving, sociale

[1:19:56] mediaverslaving evenzeer, maar net zo goed is er bijleidsmatige aandacht nodig voor de

[1:20:01] nieuwe ethische en pedagogische dilemma's, de kwesties die kinderrechten raken die we

[1:20:04] misschien nog niet zien. En die zich nu al in volle hevigheid aandienen nu AI-systemen

[1:20:09] in het onderwijs worden geïntegreerd. Zo zijn er al lesprogramma's waarmee leerlingen een

[1:20:13] groep zes prompt leren, terwijl Unesco scholen juist heeft opgeroepen om kinderen tot dertien

[1:20:18] niet met generatieve AI te laten werken. De smartphone-casus is in onze ogen een goed

[1:20:24] voorbeeld, vooral een goed voorbeeld vanwege de gesloten rijen. De pedagogische urgentie

[1:20:29] die leraren, ouders, schoolleiders, bestuurders, maar ook leerlingen voelen en ze handelen

[1:20:34] ernaar. Je zou het kunnen zeggen dat er sprake is van een digitale twilight zone, ook in

[1:20:39] in het onderwijs waarin kinderrechten worden bevorderd, maar het geschonden tegelijkertijd.

[1:20:45] En dan vragen ze hoe we daar met elkaar een goede dialoog over voeren. Soms is het nodig

[1:20:49] harde regels in te stellen en daar misschien ook toe te zien. Tegelijkertijd weten we dat

[1:20:53] zeker nu ook met de AI die nieuwe kwesties zich al aandienen. En wellicht dat we over

[1:20:58] vier jaar hier weer zitten. En hoe voorkomen we dat? En dan denk ik met name aan de smartphone

[1:21:02] kwesties waar vier, vijf jaar geleden diverse scholen al over klaagden. Ouders overklaagden,

[1:21:07] Maar we zitten hier rijkelijk laat terecht te praten over deze kwesties.

[1:21:13] Dus ons pleidooi, onze aanbeveling is vooral gericht aan landelijke, maar ook de lokale

[1:21:19] overheid om die dialoog te stimuleren.

[1:21:22] En de smartphone dossier is een prachtig voorbeeld van hoe dat kan, maar ik wijs ook naar mijn

[1:21:29] collega aan deze tafel, aan de linkerhand, de wethouder van Amsterdam, die voor digitale

[1:21:34] innovatie de tada-principes hebben opgesteld als uitgangspunt voor eerlijke digitale innovatie,

[1:21:41] gebaseerd op publieke waarde. Als we het hebben over het helpen van kinderen in de digitale

[1:21:46] wereld, is dat een gezamenlijk verantwoordelijkheid van in onze context onderwijs en ouders. En

[1:21:51] het zou mooi zijn als we niet alleen campagnes opzetten, maar ook een manier vinden om blijvend

[1:21:56] die dialoog te voeren over de kwesties die we nog niet zien misschien.

[1:21:59] Dank u wel. Dan wil ik de vloer openen voor de Kamerleden. Ik hoop dat wij in ieder twee

[1:22:07] vragen kunnen laten stellen, maar het ligt ook aan de Kamerleden zelf. Mevrouw Van der

[1:22:11] Erfgaard wil het goed voorgeven hoe een bondige vraag eruitziet.

[1:22:15] Ik voel de druk, voorzitter. Dan ga ik meteen naar de heer Pijpers. U gaf net al aan dat

[1:22:23] smartphoneverbod is in de kern een goede zaak, maar daar zitten ook allerlei haken en ogen

[1:22:27] die je nu ziet gebeuren. Het gaat ook om gesloten rijden. Ik was benieuwd of u vindt dat die

[1:22:37] regelgeving of de leidraad nu goed is vormgegeven, of dat u vindt dat we zouden verder moeten

[1:22:43] gaan of dat we dat op een andere manier zouden moeten voortzetten.

[1:22:47] Dank u wel. En mevrouw Drols. Dank u wel, voorzitter. Dank voor uw komst

[1:22:58] Ik had een vraag aan de heer Loch. Mooi initiatief, mooi dat hij dit doet, maar ik hoor u zeggen

[1:23:05] dat het pijnpunt ook al bij de ouders zit. Ik hoor u zeggen dat het vooral gaat over

[1:23:14] speciaal onderwijs en over wijken in achterstandswijken. Als je een beetje de trends ziet, dat werd

[1:23:22] net ook in de vorige ronde gezegd, kinderen die ongelukkig zijn na coronatijd, de hoeveelheid

[1:23:27] kinderen die nu bij jeugdzorg terechtkomen, dan gaat het helemaal niet meer alleen maar

[1:23:31] over de kinderen in de achterstandswijk, maar ook over kinderen die in de categorie verwend

[1:23:35] verwaarloosd, dus veel materialistische dingen krijgen, maar eigenlijk de liefde van thuis

[1:23:40] missen. Hoe kijkt u ernaar? Bent u het met me eens dat we daar veel breder naar moeten

[1:23:46] kijken dan alleen de achterstandswijken en het speciaal onderwijs?

[1:23:52] Dank u wel. We beginnen met de antwoord op de vraag van mevrouw Van der Werff.

[1:23:58] Het is een beetje een gewetensvraag, want ik heb het ministerie en de schoolbestuur geadviseerd

[1:24:02] over deze leidraad. Het gaat misschien wat ver om te zeggen dat die niet voldoet. Ik

[1:24:08] denk dat het... Als de camera's uitstaan, dan wil ik wel wat meer zeggen. Ik denk dat

[1:24:15] de leidraad voor een groot deel heel goed is. Het moet ook nog steeds in de praktijk

[1:24:20] blijken hoe we daar goed invulling aan kunnen geven. Ik denk wel dat het goed is om het

[1:24:27] gesprek te blijven voeren over hoe die leidraad op termijn kan worden uitgebreid als we het

[1:24:31] hebben over meer systemen die voor niet alleen afleiding zorgen, maar ook voor een schending

[1:24:37] van kinderrechten zorgen. Dus een perspectief meer gericht op online kinderrechten, meer

[1:24:45] een ethisch perspectief, een pedagogisch perspectief op alle systemen waarmee scholen werken die

[1:24:50] die niet alleen naar scholen aangaan, maar ook ouders. Stiptoe voor systemen als magister,

[1:24:58] waar ouders bij kunnen, met soms ook alle problemen van dien. Dus ik pleit vooral voor

[1:25:03] het voortzetten van de Leidraad, maar wellicht op termijn dat we het wat uitgebreider kunnen

[1:25:07] maken met meer oog voor pedagogische aspecten en de kinderrechten. Is dat voldoen?

[1:25:13] Dank u wel. Mevrouw Trouw, u had uw vraag gesteld aan meneer Loch.

[1:25:22] Bedankt voor die vraag. Wij zijn vanuit it-teachers met name actief in wijken waar dus zorgen

[1:25:29] om bestaan vanuit de gemeente. Dat is niet een bewuste keuze, dat is gewoon zo gelopen.

[1:25:35] Daarnaast hebben wij gemerkt dat onze manier van lesgeven, vooral heel praktijk gericht,

[1:25:39] dat dat met name heel erg aanslaat bij het speciaal onderwijs.

[1:25:43] Dus het speciaal onderwijs heeft ons omarmd...

[1:25:46] en eigenlijk dermate onder druk gezet...

[1:25:50] dat wij eigenlijk alleen nog maar daar actief zijn...

[1:25:52] in combinatie met dan een aantal scholen ook in de wat mindere wijken, om het zo te zeggen.

[1:25:57] Maar in onze position paper geven wij ook aan...

[1:25:59] dat het met name die wijken zijn waar zorgen over bestaan.

[1:26:02] Maar ik ben het absoluut met u eens dat dit een veel breder probleem is.

[1:26:05] Dit speelt gewoon landelijk.

[1:26:07] En ik durf niet te zeggen dat het op elke school zo is...

[1:26:09] Ik ken een hoop scholen die digitale geletterdheid toch al wel aardig ingebed hebben, maar tegelijkertijd

[1:26:16] ken ik nog veel meer scholen die een beetje achter de feiten aan hobbelen, een willekeurig

[1:26:21] pakket afnemen ergens onder de mond van zo, nu hebben wij digitale geletterdheid gedaan.

[1:26:27] En dat stukje, dat is wat wij zien en dat is dan ook wat wij in onze position paper hebben

[1:26:34] opgenomen.

[1:26:35] Maar nogmaals, ik ben het met u eens.

[1:26:36] Dank u wel.

[1:26:37] Dan gaan we naar de heer Vlisse.

[1:26:40] VRAAG DE HEER VLISSE.

[1:26:41] Dank voor het woord.

[1:26:42] Een vraag aan de heer Kruip.

[1:26:45] Met betrekking tot de DSA.

[1:26:47] De DSA vertelt dat de grote online platforms en zoekmachines

[1:26:51] dat ze moeten modereren op basis van wet en regelgeving.

[1:26:55] Ongemeen aan vaderwaarde.

[1:26:56] Enorme binnen de nationale omgeving van dat land,

[1:26:59] waar toezicht wordt gehouden.

[1:27:02] Daarbij ook de geldende verdragen.

[1:27:04] Onder andere het verdrag voor het recht van het kind.

[1:27:07] Dit ook kenbaar moeten maken in de beleving.

[1:27:08] en daarop moeten handhaven. Dus daar wordt dan op gemodereerd.

[1:27:11] Ze moeten ook rapporteren over de voortgang daarover.

[1:27:13] En dat zit nu dus al in die DSA, iets minder specifiek benoemd.

[1:27:17] Maar waar zit volgens u nog de crux als u dat onvoldoende naar voren vindt komen?

[1:27:24] Dank u wel. En de heer Siksextra.

[1:27:29] Dank, voorzitter. Ik heb een vraag aan de heer Schottes.

[1:27:32] Ook in het positionpaper wat hij ons heeft toegestuurd.

[1:27:35] Daar stelt hij, of doet hij de volgende aanbeveling...

[1:27:39] genonge kinderen, een smartphonevrije jeugd en stimuleert verantwoord gebruik van sociale

[1:27:43] media en smartphones. Dat verwoordt hij ook heel duidelijk als een normstelling, niet zozeer

[1:27:49] een wettelijke handhaving, maar echt een normstelling. En waar ik wel benieuwd naar was, het is natuurlijk

[1:27:55] niet alleen een individuele keuze van leerlingen, omdat er ook een sociaal component bij zit.

[1:27:59] Als je de enige leerling bent op een school, dan kan je snel sociaal geïsoleerd worden.

[1:28:03] Heeft hij ook ideeën van hoe je zo'n normstelling teweeg kan brengen op een manier dat het ook

[1:28:08] ook gedragen wordt door grote groepen.

[1:28:12] Dank u wel. We beginnen met de heer Kruip,

[1:28:15] voor de beantwoorden van de vraag van de heer Felice.

[1:28:17] Dank u wel voor deze vraag.

[1:28:20] Ik denk dat het een toevoeging is op de DSA.

[1:28:26] Het zorgt ervoor dat de techbedrijven en sociale mediaplatforms

[1:28:31] veel gerichter in beeld moeten brengen hoe de wisselwerking is

[1:28:37] tussen hun product en die kinderrechten. En ook dat veel duidelijker in beeld wordt gebracht

[1:28:43] van wat zijn de potentiële schadelijke effecten van die technologie. En dat het ook productief

[1:28:49] wordt geïdentificeerd en voorkomen. Dus het is een toevoeging en een hulpmiddel om dat

[1:28:56] duidelijker te maken.

[1:28:59] Dank u wel. Dan de beantwoording van de heer Scholtens.

[1:29:03] Ja, dank u wel. Goeie vraag, want dat is inderdaad ook een lastige voor ons.

[1:29:07] We zijn als gemeente ook echt op zoek naar wat kunnen wij nou doen.

[1:29:10] Dat begint denk ik inderdaad met een normerend gesprek...

[1:29:13] ook met ouders, met scholen en met kinderen.

[1:29:15] We zijn zelf ook in gesprek, in een soort ontwerplab met kinderen van...

[1:29:19] kun je bijvoorbeeld het eerste moment van je eerste telefoon aangrijpen...

[1:29:23] ook richting ouders en kinderen om daar informatieverzieningen aan te koppelen...

[1:29:27] om misschien ook mee te geven, oké, hier is je telefoon, maar het hoeft geen smartphone

[1:29:31] te zijn en het hoeft ook niet meteen met TikTok erop. Dus daar zijn we ook een beetje naar

[1:29:37] op zoek. Ik denk het belangrijkste is om dat echt proberen dat te doen samen met kinderen

[1:29:40] zelf. Daar hebben wij nu allerlei ontwerplabs voor. Het begint met een normerend gesprek

[1:29:46] en ook wij zijn op zoek hoe we dan ertoe kunnen komen dat meerdere ouders met meerdere kinderen

[1:29:51] die afspraken ook maken. Want het is wat u zegt. Wat we ook horen van jongeren, het

[1:29:56] wordt ze ook moeilijk gemaakt om niet online te zijn, want daar gebeurt alles. We hebben

[1:30:01] het over Magister gehad, we hebben het over afspraken gehad, we hebben het over de ouder

[1:30:04] apps gehad. Dus ja, ook daar zijn wij naar op zoek.

[1:30:09] Dank u wel. Mevrouw Katman.

[1:30:11] Ja, dank voorzitter. Ik wil eerst de heer Kruipen danken dat we met de UNICEF Jongeren

[1:30:17] Digitale Raad in gesprek konden hiervoor. En helaas kon dat niet hier, want daar moet

[1:30:21] je 18 plus voor zijn. Maar het was een ongelooflijk fijn gesprek. Ik denk dat dat voor ons allemaal

[1:30:26] Er was ook zeker goede input voor het gesprek dat we nu met u hebben.

[1:30:30] Ik denk dat we dat gewoon vaker moeten doen.

[1:30:33] Dan heb ik een vraag aan de heer Pijpers.

[1:30:34] Ik had eigenlijk hele andere vragen, maar u triggerde mij toen u zei dat mobieltjesverbod

[1:30:42] het debat goed op gang heeft gebracht voor elke school die dat misschien ook nog niet

[1:30:47] heeft.

[1:30:48] Maar we gaan nu wel ineens verplaatsen, want nu gaat misschien wat eerst op de smartphone

[1:30:52] van plaatsvormd gaat op de laptop plaatsvinden. En dan gaan we ineens kinderen monitoren. Dus

[1:30:57] is het weer een balans zoeken van we willen juist kinderrechten beschermen en dan gaan

[1:31:01] we ze ook weer een beetje schenden. Er zijn scholen, ik ken er een, want mijn zoon zit

[1:31:06] erop, die doet ook helemaal niet aan laptops. Dus die hebben en geen telefoons. Dat is thuis

[1:31:10] of kluis. En de laptops is alleen maar als er informaticalessen zijn, programmeren of

[1:31:14] als bijvoorbeeld de IT-teachers langskomen. En dit is niet een basisschool, dit is een

[1:31:19] middelbare school, heeft die discussie ook plaatsgevonden? Dat dat dan misschien de beste

[1:31:25] keuze is.

[1:31:33] U bent enthousiast, dat ziet u. Ik heb nog een korte vraag aan mevrouw Kalverboer. Het

[1:31:40] interagentieafdrag voor de rechten van het kind is belangrijk, tegelijkertijd ook minder

[1:31:45] verbindend dat dat misschien sommigen zouden willen. Ik vroeg me af hoe je dat ook kan inbedden

[1:31:50] in Nederlandse, maar ook Europese of nationale wetgeving, zodat we ervoor kunnen zorgen

[1:31:55] dat dit niet alleen mooie artikelen zijn, maar dat we het echt ook wel afdwingbaarder kunnen

[1:31:59] maken en ook zichtbaarder kunnen maken. Dus dat zou mijn vraag zijn. Dan beginnen we met

[1:32:05] de vraag van mevrouw Katman. U was al mooi bezig. Ik wil u graag vragen om uw betoog

[1:32:09] te vervolgen.

[1:32:11] Twee opmerkingen daarover. Ten eerste is mijn ervaring dat scholen al redelijk goed nadenken

[1:32:16] over hoe ze digital devices inzetten. Hoewel je zeker scholen ziet waarbij het wordt overdreven.

[1:32:24] Dus dat is mijn positieve afdronk bij hoe scholen daar nu mee bezig zijn. Tegelijkertijd zie

[1:32:29] je wel degelijk, dat is mijn andere punt, dat er meer discussie is over mag het allemaal

[1:32:34] wel een tandje minder. Je ziet in Zweden een minister die vindt dat het allemaal de klas

[1:32:40] We leven in een samenleving waarin alles zo met elkaar verweven is dat het bijna niet

[1:32:45] te doen is.

[1:32:45] Als je kijkt naar het materiaal, dan zie je dat er materialen zijn gecombineerd met digitale

[1:32:51] invalsoeken die je kunt inzetten als dat passend is.

[1:32:54] Dus als je zou besluiten de klas uit, dan denk ik dat dat op scholen soms ook tot problemen

[1:33:00] kan leiden.

[1:33:00] Dus de vraag is even, wat is de juiste balans?

[1:33:04] Ik denk dat er daar nog steeds scholen bij hebben te helpen, niet alleen vanuit het perspectief

[1:33:08] hoe draagt het instrumenteel bij aan leren, maar ook wat doet dat met de onderwijsomgeving,

[1:33:14] die niet alleen een klaslokaal is met vier muren, maar ook met een enorme cloudomgeving

[1:33:20] waarin allerlei partijen, big tech voorop, proberen hun invloed uit te oefenen. Dus ik

[1:33:27] denk dat we daar werk te doen hebben, scholen beter helpen bij het maken van juiste keuzes,

[1:33:31] maar niet alleen over hoe het leidt op meer en betere leeropbrengsten, maar ook is dit

[1:33:36] goed voor niet alleen kinderen, maar ook voor leraren en de hele pedagogische ruimte waarin

[1:33:41] wij met elkaar proberen kinderen goed op te voeden.

[1:33:45] Dank u wel. Mevrouw Kalverboer.

[1:33:48] Dank voor uw vraag. Hoe kan je het kinderrechtenverdrag beter inbedden? Dat kan je doen door op alle

[1:33:56] wetgeving en beleid dat je maakt een children's rights impact assessment te doen, een kinderrechtentoets.

[1:34:04] Het kinderrechtencomité heeft in zijn laatste concluding observations, het laatste oordeel

[1:34:12] over hoe Nederland er qua kinderrechten voor staat, ook Nederland aangegeven dat ze dat

[1:34:21] zou moeten doen. Dus een kinderrechtentoets op alle wetgevingen en beleid. Unicef heeft

[1:34:26] heeft een mooie kria ontwikkeld voor digitalisering. Die zou je kunnen gebruiken. En de kinderombudsman

[1:34:35] zelf heeft ook, en daar komen we op 10 december mee, een kinderrechtentoets gemaakt die je

[1:34:43] op alle wetgeving en beleid zou moeten leggen. Wat is daar nou het voordeel van? Dat je kijkt

[1:34:49] naar wat beoog je met je wet. Dat je kijkt naar hoe werkt hij dan uit voor de kinderen

[1:34:55] voor wie je hem bedoelt en dat je ook zicht hebt op of er onbedoelde neveneffecten zijn.

[1:35:01] En dan reageer ik even op uw voorbeeld, want een onbedoeld neveneffect kan zijn dat er een

[1:35:09] verplaatsing plaatsvindt. Dus echt consequent alle wetgeving en beleid erop bekijken, dat

[1:35:15] is één ding. Een ander ding, en dat is ook iets wat Nederland tot nu toe niet gedaan

[1:35:20] heeft en wat zeer helpend zou zijn. Kinderen kunnen zelf geen klachten indienen over schendingen

[1:35:28] van kinderrechten bij het kinderrechtencomité. Daar is een derde protocol voor. Nederland

[1:35:33] is een van de weinige landen in de wereld die dit protocol niet ondertekend heeft. En ook

[1:35:41] kinderen kunnen dan met klachten over hoe de overheid kinderrechten misschien schent,

[1:35:47] een eigen procedure starten. En dat zou ook zeer helpend zijn.

[1:35:55] We gaan een nieuwe ronde. U heeft het goede voorbeeld gegeven. Laten we hopen dat u dat

[1:36:03] kunt volhouden.

[1:36:04] Ik heb een vraag aan de heer Scholtes. Dat gaat over het lokale sociale domein. Ik heb

[1:36:14] Ik heb begin dit jaar met een jeugdarts gesproken van een consultatiebureau en die gaf aan welke

[1:36:19] problemen zij inmiddels wil zien met zeer jonge kinderen, ook onder de vier, die heel

[1:36:24] veel op telefoons en tablets zitten.

[1:36:26] Maar ook de squeeze die zij hebben in hun tijd, want natuurlijk willen ze dit graag

[1:36:31] met de ouders bespreken, maar zij komen ook tal van andere problemen tegen in een afspraak

[1:36:35] die soms tien minuten of een kwartier duurt.

[1:36:37] Dus hoe kan je ook als lokale overheid ervoor zorgen dat deze mensen die al een enorme werkdruk

[1:36:42] hebben zich hier toch op een nuttige manier mee bezighouden, want dat is toch eigenlijk

[1:36:47] een van de weinige aanspreekpunten voor ouders met kleine kinderen die nog niet naar school

[1:36:53] gaan, om dat contact te hebben over die richtlijnen waar het in de vorige ronde al veel over ging.

[1:36:58] Dus hoe zou je dat niet alleen in Amsterdam, maar ook in het Tietjaxstra-deel op kunnen

[1:37:02] pakken?

[1:37:05] Dank u wel. Mevrouw Drol?

[1:37:07] Ik heb op dit moment verder geen vragen. Gewoon een duidelijk verhaal.

[1:37:10] Goede lijn ook. Dank.

[1:37:12] Dan de heer Vliezen. Dan ga ik gelijk toch even door.

[1:37:16] Dank voorzitter. Ik wil iedereen hartelijk danken voor uw bijdrage.

[1:37:19] En ik heb ook verder geen vragen meer. Het was helder.

[1:37:21] Nee, mooi. De heer Sjiksteijstra.

[1:37:23] Dank voorzitter. Ik hoop nog even tijd te hebben om mijn vraag goed te kunnen formuleren.

[1:37:27] Maar nu sta ik toch voor het vlok.

[1:37:29] Nee, dan heb ik ook een vraag aan de heer Pijpers.

[1:37:31] Er komt een mooie term die in uw paper stond, de onderwijstechnologieindustrie.

[1:37:37] Het raakt aan de vraag die mevrouw Katman stelde.

[1:37:40] De afhankelijkheid van Big Tech in het onderwijs, die daarmee normstellend is.

[1:37:45] Kunt u misschien iets verder inzoomen op waar nu de prangendste problemen zitten...

[1:37:51] of waar u liever zou willen zien dat er een bepaalde sturing is...

[1:37:54] dat meer waardegedreven technologie gebruikt wordt in het onderwijs...

[1:37:59] dan wanneer we alles aan de markt overlaten.

[1:38:02] Dank u wel. Mevrouw Van der Werff heeft de vraag gesteld aan de heer Scholtens.

[1:38:05] Kunnen u het woord geven?

[1:38:07] Ja, dank u voor uw vraag. Een hele goede vraag.

[1:38:09] Kijk, mijn ervaring lokaal is eigenlijk...

[1:38:12] of het nu gaat over mensen helpen met gezonder leven...

[1:38:15] of over het Rijksvaccinatieprogramma uitvoeren of over dit thema.

[1:38:20] Je moet zorgen dat je bent waar mensen zijn en aansluit bij hun behoeften.

[1:38:24] En dus ook soms echt naar ze toegaan.

[1:38:26] We hebben geleerd dat dat betekent dat je soms ook op een andere manier je hulp moet

[1:38:32] aanbieden, op een andere plek je hulp moet aanbieden, en ik kan me voorstellen dat dat

[1:38:35] in dit geval ook geldt, daar zijn waar ouders zijn.

[1:38:39] En dat vergt dus ook wel gewoon capaciteit, want je moet daar mensen naartoe sturen,

[1:38:46] die moeten de tijd hebben om uit te leggen wat er speelt, om te kijken, door te glijden

[1:38:51] naar hulp.

[1:38:53] Maar zolang je aanstaat bij die leefwereld van mensen, dan merken wij wel dat mensen daar

[1:38:59] ook gebruik van willen maken.

[1:39:01] Dus ik denk in het sociaal domein als gemeente proberen wij zelf heel veel te werken met

[1:39:06] ervaringsdeskundigen, met mensen uit de gemeenschappen, mensen die ook toegang hebben tot al die verschillende

[1:39:10] groepen die misschien ook vragen hebben, van jonge moeders tot allerlei jongeren.

[1:39:18] En op die manier kunnen we dat lokaal in ieder geval goed proberen in te vullen.

[1:39:21] En ik zeg er wel bij, in een grote gemeente als Amsterdam is dat misschien ook weer wat

[1:39:24] makkelijker dan in andere gemeenten, waar de financiën of de capaciteit nog lager zijn.

[1:39:30] Dus ik denk ook dat het belangrijk is dat het er niet helemaal van zou moeten afhangen

[1:39:33] van in welke gemeente je actief bent en daar denk ik dat gemeenten wel ook hulp kunnen

[1:39:38] gebruiken.

[1:39:39] Want dat vergt ook wel investeren in de capaciteit van het sociaal domein.

[1:39:44] Dank u wel voor de beantwoording.

[1:39:45] Voor de beantwoording van de heer Zijkstra zou ik de pijpers graag terug willen geven.

[1:39:54] Uw vraag.

[1:39:58] Misschien eerst in de algemene zin.

[1:40:01] Big Tech had al een enorme invloed.

[1:40:04] Die is toegenomen in corona.

[1:40:06] We waren maar wat blij dat we gebruik konden maken van die platforms om les op afstand te verzorgen.

[1:40:11] Maar je ziet nu dat de positie van Big Tech in het onderwijs enorm is toegenomen.

[1:40:15] dat we ons afhankelijk hebben gemaakt van heel veel van die spullen. Tegelijkertijd zie

[1:40:21] je wel degelijk dat we internationaal soms kort en wette maken met die invloed. Tegelijkertijd

[1:40:29] loopt het allemaal een beetje door elkaar heen, dat Big Tech nu ook uitmondt in Big AI. Denk

[1:40:35] aan Microsoft en Google, die steeds meer AI in hun producten opnemen, waar scholen zich

[1:40:41] van afhankelijk maken. En dat heeft ontegenzeggelijk een zorgwekkende invloed, niet alleen op publieke

[1:40:48] waarde en democratisch toezicht, maar ook op hoe onderwijs zich vormt. En dat komt dus

[1:40:54] ook terug in de klas en heeft effect op kinderen. En ik denk dat de weg vooruit is, scholen helpen

[1:41:00] vooral om collectiever op te treden, te zorgen dat ze niet tegen elkaar worden uitgespeeld,

[1:41:05] maar dat ze in staat worden gesteld om als klein bestuur bijvoorbeeld bij grotere besturen

[1:41:12] af te kijken en te zien of je samen eisen kunt stellen, sterker dan nu gebeurt, om uiteindelijk

[1:41:18] ook deze bedrijven duidelijk te maken dat ze zich hebben te houden aan een wettelregelgeving

[1:41:23] en waar er sprake is van een twilight zone, dat scholen in elk geval eerst met elkaar duidelijk

[1:41:29] hebben dat dit is wat we opleggen. Dit willen we zien als we zaken doen met deze bedrijven.

[1:41:36] willen we daar echt mee doorgaan. Een kinderrechten-impact-assessment werd hier net genoemd. In de vorige

[1:41:41] ronde ook al. Je zou een school samen collectief kunnen afspreken. Wij verwachten dat men zich

[1:41:46] gewoon houdt aan elementaire kinderrechten. En laat maar zien. Dat kan als een conditie

[1:41:51] worden opgevoerd. Dus mijn advies, help scholen om collectiever op te treden. Je ziet die

[1:41:56] beweging al, met een inkoopcoöperatie als Sifon. SURF is daar voor het hoger onderwijs

[1:42:02] al mee bezig, maar we rijden er nog lang niet.

[1:42:06] Dank u wel voor uw antwoord. Mevrouw Katman zou ik graag het woord willen geven.

[1:42:11] Ja, ik heb een vraag aan de heer Loch. Ik ken uw werk goed en ik weet dat u

[1:42:16] overal waar u werk doet ook heel veel andere taken oppakt.

[1:42:20] U bent vaak ook gewoon de IT conciërge en noem het allemaal maar op.

[1:42:24] En ik denk dat u daarom net ook even een oproep deed dat het heel erg nodig is

[1:42:28] in Nederland, dat we ook mensen voor de klas hebben staan die

[1:42:32] die verstand hebben van niet alleen digitale skills, maar ook die digitale wijsheid.

[1:42:41] En kunt u misschien een schets geven van de stand van zaken nu op scholen?

[1:42:47] Dank u wel. Ikzelf heb een vraag opnieuw aan mevrouw Kalverboer.

[1:42:53] Want zij had het inderdaad over ratificatie van het kinderrecht.

[1:42:58] dat kinderen kunnen klagen op grond van het IVRK.

[1:43:04] Zo ver ik weet heeft het voormalig kabinet er positief op gereageerd.

[1:43:09] Misschien heeft u scherper dan ik wat er nu nog in de weg staat.

[1:43:13] Omdat, zo ver ik weet, de zijnen op grond stonden om dit te gaan doen.

[1:43:20] Misschien heeft u dat scherper, misschien ook niet.

[1:43:21] Maar ik was geïntrigeerd door uw antwoord, dus vandaar mijn volvraag.

[1:43:25] De heer Pijpers, voor de beantwoording van Frank van Kattelman. Nee, dat is toch de heer

[1:43:30] Loch.

[1:43:32] Ja, dank u wel. Bedankt voor de vraag. Het klopt inderdaad dat onze vakdocenten, waaronder

[1:43:39] ik zelf ook, allerhande ICT-gerelateerde taken uitvoeren op scholen. Dat doen we dan maar

[1:43:46] onder het mom van nu we er toch zijn. Maar het is op dit moment qua kennisniveau bij

[1:43:51] veel al docenten en leraren dermate slecht gesteld dat het wel eens is voorgekomen dat

[1:43:58] wij halverwege de dag een klas binnenkomen lopen en dat een van de docenten een soort

[1:44:04] van halleluja, daar zijn ze, van ik kan al heel de dag niet lesgeven, want mijn digibord

[1:44:08] doet het niet. En dan één blik achter het scherm leert dat de HDMI-kabel niet is aangesloten.

[1:44:16] Het moment dat wij hem dan beetpakken, wordt er uitgeslaagd.

[1:44:21] Maar het zou juist zo fijn zijn, en dat is ook hetgeen wat wij ambiëren met ons bedrijf,

[1:44:25] onze visie, is dat wij straks, de volgende generatie, de kinderen van nu, dat die straks

[1:44:31] in vergelijkbare functies werkzaam zijn en dat op het moment dat zij met dit soort problemen

[1:44:35] geconfronteerd worden, dat ze dan op basis van alle lessen die ze hebben gehad in digitale

[1:44:40] geletterdheid een stukje vertrouwen hebben opgebouwd, dat ze dus niet in eerste instantie

[1:44:44] denken help, paniek, ik moet een ICT'er hebben, maar dat ze dan dus denken, ik ga eens kijken

[1:44:49] wat ik zelf kan doen. En als het dan echt niet lukt, dan schakel ik eventueel een ICT'er

[1:44:53] in. En dit sluit dan ook echt heel goed aan op wat wij ook roepen in onze position paper,

[1:45:00] om ervoor te zorgen dat er nu op de pabo wordt wel mondjesmaat iets gedaan met digitale geletterdheid,

[1:45:07] er zijn wat minors, er is een post-HBO, maar het kennisniveau van de huidige generatie

[1:45:13] docenten is schrikbaar aan het laag. En we kunnen natuurlijk zeggen, over vier jaar komt

[1:45:18] er een hele generatie paboers, die hebben het allemaal helemaal goed in de vingers en

[1:45:21] die kunnen dit. Maar dan hebben we het wel nog over vier jaar aan verloren kinderen.

[1:45:25] En het werd in het eerdere gesprek ook al even aangehaald. Ik heb mevrouw Kappman ook

[1:45:29] horen zeggen, de verloren generatie, mijn kind is al verloren. Dat moeten we zoveel

[1:45:36] mogelijk zien te voorkomen. Daarom zou het ontzettend fijn zijn als er dus een verplichte

[1:45:43] scholing gaat plaatsvinden, ook voor de leraren die al voor de klas staan, om dus hun niveau

[1:45:48] van digitale geletterdheid op het gewenste niveau te krijgen dat aansluit bij de conceptkerndoelen

[1:45:53] van het SLO. Dat wil ik nog even zeggen.

[1:45:59] Ik ga het uitzoeken. Het is nog niet gerealiseerd.

[1:46:07] Maar dan zeg ik de dingen uit mijn hoofd. Volgens mij is er een positief advies op geweest.

[1:46:12] De Raad van State heeft er ook naar gekeken. Maar het is nog niet voor elkaar. Dus ik kom

[1:46:21] erop terug.

[1:46:22] Dat is goed, dat is fijn. Mensen, we hebben nog ongeveer acht minuten.

[1:46:28] Er zijn nog Kamerleden die nog aanvullende vragen zouden willen stellen.

[1:46:32] Ik zie in ieder geval de heer Dijkstra en mevrouw Katman.

[1:46:36] Dank u wel, voorzitter. Ik heb een vraag aan de heer Kruip.

[1:46:40] Die gaf ook aan als aanbeveling, kijk naar het toezicht.

[1:46:43] Dat is te versnipperd, daar moet echt wat mee gebeuren.

[1:46:45] Het is wat kortdag, maar morgen behandelen we de implementatiewet van de DSA.

[1:46:50] Het artikel 28 van de DSA ziet op bescherming van de rechten van minderjarigen, waar platforms

[1:46:57] aanvullende maatregelen voor moeten doen.

[1:47:00] Het zal waarschijnlijk niet morgen geregeld kunnen worden.

[1:47:02] Maar in uw ideale beeld, waar zou de toezicht dan belegd moeten worden?

[1:47:16] Ik heb net als de heer Dijkstra een vraag aan de heer Kruip over de DSA, omdat we hier

[1:47:22] morgen over spreken.

[1:47:23] En in dat artikel staan al een aantal voorwaarden waar partijen aan moeten gaan voldoen.

[1:47:31] En u riep net op dat er gewoon een kinderrechtenassessment bij die uitvoering moet, dus dat artikel voldoet

[1:47:38] niet.

[1:47:39] Dat zou ik van u willen weten.

[1:47:41] En als dat zo is, is dan die assessment de oplossing, omdat dan gaan we weer een soort

[1:47:45] van zelfregulering doen.

[1:47:47] Is het dan niet handig als we een soort lijst hebben, strakker, wat er echt in moet, waar

[1:47:51] die partijen aan moeten voldoen om die kinderen te beschermen.

[1:47:56] Dank u wel.

[1:47:56] De heer Dijkstra met zijn vraag aan de heer Kruip.

[1:47:58] De heer Kruip is allemaal aan het zetten voor beide vragen.

[1:48:02] De vraag is of het bij één partij moet worden belegd.

[1:48:07] Er zijn natuurlijk meerdere toezichthouders.

[1:48:10] Ik denk dat het belangrijk is om meer in samenhang te kijken hoe er goed kan worden samengewerkt.

[1:48:19] Volgens mij stond het ook in een laatste Kamerbrief dat het ministerie van BZK ook voornemens

[1:48:25] is om dat gesprek te gaan voeren met de toezichthouders.

[1:48:29] Ik weet niet waar dat nu staat.

[1:48:32] Maar om in ieder geval meer een gezamenlijke opdracht te formuleren en ook te kijken hoe

[1:48:37] je daar in gezamenlijkheid aan kan werken.

[1:48:40] Onderdeel daarvan is ook die motie van Drost om bij de AP een kinderautoriteit te beleggen.

[1:48:56] Dat zou wat meer gericht zijn op het waarborgen van de privacy van kinderen.

[1:49:01] Maar volgens mij ligt het nu bij het ministerie van BZK om daar ook een goede verkenning op

[1:49:07] te doen en te kijken hoe meer vanuit de gezamenlijke opdracht de kinderrechten goed kunnen worden

[1:49:12] gewaarborgd. Dus dat is de eerste vraag. En de vraag van mevrouw Katman. Ik heb hem niet

[1:49:21] helemaal scherp. Kunt u hem nog een keertje herformuleren?

[1:49:24] Er staat in die DSA dus al het een en ander over waar die platform straks zou moeten verdoen.

[1:49:30] Dienstverleners. Maar u zei wel van er moet gewoon een kinderrechtenassessment komen,

[1:49:36] punt. Dus dat geeft aan dat dat artikel niet voldoet. En als dat dan niet voldoet, idealiter

[1:49:44] zouden dan concreet in zo'n artikel moeten staan. Dit, dit en dit, daar moeten ze aan

[1:49:49] voldoen. Dat is altijd beter dan zo'n assessment waar mensen weer een soort wc-toets doen, wat

[1:49:55] weer ongelooflijk moeilijk te handhaven is.

[1:49:58] Ik weet dat vanuit UNICEF nu ook wordt gewerkt. En er is er ook eentje vanuit de universiteit

[1:50:10] Leiden gemaakt. Die wordt trouwens nu ook getoetst met sociale media platforms. Onder andere

[1:50:16] TikTok en Meta. Volgens mij zijn die gesprekken nu gaande. Ik denk dat dat inderdaad de gevaar

[1:50:23] dat het zichzelf aan het toetsen is.

[1:50:36] Maar ik denk dat we daar scherp op moeten zijn.

[1:50:39] We moeten kijken hoe het goed is geborgd binnen de DSA.

[1:50:42] Maar het gaat er ook over dat de platform zich daar ook bewust van zijn.

[1:50:47] En ook meer daar op gestructureerde manier aan gaan werken.

[1:50:51] Ik denk dat het meer een toevoeging is dan iets...

[1:50:56] Het is meer een richtlijn die onder de DSA kan vallen.

[1:50:59] Zo hadden wij dat voor ogen.

[1:51:02] Dank u wel.

[1:51:02] Ik heb tot slot nog een vraag.

[1:51:04] Wat vaak vergeten wordt is dat wij in het Caribische deel van het Koninkrijk ook drie gemeenten hebben,

[1:51:10] die tot Nederland behoren.

[1:51:12] Bonaire, Sinterklaas en Sabah.

[1:51:16] Ik vroeg mij af en ik weet niet precies wie ik daarvoor moet aanwijzen.

[1:51:20] waarschijnlijk niet de heer Scholtes, omdat hij over Amsterdam gaat, maar of in het licht

[1:51:27] van de adviezen die net gegeven zijn er ook nog kanttekeningen, afwijkende adviezen zijn

[1:51:32] of extra aandachtspunten te aanzien van alle Nederlanders die op de eilanden wonen te aanzien

[1:51:39] van onderwijs, kinderrechten of op andere punten. Dat zal ik nog even verifiëren, ook

[1:51:43] omdat we ook als Kamerleden verantwoordelijk zijn voor de mensen daar op de Besseilanden.

[1:51:50] Ik wil sowieso even reageren, want kinderen in het Caribisch deel van Nederland hebben

[1:51:55] vanzelfsprekend dezelfde rechten als kinderen hier en moeten op dezelfde manier beschermd

[1:52:00] worden.

[1:52:02] Dus dat lijkt mij evident, dat alles wat hier gezegd is over Europees-Nederlandse kinderen,

[1:52:11] dat dat ook geldt voor Caribisch-Nederlandse kinderen.

[1:52:16] Ik ben bevoegd in Caribisch Nederland, dus ik zal in ieder geval mijn rol daar vervullen

[1:52:22] en ook scherp zijn op deze aspecten.

[1:52:26] Mag ik nog een hele korte aanvulling geven over die kinderrechtentoets?

[1:52:33] De bedoeling van zo'n kinderrechtentoets is dat je er juist uithaalt waar kinderrechten

[1:52:39] geschonden worden en dat je in diezelfde toets kijkt van welke aanpassingen in de wet

[1:52:44] en regelgeving, moet het er dan gedaan worden om hem kinderrechtenproof te laten zijn. Dus

[1:52:54] dan doe je hem goed. En kinderen zijn er altijd zelf bij betrokken. Dus je kijkt naar kinderen

[1:53:01] in het algemeen. Hoe raakt het nou belangen van kinderen in het algemeen? Maar ook zijn

[1:53:06] er misschien groepen kinderen die we onbedoeld juist schade toebrengen met wat wij bedacht

[1:53:17] Ik gun iedereen hulp als het misgaat, als je te maken hebt met foto's die worden verspreid.

[1:53:24] U gaat volgens mij in de volgende sessie spreken met de directeur-bestuurder van Off Limits,

[1:53:28] die heeft het meldpunt Help Wanted.

[1:53:30] Mijn oproep is eigenlijk breid die bestaande meldpunten uit.

[1:53:33] Dat is goed voor de ouders, goed voor deskundigen en goed voor kinderen.

[1:53:37] Ik hoop dat dat ook geldt voor kinderen en jongeren in het Caribisch gebied.

[1:53:39] Dus ik wil zeggen, luister goed naar zijn verhaal en bereid die bestaande meldpunten uit voor

[1:53:44] als het misgaat.

[1:53:46] Dank u wel.

[1:53:47] We zullen niet alleen naar hem, maar ook naar alle andere volgende deelnemers luisteren.

[1:53:52] Het is vijf voor vier.

[1:53:52] Ik wil onze gasten hartelijk bedanken voor hun tijd en hun expertise.

[1:53:57] Ik schors voor vijf minuten en dan begin ik om stip vijf uur aan het laatste blok, veiligheid

[1:54:02] en weerbereidheid.

[1:54:03] Tot zo.

[1:59:40] Dag dames en heren.

[1:59:42] We zijn aangekomen bij het derde blok van het onlontafelsprek over online kinderrechten.

[1:59:49] Het derde blok gaat over veiligheid en weerbaarheid.

[1:59:51] We hebben een aantal mooie gasten die hebben toegezegd om hier aanwezig te zijn.

[1:59:55] Allereerst Lotje Beek van Bits of Freedom, Tiffany van Stormbroek van het Nederlands

[2:00:00] Instituut voor de Klassificatie van Audiovisuele Media, Tim Merck van Hero

[2:00:05] Center Hackshield en Robert Hoving van Off Limits en Marie Berkhout van

[2:00:10] Netwerk Mediawijsheid. U kent het voorformant. Ik wil u graag maximaal

[2:00:15] twee minuten geven om u zelf voor te stellen, maar ook misschien ook de

[2:00:18] hoofdpunten uit uw position paper. En dan wil ik de Kamerleden de gelegenheid

[2:00:22] geven om u daar vragen over te stellen. Ik zou graag met mevrouw Beek willen

[2:00:25] Ik ben Lortje B. Ik werk bij Bitter Freedom. We zijn een stichting die zich bezig houdt

[2:00:31] met internetvrijheid. Al 25 jaar. En ik ben beleidsadviseur en hou me vooral bezig met

[2:00:37] grote online platformen. Daar vertel ik graag meer over. Want grote social media platformen

[2:00:43] zijn er op ingericht om geld te verdienen aan hun gebruikers. Dat geldt voor zoveel

[2:00:47] kinderen als voor volwassenen. Die platformen doen er alles aan om mensen zo lang mogelijk

[2:00:53] op hun platform te houden, zodat ze zoveel mogelijk advertenties kunnen tonen, meer geld. En

[2:01:00] de methodes die ze daarvoor inzetten om mensen zo lang mogelijk op dat platform te houden,

[2:01:03] die gaan eigenlijk vaak ten koste van de platformgebruiker. Extreme content komt bijvoorbeeld naar boven,

[2:01:09] omdat het mensen triggert om langer te blijven kijken. Uit onderzoek van Groene Amsterdammer

[2:01:13] bleek bijvoorbeeld dat mensen die op TikTok een beetje geïnteresseerd waren in diëten

[2:01:17] en zo, of afvallen, dat die binnen een half uur in een stroom van video's over eetstoornissen,

[2:01:22] extreme diëten en hele magere licharen terechtkwamen. Dat is heel gevaarlijk en al helemaal voor

[2:01:28] kinderen. Maar ook het ontwerp van een platform probeert mensen zo lang mogelijk vast te houden.

[2:01:33] Platformen als TikTok en Instagram hebben ook al eerder aan bod gekomen. Er komt eigenlijk

[2:01:39] geen einde aan. Je kan eindeloos blijven scrollen en veel mensen doen dat dan ook. En ik denk

[2:01:45] dat dat meer door het ontwerp komt dan door de mensen die blijven scrollen. Maar hetzelfde

[2:01:50] geldt voor YouTube. Die speelt de volgende video automatisch af, waardoor gebruikers

[2:01:53] eigenlijk niet een hele bewuste keuze kunnen maken of ze wel of niet YouTube willen blijven

[2:01:58] kijken. Daar moeten we iets aan doen, want de sociale media platformen waar kinderen

[2:02:04] echt heel veel tijd op spenderen, hebben we het ook al over gehad in de afgelopen blokken,

[2:02:09] die zijn niet ingericht in het belang van de gebruikers, of dat nou volwassenen of kinderen

[2:02:14] zijn. Ze zijn vooral ingericht in hun eigen belang. Dat is ook logisch, want het zijn

[2:02:17] commerciële bedrijven. Daarom pleiten we ook voor regulering van die platformen zelf,

[2:02:22] in plaats van te focussen op hoe gebruikers met die platformen omgaan. De platformen moeten

[2:02:26] ten eerste gewoon gezond zijn. Dus in plaats van platformen deels of helemaal te verbieden

[2:02:32] voor minderjarigen, adviseren wij u om al die platformen en de hele platformmarkt wat

[2:02:38] gezonder te krijgen via regulering, voor zowel minderjarige als meerjarige gebruikers. Dat

[2:02:43] zou. Ook mooi meegenomen als volwassenen minder verslaafd zijn aan hun smartphone. Tot slot

[2:02:50] hebben we ook in onze position paper aanbevelingen gedaan over leeftijdsverificatie. Ik wil graag

[2:02:58] wel benadrukken dat bij leeftijdsverificatie de privacy van gebruikers echt gewaarborgd

[2:03:02] moet worden. De meest betrouwbare methodes van leeftijdsverificatie brengen de grootste

[2:03:08] risico's op privacy inbreuken met zich mee. Dus ik denk dat we ook de vraag moeten stellen

[2:03:15] willen we gebruikmaken van leeftijdsverificatie in plaats van welke leeftijdsverificatie gaan

[2:03:19] we gebruiken?

[2:03:21] Dank u wel. Ik wil graag mevrouw van Stormbroek het woord geven.

[2:03:26] Hartelijk dank voor het woord en voor de uitnodiging. Mijn naam is Tiffany van Stormbroek, directeur

[2:03:31] bestuurder van NIKAM. Ik zeg meestal van kijkwijzer, want dat is wat de meeste mensen kennen. Van

[2:03:38] de pictogramma's die je ziet bij films en televisieprogramma's, maar ook op streamingdiensten

[2:03:43] sinds de wijziging van de mediawet, en ook online. Met dat laatste wil ik eigenlijk beginnen,

[2:03:50] want mijn position paper begint met een soort van visioen. Wat als we een klassificatiesysteem

[2:03:56] zouden kunnen maken voor social media? Wat als we kinderen gewoon zelf het recht in handen

[2:04:02] kunnen geven dat zij met informatie kunnen kiezen of ze iets wel of niet kijken, in plaats

[2:04:07] van alle beelden die zij toegestopt krijgen via social media. Dat is mijn droom. Maar

[2:04:12] het is niet alleen een droom. Ik denk echt dat we dat ook werkelijkheid kunnen maken.

[2:04:16] Want het NICAM bestaat ook al bijna 25 jaar. En we hebben dus al zo lang ook de ervaring

[2:04:22] met het kijkwijzersysteem. Wat ook wat van mevrouw Van der Wervel in de eerste ronde

[2:04:27] vroeg, van wat kun je doen door middel van, moet het vanuit de overheid komen of ook van

[2:04:33] van de techbedrijven. Met kijkwijze laten we zien dat er hele goede samenwerking mogelijk

[2:04:37] is. Want 25 jaar geleden zaten we eigenlijk ook in dezelfde situatie waarbij de commerciële

[2:04:42] omroepen naar Nederland kwamen en er ontzettend veel content beschikbaar was. Die situatie

[2:04:47] die hebben we nu eigenlijk weer. En je ziet het al in de eerste ronde. Er is heel veel

[2:04:52] wetenschappelijke evidentie. Er is heel veel zorg bij ouders, bij maatschappelijke organisaties,

[2:04:57] bij de overheid. En ik denk dat het tijd is om daar ook weer de handen in een te slaan

[2:05:01] om te zorgen dat we daar een goed systeem kunnen neerzetten, zodat er geïnformeerd kan worden.

[2:05:08] Ik zei al eventjes dat we in 2001 begonnen zijn met Kijkwijzer.

[2:05:12] Kijkwijzer is een dynamisch systeem gebaseerd op wetenschappelijk onderzoek,

[2:05:16] maar wat gehanteerd wordt door de mediapartijen zelf.

[2:05:21] En ik geloof dat het kan.

[2:05:23] We hebben ook gevraagd aan kinderen.

[2:05:24] Kinderen, wat willen jullie? Wat hebben jullie nodig op social media?

[2:05:27] Wat kom je daar allemaal tegen?

[2:05:28] In de mediawet staat dat kinderen beschermd dienen te worden tegen schadelijke beelden.

[2:05:35] Dus het handvat is er al.

[2:05:37] En met dat handvat kunnen we kinderen informeren over mogelijke schadelijke beelden.

[2:05:43] We hebben aan kinderen gevraagd hoe ze geïnformeerd willen worden.

[2:05:46] En meer dan 80% zegt ja, wij willen die informatie.

[2:05:49] Want wij komen die schadelijke beelden tegen.

[2:05:52] Er is meer dan één onderzoek beschikbaar wat dat ook laat zien.

[2:05:55] Seksbeheel getinte beelden, maar ook heel veel schadelijke beelden.

[2:05:58] en echte beelden. Als wij hier nu een scherm ophangen en laten zien wat die kinderen kunnen

[2:06:04] zien op social media, dat zou hier ontzettend veel Kamervraag zijn. Daar zou er al lang

[2:06:09] beleid voor zijn. En daar wil ik voor pleiten. Echt waar. Want kinderen zien echt ontzettend

[2:06:14] veel, kunnen in ieder geval heel veel schadelijk beeldmateriaal zien. En ik denk dat het tijd

[2:06:19] is dat we daar iets aan gaan doen. Samen. Vooral samen. Dat was het.

[2:06:23] Dank u wel voor uw vuurig pleidooi. Dat gaat de heer Murk ook doen.

[2:06:36] Sorry, kunt u uw microfoon aanzetten?

[2:06:38] Zeker. Ik zit hier als tegenwoordiger van heel veel kinderen tussen de 8 en 12 jaar.

[2:06:43] Die heel enthousiast zijn over de digitale toekomst.

[2:06:46] En daar heel graag een positieve bijdrage aan willen doen.

[2:06:49] Ik ben een van de oprichters van Hackshield.

[2:06:52] Het is eigenlijk een beweging, maar we gebruiken een game-platform.

[2:06:56] om kinderen op te leiden tot junior cyber agent. Een junior cyber agent is niet alleen bezig

[2:07:02] om zelf te leren hoe je veilig online je gedraagt, maar probeert dat ook aan de omgeving uit te

[2:07:07] leggen. Papa, mama, opa en oma, juf, meester. En dat doen we niet alleen omdat kinderen daardoor

[2:07:13] beter leren. Dat wat je een ander uitlegt, onthoud je zelf het best. Maar ook om ervoor

[2:07:17] te zorgen dat er een dialoog ontstaat in de directe omgeving van het kind. Want we moeten

[2:07:21] dat kind met z'n allen opvoeden en helpen. Inmiddels hebben we een individuele game en

[2:07:28] we hebben een volledig lesprogramma, wat ook gekoppeld is aan de nieuwe SLO-kerndoelen

[2:07:33] voor in het onderwijs. Beiden zijn gratis beschikbaar, vrij van marketing. We verkopen

[2:07:38] geen data. Het leidt tot heel veel supertalentjes die door burgemeesters en politie in heel

[2:07:44] Nederland elke week gehuldigd worden op het stadhuis. Ik zeg, het is identiteitsvorming.

[2:07:52] Ik denk dat het duidelijk is dat wij bij Hackschild vooral geloven in de kansen die de digitalisering

[2:07:58] met zich meebrengt. We denken dat het vooral belangrijk is om iedereen een gelijkwaardige

[2:08:05] kans te geven om daar de vruchten van te plukken. Dat begint bij onderwijs. Iedereen

[2:08:11] moet onderwezen worden in al die nieuwe kansen.

[2:08:14] Wij maken ons wel zorgen of het huidige onderwijssysteem in staat is...

[2:08:18] om de snelheid waarmee de technologie voortdendert, om dat bij te houden.

[2:08:23] Zowel qua actuele thema's, maar ook qua onderwijsvormen.

[2:08:27] Dus wij hopen heel erg dat er meer ruimte komt voor experiment.

[2:08:33] Criminelen experimenteren zich helemaal suf.

[2:08:35] Die wachten niet tot het curriculum af is...

[2:08:36] of dat er een gevalideerd lesprogramma in het onderwijs is.

[2:08:39] die gaan gewoon aan de slag. Om die kenniskloof te dichten moeten we een veilige omgeving creëren

[2:08:44] waar kinderen spelenderwijs fouten kunnen maken, zodat ze spelenderwijs kunnen leren.

[2:08:50] Wij geloven er echt in dat als je kinderen serieus neemt, vertrouwt, een ethisch kompas

[2:08:54] meegeeft, dat ze veel meer kunnen dan wij als volwassenen met z'n allen denken. Dank

[2:08:59] u wel.

[2:09:00] Dank u wel voor uw betoog. Zeker, zeker. Ik heb dus ook grote verwachtingen van de heer

[2:09:10] Hoving. Even twee minuten.

[2:09:12] Dank u wel, voorzitter, kamerleden. Het is inderdaad een eer om hier te zijn. Of Limits,

[2:09:19] expertisebureau online misbruik. Wij zien vaak als eerste wat er online aan de hand

[2:09:23] is met jongeren. En wanneer ik zeg wij, is dat niet zozeer ik, want ik vind het een hele

[2:09:27] eer om hier te mogen zitten als directeur-bestuurder, maar het zijn

[2:09:29] vooral de kanjers daar in de zaal die iedere dag beelden beoordelen,

[2:09:33] moeilijke gesprekken voeren en mensen ook doorgeleiden naar goede hulp.

[2:09:37] Dus heeft u nog de kans, heeft u verdere vragen, praat dan met ze.

[2:09:41] En wat zien wij dan online? Een op de drie foto's die binnenkomt bij

[2:09:45] het meldpunt kinderporno is zelf gemaakt door hele jonge kinderen,

[2:09:48] bijvoorbeeld daartoe verleid in online games.

[2:09:50] Meer dan de helft van de meldingen bij Help Wanted is sextortion,

[2:09:53] jonge mensen die met intieme foto's gedrongen worden na de dingen te doen.

[2:09:56] En bij Stop it Now is meer dan de helft van de mensen die contact zoekt met ons jonge

[2:10:01] mannen die bijvoorbeeld vanuit escalatiegedrag omdat ze te vroeg online zijn gegaan op zoek

[2:10:06] zijn naar heftig beeldmateriaal.

[2:10:11] Je zou dus kunnen zeggen het schort in de aanpak wanneer het gaat om online kinderrecht

[2:10:15] te beschermen.

[2:10:16] En daarover hebben wij een position paper geschreven.

[2:10:18] En ik wil daar een paar dingen van uitlichten.

[2:10:21] Het eerste is voorkomen.

[2:10:23] Hoe gaan we er nou voor zorgen dat ieder kind in Nederland dezelfde minimale basisvaardigheden

[2:10:28] heeft wanneer het aankomt op zoiets als digitaal burgerschap, mediawijsheid, seksuele relationele

[2:10:34] vorming en de overgang daartussen?

[2:10:36] Hoe zorgen we ervoor dat we kinderen niet zonder diploma in het digitale zwembad gooien?

[2:10:40] Doen we dat niet thuis en doen we dat niet op school, dan is er een hele grote kans

[2:10:43] dat ze gaan luisteren naar influencers met hele bijzondere opvattingen over verschillen

[2:10:47] tussen mannen en vrouwen of vallen op hetzelfde geslacht.

[2:10:50] onderzoek onder jeugd wijst al uit dat dat er aan de hand is.

[2:10:54] Leeftijdsverificatie, ook al vaak genoemd, vinden wij ook een hele belangrijke.

[2:10:57] Ja, er zitten veel haken en ogen aan.

[2:11:00] Alleen een kind kan in de offline wereld niet een sekswinkel binnenlopen.

[2:11:03] Online kan dat wel.

[2:11:04] Online kan een kind doodeenvoudig in contact komen met schadelijke content.

[2:11:08] En dat stompt af en zorgt voor andere problematiek.

[2:11:14] Tweede, wat ik graag mee wil geven, is om dit duurzaam te doen.

[2:11:17] En duurzaam omdat de effecten offline enorm doorwerken.

[2:11:21] niet meer naar school kunnen, niet meer op straat durven.

[2:11:23] Suïcidale gedachtes, dat zijn de verhalen die wij horen.

[2:11:26] Dus wij pleiten er ook voor om te kijken hoe je dit wettelijk

[2:11:30] op de een of andere manier beter kan borgen.

[2:11:33] Bijvoorbeeld zoals suïcidepreventie nu ook geborgd wordt

[2:11:35] in de wet publieke gezondheid.

[2:11:37] Daarnaast pleiten wij er ook voor om dit op centraal,

[2:11:40] op interdepartementaal niveau te borgen.

[2:11:42] Bijvoorbeeld door een grote PPS werkgroep,

[2:11:44] waar zowel bedrijven als overheid samen eraan werken,

[2:11:47] want we zijn nu heel goed bezig met schadelijke content

[2:11:50] content en illegale content, maar er is een verschrikkelijk grijs gebied, zeker wanneer

[2:11:54] het aankomt voor content waar jonge kinderen mee te maken krijgen, die ook al hier aan

[2:11:58] tafel genoemd zijn. En als laatste, ook toch wel een stukje, ook voor onszelf, als ik hier

[2:12:03] toch mag zitten, hoop ik dat wij ook duurzaam aan het werk mogen blijven. De meldingen stijgen

[2:12:08] ieder jaar en ik zou heel graag willen dat wij duurzaam kinderrechten kunnen blijven

[2:12:13] beschermen. Dank u wel.

[2:12:15] Dank u wel voor uw betoog.

[2:12:16] Mevrouw Berkhout.

[2:12:19] Ik ben Mary Berkhout,

[2:12:22] ik ben de programmadirecteur

[2:12:23] van Netwerk Mediawijsheid.

[2:12:25] Dat is een heel groot netwerk

[2:12:27] van meer dan duizend organisaties

[2:12:29] die zich allemaal hebben aangesloten

[2:12:31] bij onze missie, en dat is

[2:12:33] iedereen mediawijs. Van 0

[2:12:35] tot 100 jaar willen we dat

[2:12:37] iedereen beschikt over de nodige vaardigheden

[2:12:39] om alle kansen te benutten

[2:12:41] online, maar ook weerwaard te zijn tegen de risico's. En vooral ook beschermd tegen allerlei

[2:12:47] vreselijke dingen die we hier allemaal gehoord hebben deze ochtend.

[2:12:52] Ik ben heel blij dat ik hier sta. Dank jullie wel daarvoor. Maar het doet me ook denken

[2:12:58] aan tien jaar geleden, toen wij voor het eerst als netwerk een impactpaper maakten over

[2:13:07] over online kinderrechten en dat die beschermd moesten worden. En nu zijn we tien jaar verder

[2:13:12] en het is alleen maar urgenter geworden dan ooit. Het is nog steeds zo dat we kinderen

[2:13:19] in die digitale wereld gooien, waar ze heel veel plezier hebben en er ook heel enthousiast

[2:13:25] gebruik van maken van alle media die ze aantreffen. Maar ze zijn nu niet veilig genoeg en ze zijn

[2:13:30] zeker ook niet weerbaar genoeg. En wij laten daar als samenleving echt wat liggen. Ook

[2:13:37] wij hebben een position paper geschreven en daarin haal ik vijf punten aan waar jullie

[2:13:43] als commissiekamerleden een groot verschil in kunnen maken om daar aandacht aan te besteden.

[2:13:49] Veel daarvan is al voorbijgekomen, dus daar ga ik niet alsnog bij stilstaan. Ik heb het

[2:13:54] dan over het onderwijs en de noodzaak tot inbedding van digitale geletterdheid en mediawijsheid

[2:13:59] in het onderwijs op alle niveaus. Wat ik ook niet aanraak, is de inspraak van kinderen

[2:14:05] bij online rechten. Spreek het voor zich. Het gaat over hun. Betrek ze erbij. Dat is

[2:14:10] echt essentieel. En ook heel belangrijk, de betere inrichting van de online omgeving.

[2:14:16] En dan niet alleen de games en sociale media, maar ook de online omgeving die in de school

[2:14:21] aan het ontstaan is en waar kinderen heel direct mee te maken hebben. En waar bepaalde

[2:14:26] dativisering van die kinderen plaatsvindt. Heel belangrijk.

[2:14:30] Waar ik wel stil bij wil staan, dat is de mediaopvoeding.

[2:14:34] Ook al geadresseerd hier eerder, maar nog wat minder belicht.

[2:14:41] Want op school kan je heel veel leren over mediawijzigheid en digitale gelegenheid.

[2:14:45] Hopen we in de nabije toekomst dat dat gaat gebeuren.

[2:14:49] Maar media worden met name thuis gebruikt.

[2:14:52] En daar worstelen heel veel ouders met wat dan te doen.

[2:14:55] en jullie hebben dat zelf ook aangegeven, opgroeiende kinderen, hoe ga je daar nou mee

[2:15:00] om? Veel ouders vragen het aan elkaar, maar krijgen daar niet altijd een helder antwoord

[2:15:06] op en weten ook niet wat werkt er nou wel en wat werkt er nou niet. Terwijl het best al

[2:15:11] heel veel onderzocht is en er is ook eigenlijk heel veel informatie over te vinden. Het nare

[2:15:16] is alleen dat die informatie niet goed vindbaar is, niet goed toepasbaar ook aangeboden wordt

[2:15:22] aan ouders en het is ook vaak niet bekend bij ouders waar ze dan moeten zijn om die

[2:15:26] informatie te vinden. Warm pleidooi is dus om te investeren in die mediaopvoeding en

[2:15:33] in kanalen om ouders daar een beetje voor te lichten. We hebben het net ook gehad over

[2:15:38] de overheid die een rol kan spelen bij een bewustzorgingscampagne. Ik denk ja, dat is

[2:15:42] heel erg goed om er vanuit de overheid in te investeren, want het betreft alle ouders.

[2:15:47] Maar dan kom ik bij mijn laatste punt, wat ook belangrijk is om netwerken hier te gebruiken,

[2:15:56] om de kracht van netwerken te gebruiken. Zowel op landelijk niveau als lokaal. We zagen net

[2:16:02] de Amsterdamse wethouder, lokaal kan je op een hele speciale manier ouders bereiken,

[2:16:07] veel meer invulling geven aan de behoeftes die ouders hebben in een wijk, in een buurt.

[2:16:13] Daarbij spelen bibliotheken een belangrijke rol, maar ook zorg- en welzijnsorganisaties,

[2:16:19] onderwijs, scholen, et cetera.

[2:16:20] Dat kan je in netwerken op lokaal niveau veel beter regelen dan dat je dat op een andere

[2:16:27] manier doet.

[2:16:27] Daar zit een enorme kracht.

[2:16:29] Ook landelijke netwerken, zoals dat van onszelf, zijn hele impactvolle instrumenten voor jullie

[2:16:37] om in te zetten om media wijzigend digitale geletterdheid te bevorderen.

[2:16:44] Dus ik zou zeggen, je hebt daar goud in handen met die netwerken.

[2:16:47] Dank jullie wel.

[2:16:48] Dank u wel, ook voor uw toelichting.

[2:16:51] U kent het format. We gaan de vraag stellen.

[2:16:53] Ik denk dat wij twee ronds kunnen doen.

[2:16:57] Dus ik zou zeggen, mevrouw van der Werff, wilt u starten?

[2:17:01] Of zullen we het eerst anders doen?

[2:17:03] Het is na vijf uur. Mevrouw Katman voelt zich geroepen.

[2:17:11] Ik heb een vraag aan de heer Hoving. U deed een hartstochtelijke oproep om duurzaam kinderrechten

[2:17:19] te kunnen blijven beschermen. Wat is daarvoor nodig uit Den Haag om ervoor te zorgen dat

[2:17:26] u dat kunt doen?

[2:17:37] Ik heb een vraag aan mevrouw Beek. Ik weet dat het geen debat is, het is een rondetafelgesprek.

[2:17:49] In uw position paper stelt u het volgende. De meest betrouwbare vormen van leeftijdsverificatie

[2:17:55] leiden tot de grootste risico's op privacy inbreuken. Iets waar ik niet helemaal mee

[2:18:02] ingediend dat wij willen kijken naar manieren van zero knowledge proofs. Dat je zonder iets

[2:18:07] bloot te geven wel via een trusted partner kan verifiëren dat jij het bent. Hoe kijkt

[2:18:13] Bits of Freedom aan tegen dat soort vormen van leeftijdsverificatie die een zeer beperkte

[2:18:17] privacy-inbreuk hebben, maar wel grote gevolgen voor de veiligheid van kinderen online?

[2:18:21] Dank u wel. We beginnen met de vraag van meneer Hoving. Ik ging nog even op aan de heer Siks-Dijkstra.

[2:18:28] Onze gasten zijn geen kaamleden, dus het is geen debat. Voor mij stelt u gewoon een vraag en staat

[2:18:32] u vrij om die te beantwoorden. Mocht u hem te politiek vinden, kunt u dat ook aangeven.

[2:18:36] De heer Hoving. Ja, dank u wel. Wat wij nu hebben, is wij worden nu voor een deel

[2:18:43] gefinanceerd door Justitie en Veiligheid. En dat is heel fijn. Het is voor strafbare

[2:18:46] en onrechtmatige content. Alleen onze meldingen stijgen. Bij Help Wanted stijgen de meldingen

[2:18:50] Ieder jaar met 50 procent. Wij stoppen het nou.

[2:18:53] We verdubbelen de meldingen.

[2:18:55] En ik zou geen wachtrijen willen.

[2:18:56] En ik zou het daarom logisch vinden als we bijvoorbeeld gaan nadenken of onze

[2:19:00] onze subsidie vormgegeven kan worden in termen van bereikbaarheid.

[2:19:04] Hoeveel mensen wil je nou helpen? Hoeveel wachtrijen wil je niet hebben?

[2:19:07] En dan vind ik het dus super dat Justitie en Veiligheid de stap naar voren heeft gedaan.

[2:19:11] Maar er zijn natuurlijk ook andere departementen die hartstikke logisch zijn.

[2:19:14] We zijn trusted flagger.

[2:19:15] Nou, hopelijk na morgen echt officieel, maar het is nu nog inofficieus.

[2:19:19] dan zit je natuurlijk bij EZK. Wanneer het gaat om online rechten is het BZK. Wanneer

[2:19:24] het gaat om de zorg die wij bieden, bijvoorbeeld vanuit Stop it Now, zit je bij VWS. Dus dat

[2:19:29] zou ons enorm helpen om te zorgen dat wij, en nogmaals voor al die kanjers daar in de

[2:19:34] zaal, duurzaam dit werk kunnen blijven doen en duurzaam kunnen meegroeien, want de offline

[2:19:38] wereld is onlosmakelijk verbonden met de online wereld voor jonge mensen.

[2:19:45] Ik durf wel te antwoorden. Ik ben er niet super goed mee bekend. Ik denk dat je bij dit soort

[2:19:59] vormen van leeftijdsverificatie toch altijd ergens een paspoort moet inleveren of ergens

[2:20:04] als je je leeftijd moet gaan doorgeven, niet?

[2:20:12] Ik kan hem kort toelichten. In die zin, je zal ooit ergens een keer je paspoort moeten

[2:20:20] laten zien, maar dat is aan een partij die je vertrouwt en die in principe ook geen informatie

[2:20:25] doorspeelt. Wat hij wel kan doen, is namens jou een hit-no-hit constructie. Als je meerderjarig

[2:20:31] bent kan hij aangeven, dat ben ik inderdaad, zonder dat een partij zoals een groot online

[2:20:35] platform daar enig inzicht in heeft. En de vraag is of u daar enthousiast van wordt.

[2:20:42] Ik word er enthousiaster van dan als ze ons paspoort naar Meta zouden opsturen. Maar ook

[2:20:46] niet superenthousiast, omdat ik denk dat het ook veel haken aan de ogen heeft. Niet iedereen

[2:20:51] heeft een paspoort, niet iedereen heeft een instelling die hij vertrouwt. Dat soort dingen

[2:20:56] zijn heel ingewikkeld. Ik denk aan in coronatijd, toen je ook zo'n app had waar ook heel weinig

[2:21:02] informatie op stond, maar er bleken toch veel haken en ogen aan te zitten van mensen die

[2:21:07] daar niet op konden of wilden. Om iedereen te verplichten om via zo'n systeem toegang

[2:21:15] te krijgen tot bijvoorbeeld sociale media, dat lijkt me ontzettend omstreden. Ik denk

[2:21:19] dat er betere oplossingen zijn. Misschien is het een beetje glas al vol, maar ik denk

[2:21:24] dat de online omgeving ook gewoon veilig kan worden voor kinderen en volwassenen. Dat lijkt

[2:21:30] maar eigenlijk een veel logischere oplossing dan een verbod of een beperkte toegang voor

[2:21:36] minderjarigen via de leeftijdsverificatie.

[2:21:39] Dank u wel voor die toelichting.

[2:21:41] Dan gaan we naar de heer Verliesen.

[2:21:44] Dank jullie allemaal voor de geweldige inbreng.

[2:21:48] Het is weer heel veel informatie om op te slaan.

[2:21:51] De position papers waren ook bijzonder interessant.

[2:21:53] Ik had nog een vraag aan de heer Muck met betrekking tot het laatste programma Hackschild

[2:21:58] en derg.

[2:21:58] Ik zag in de position van BPRU dat u samen werkt met 190 gemeenten.

[2:22:02] Ik neem aan dat dat ook verband houdt met de scholen binnen die gemeenten.

[2:22:07] Hoeveel scholen zijn er bij jou? Hoe ziet dat eruit?

[2:22:10] En hoeveel aanmeldingen heeft u nog waar u van zegt...

[2:22:14] dat kunnen we er nu nog niet aan voldoen, want we hebben een team dat niet groot genoeg is?

[2:22:18] Of bent u wel groot genoeg? Ik zou er graag iets meer over horen.

[2:22:23] Dat kan natuurlijk ook achteraf, maar een kleine toelichting...

[2:22:27] van hoeveel scholen dat u bedient. Dat zou ik wel interessant vinden nu.

[2:22:33] Dank u wel. Mevrouw Drol.

[2:22:36] Dank u wel, voorzitter. Ik wil graag een vraag stellen aan mevrouw Stormbroek.

[2:22:42] U vertelt vol passie dat u een droom heeft en daar ook in gelooft.

[2:22:46] En dat u ook zegt dat we dat moeten met elkaar doen. Daar ben ik het mee eens.

[2:22:50] Samen staan we veel sterker.

[2:22:52] Maar mijn vraag aan u is wat zou u op dit moment als eerste primair nodig hebben om

[2:22:58] dit te kunnen laten slagen, en dan vooral kijkend naar onze rol als Kamer?

[2:23:04] Dank u wel. We beginnen met de heer Murk.

[2:23:08] Dank voor de vraag. Heel graag achteraf nog heel lang over doorpraten. Er zijn een aantal

[2:23:13] dingen die we weten en een aantal dingen die we niet weten. Er zijn ongeveer 1 miljoen

[2:23:17] kinderen in Nederland in de leeftijdsgroep 8 tot en met 12. Er zijn de afgelopen vijf

[2:23:21] jaar bij 380.000 accounts aangemaakt. Daar zitten zeker wat dubbelingen in en ouders

[2:23:26] die stiekem accounts aanmaken, wat we helemaal niet erg vinden. We schatten in dat er 250.000

[2:23:32] accounts daadwerkelijk van unieke kinderen zijn. Van die 250.000 accounts zeggen wij

[2:23:36] 150.000 zijn er ongeveer cyberagent. Dat betekent dat ze een bepaalde reeks levels

[2:23:41] hebben uitgespeeld. En van die 150.000 hebben 75.000 zich aangemeld lokaal voor hun gemeente.

[2:23:47] En dat is ook voor ons de kans om een contact te leggen tussen de oude verzorger van het

[2:23:52] kind en lokaal burgemeester, politie, et cetera.

[2:23:57] Ons lesprogramma, daar zijn we nu twee jaar mee bezig, dus dat staat deels los van de

[2:24:02] individuele game.

[2:24:03] En we schatten in dat er 150.000 tot 200.000 kinderen in de klas kennis hebben gemaakt

[2:24:08] met het programma.

[2:24:09] Onder andere door ook onderdeel te zijn van het mediamastersprogramma.

[2:24:13] En die scholen, dat is nou juist de allergrootste uitdaging. Ik denk dat we dat ook met z'n

[2:24:20] allen moeten erkennen, dat scholen hebben zoveel redenen om tegen dit soort onderwerpen nog

[2:24:25] te zeggen moeilijk, lastig, geen tijd. Daar ligt ook vooral onze aandacht. Dus alle publieke

[2:24:32] en private partners helpen mee om die scholen binnen te komen.

[2:24:37] Dank u wel. Dan zou ik graag mevrouw van Stormbroek willen vragen om te beantwoorden.

[2:24:41] Dank u wel voor deze vraag. Ik denk, wat is er nodig? Vanuit Kijkwijze hebben we een systeem

[2:24:50] ontwikkeld dat gebaseerd is op wetenschappelijk onderzoek. En de inzichten van ouders en kinderen

[2:24:55] zelf tezamen hebben we gemaakt in een systeem. Dat systeem is ook toe te passen op social

[2:25:01] media. 25 jaar geleden is dat vanuit de overheid samen met de mediapartijen tot stand gekomen.

[2:25:09] En dat zie ik ook vormen voor social media partijen. We hebben natuurlijk de mediawet

[2:25:13] waarin staat hoofdstuk 4, wat ik net ook zei, om kinderen te beschermen. Dat kan op dit

[2:25:18] moment alleen voor de Nederlandse uploaders. En dat is een heel klein gedeelte van alles

[2:25:23] wat kinderen zien. Dus ik denk dat we daar ook op minimaal Europees niveau, maar het

[2:25:30] video-sharingplatforms hier een aandeel in te laten nemen. En daar is het voor nodig dat

[2:25:37] er ook op Europees niveau daar regelgeving voor komt. Dus wij hebben ook advies gegeven

[2:25:42] over de DSA uit artikel 28, dat hier de social media partijen in meegenomen moeten worden,

[2:25:48] dat zij die klassificatie instrument beschikbaar gaan maken en daaraan toepassen. Dus niet

[2:25:53] dat die verantwoordelijkheid daar ligt, maar wel om het toe te passen. Zodat je eigenlijk

[2:25:57] samen gebaseerd op wetenschappelijk gefundeerd onderzoek een systeem kunt toepassen waardoor

[2:26:02] alle kinderen in geïnformeerd worden. Dat is er volgens mij nodig en dat kan ook al

[2:26:08] beginnen bij de Nederlandse Kamer, bij de Nederlandse overheid en bij de Kamer om dat

[2:26:12] mogelijk te gaan maken. Dank u wel. Mevrouw van der Werff.

[2:26:19] Dank u voorzitter. Ik heb een vraag aan de heer Hoving en dat is een beetje een zijstraatje

[2:26:25] waar we vandaag met elkaar over spreken. Maar het zit wel heel erg op uw onderwerp.

[2:26:30] En dat gaat over iets waar we ons eerder deze week

[2:26:32] beide en anderen in deze zaal ook tegen hebben uitgesproken.

[2:26:36] En dat is die CSM-verordening in Europa.

[2:26:42] Het grootschalig kraken en meekijken van WhatsApp-berichten.

[2:26:47] Zogenaamd om effectiever kinderporno op te sporen.

[2:26:50] Nou, dat debat hoeven we hier niet te voeren.

[2:26:51] Maar ik was wel benieuwd naar wat zijn nou effectievere manieren om daarmee om te gaan.

[2:26:59] Wat zou je kunnen doen wat misschien gerichter is en minder schade veroorzaakt.

[2:27:07] Zou ik ook nog een vraag kunnen stellen? Het gaat veel over kinderporno, maar het is

[2:27:16] een aantal keer genoemd door mevrouw van Stroombroek en ook door de heer Hove in het onschadelijke

[2:27:21] content, ook valt pornografische materiaal waar jongeren onder de 18 dan makkelijk toegang

[2:27:26] toe hebben. Ik vroeg me af aan die kant van de munt wat u denkt dat daar nodig in zou

[2:27:34] moeten zijn. Een sticker op zo'n website, dat kan zelfs niet kunnen helpen, maar ik

[2:27:39] ben nog even op zoek naar wat u in Off Limits, ook in uw position paper, daarna verwijst.

[2:27:44] Dus ik zou ook met ogen op de DSA morgen, waar het misschien ook zal gaan over kinderporno,

[2:27:49] wat getoond wordt, ook willen kijken of het gaat om de toegang van minderjarigen tot

[2:27:54] pornografische dan wat seksueel getilde content. Die vraag stel ik denk ik aan de heer De Hoving,

[2:28:00] maar ik hoor u er ook iets over zeggen, als u daar een aanvulling op hebt,

[2:28:03] voelt u zich vrij, we hebben genoeg tijd.

[2:28:05] De heer Alving.

[2:28:07] Dank u wel.

[2:28:08] Wanneer het gaat om de aanpak van misbruikmateriaal,

[2:28:12] nou heb ik natuurlijk al een pleidooi gehouden

[2:28:13] voor goede voorlichting aan de voorkant,

[2:28:16] want uiteindelijk dat zo'n kind op zo'n foto staat

[2:28:18] is een resultant van iets wat daarvoor is gebeurd.

[2:28:21] Maar als we dan kijken naar de aanpak in Nederland,

[2:28:23] dan hebben wij een meldpunt kinderporno.

[2:28:26] Dat is het vrijwillig kader, daar kunnen meldingen gedaan worden

[2:28:28] en dan gaat er een verwijderverzoek naar een website.

[2:28:31] Werkt een website daar niet aan mede,

[2:28:32] dan hebben we tegenwoordig de autoriteit terroristische content

[2:28:34] en kinderpornografisch materiaal die dan aan kan pakken.

[2:28:37] Ik denk dat op die manier aanpakken,

[2:28:39] eerst het vrijwillig kader en daarna

[2:28:40] een toezichthouder die echt door kan pakken,

[2:28:43] dat dat een hele goede manier is.

[2:28:44] Wat ik ook een goede manier vind,

[2:28:46] is iets wat we in Nederland hebben uitgevonden,

[2:28:48] dat noem ik de hashtag service.

[2:28:50] Al het bekende materiaal, dat wordt bekeken

[2:28:52] door twee tot drie ogen,

[2:28:54] en dan krijgt het een hash.

[2:28:56] En die lijsten worden gebruikt door grote bedrijven, zoals bijvoorbeeld de social

[2:29:00] media platforms of bepaalde adult websites, om te controleren of er bekend materiaal bij

[2:29:05] mij opstaat.

[2:29:06] Zodra er nieuw materiaal gevonden wordt door de politie, en het wordt weer bekeken door

[2:29:09] bijvoorbeeld drie ogen, kan het erbij gevoegd worden.

[2:29:12] En die lijsten, het zijn lijsten van Interpol, lijsten van het NECMEC, de Nederlandse politielijst

[2:29:17] is erg goed.

[2:29:18] Via die lijsten kun je al heel veel van het bekende materiaal weghalen.

[2:29:22] Dus ik denk dat je daarmee al enorm verder ver gaat.

[2:29:25] En stel je zou die technologie op Europees niveau in ieder Europees land wat een grote

[2:29:29] hosting sector heeft toepassen, dan denk ik dat je een enorme deuk in een pak boter slaat.

[2:29:40] Wat bedoelt u met drie ogen?

[2:29:42] Dat betekent dat drie analisten ernaar gekeken hebben.

[2:29:45] We hebben hier bijvoorbeeld analisten in de zaal zitten die naar beelden kijken en die

[2:29:48] kijken of dit puur strafbaar of illegaal is. Maar dan heb je drie analisten die daar onderling

[2:29:54] naar gekeken hebben om echt te beoordelen dat dit strafbaar materiaal is dat van het

[2:30:00] internet moet af. Dan de toegang tot schadelijke content waar u het over had. Ja, het zijn

[2:30:09] pornosites waar kinderen eenvoudig toegang tot krijgen. Maar het zijn ook grote appgroepen

[2:30:15] waar allerlei jonge kinderen met elkaar zitten en waar alles voorbijkomt van beeldmateriaal

[2:30:20] van kindermisbruik tot gewone porno, tot dierenmishandeling, tot onthoofdingen. En al die kinderen kijken

[2:30:25] daar continu naar, want het trekt ook aan. Het is een natuurlijk kijkje, want waarom

[2:30:30] zou je niet kijken? Dat krijg ik in ieder geval terug in de gesprekken die ik veel voer

[2:30:33] met jongeren hierover. Dan ben ik weer terug bij die leeftijdsverificatie. Ik leer ook

[2:30:39] weleens dingen. Ik heb vandaag geleerd van mevrouw van der Hof dat die leeftijd van dertien

[2:30:43] jaar. Dat is helemaal niet wettelijk vastgelegd, maar dat hebben we samen bepaald. Maar ik denk

[2:30:46] dus dat als je samen gaat bepalen wat een goede leeftijd is, dan moet je je daar ook

[2:30:49] aan houden. Een leeftijdsverificatie kan daarbij helpen, want anders heb je dus dat hele jonge

[2:30:54] kinderen niet alleen dat ze online ernaar op zoek kunnen, maar ook dat ze er gewoon

[2:30:57] automatisch mee geconfronteerd worden als ze bijvoorbeeld met elkaar in grote app groepen

[2:31:01] zitten.

[2:31:04] Dank u wel. We gaan een nieuwe ronde doen. Mevrouw Katman, bent u er klaar voor?

[2:31:11] Ik wilde dat we nog een uur hadden. Ik heb een vraag aan mevrouw van Stormbroek. Zou u

[2:31:19] misschien wat kunnen uitleggen over hoe we eigenlijk dat gezag hebben de advies over

[2:31:26] smartphone gebruik het best kunnen vormgeven? En dat is ook wel even in een andere ronde

[2:31:32] aan de bot gekomen, omdat je merkt dat ouders daar gewoon heel veel behoefte aan hebben

[2:31:37] van handvatten, richtlijnen? En hoe kunnen we dat het best inrichten?

[2:31:48] Ik heb een vraag aan de heer Murk. Ik vind het echt een fantastisch verhaal en mooi om

[2:31:53] ook even stil te staan bij de kansen die hier gepakt kunnen worden als het gaat om de cyberagents

[2:31:59] van Hackshield. En waar ik eigenlijk benieuwd naar was, een aantal bijvoorbeeld heeft een

[2:32:04] sterke affiniteit hierdoor gekregen met ethisch hacken. Ik denk dat dat heel mooi is, omdat

[2:32:08] dat je dan ook kinderen kan leren van hacken is niet alleen iets wat verboden

[2:32:10] illegaal is, maar ook juist iets wat je goed kan toepassen.

[2:32:14] Heeft u enig zicht op de manier of de talenten die de kinderen ontwikkelen

[2:32:19] ook juist bij de juiste partijen belegd kunnen worden?

[2:32:21] Want ik denk dat we als Nederland een heel groot heel grote kans hebben

[2:32:26] om ethische hackers in te zetten voor allerlei soorten doeleinden.

[2:32:29] Ik ben benieuwd of u er iets over kon toelichten.

[2:32:32] Dank u wel.

[2:32:32] Dan zou ik graag mevrouw van Stormbroek willen vragen om de eerste vraag te beantwoorden.

[2:32:36] Ja, heel graag. Dank je wel voor de vraag. Ik denk dat, zeker met de ervaring met pubers,

[2:32:42] dat pubers die zijn willen graag heel autonoom zijn. En ik denk dat dat ook heel goed is

[2:32:47] en dat het ook een democratisch proces moet zijn. Als je de keuze hebt tot wat je wilt

[2:32:51] gaan kijken. En daar moet het beginnen volgens mij. Dat je informatie geeft in eerste instantie

[2:32:56] aan kinderen, dus aan de kijker, aan iedereen. Dat ben ik zeker eens met mijn buurvrouw hier.

[2:33:00] En dat je op basis van die informatie kinderen en ook hun ouders kunt uitleggen hoe je daarmee

[2:33:08] kunt omgaan.

[2:33:10] Bijna professor Esther Rozendaal, die heeft een media empowerment model ontwikkeld.

[2:33:15] Waarmee ze laat zien dat je door middel van informatie kinderen en ouders kunt empoweren

[2:33:24] om ook echt wel of niet te kijken.

[2:33:27] Dat is een heel simpel voorbeeld.

[2:33:28] Maar daarvoor heb je wel informatie nodig.

[2:33:30] Een goed voorbeeld daarvan is een gamewijzer ontwikkeld, dat is op basis van de leeftijdsinformatie,

[2:33:37] maar vervolgens geven we ouders handvatten hoe daarmee om te gaan.

[2:33:42] Dat is heel waardevol.

[2:33:43] Ik denk dat er in het netwerk zoveel verschillende en mooie initiatieven zijn, dat daar ook in

[2:33:51] samengewerkt moet worden, om dat ook tot uiting te brengen.

[2:33:55] Maar je hebt wel in eerste instantie informatie nodig, ook om leeftijdsverificaties te voeden.

[2:33:59] Als je dat doet op basis van leeftijden, dan kunnen kinderen ook zelf die autonomie kiezen

[2:34:05] en die leeftijdsverificatiesystemen instellen.

[2:34:07] Ze kunnen zelf aangeven dat ze geen geweld willen zien.

[2:34:10] Zo zou het voor mij in mijn droom in ieder geval wel zouden uitzien.

[2:34:16] Dankjewel voor uw antwoord.

[2:34:18] Zou ik graag de heer Murk het woord willen geven.

[2:34:21] Dank u voor het enthousiasme en een hele leuke vraag.

[2:34:24] Nederland kent een fantastische netwerk van ethische hackers en mensen die met IT en security

[2:34:31] die bezig zijn, zowel aan de publiek als de private kant, valt op dat die mensen ook

[2:34:35] moeiteloos constant wisselen van rols. Dan zitten ze weer bij de politie en dan bij een

[2:34:39] securitybedrijf enzovoort. Er zijn ook een aantal initiatieven, zoals de DVD Academy,

[2:34:46] Stichting Cyberbrein, het kopsteam van de politie, het Rebootcamp. En wat wij eigenlijk

[2:34:53] doen is alle talentjes die wij zien, we hebben nu de laatste quest in de klas, de klas gaat

[2:34:59] het satelliet hacken. Dan mogen ze zelf kiezen of ze de black hat hacker zijn of de white

[2:35:04] hat hacker. En als er echte talenten komen bovendrijven, dan doen we er alles aan om

[2:35:08] ze door te verwijzen naar dit soort organisaties, want daar zit de echte kennis. Als ik ergens

[2:35:15] nog een beetje extra aandacht mag vragen voor het huidige, maar ook toekomstig gillende

[2:35:20] tekort aan IT en security specialisten, niet alleen in rapporten, wij refereren daar ook

[2:35:26] vanuit Enisa, Europees, maar ook zeker in Nederland.

[2:35:29] EZK heeft net een interessant Kamerbrief daarover gedeeld ook.

[2:35:33] Dan zullen we echt op jonge leeftijd al moeten beginnen bij enthousiasme creëren bij deze kinderen,

[2:35:38] zodat we over twintig jaar voldoende mensen hebben om onze digitale wereld echt veilig te houden.

[2:35:45] Dank u wel voor uw antwoord. Ik zou graag de heer Falisse het woord willen geven.

[2:35:50] Ja, voorzitter, dank voor het woord.

[2:35:51] Wederom prachtige toelichtingen allemaal.

[2:35:55] Ik heb nog één vraag aan de heer Hoving.

[2:35:58] Verwacht u dat met de DSA eigenlijk de grote angel er wel uit is en dat dat voldoende biedt

[2:36:06] om die content tegen te gaan, of ziet er dat toch nog een minpuntje?

[2:36:15] Ik haal nog even de vraag van mevrouw Drol op.

[2:36:19] Geen vragen, mevrouw Van der Werf?

[2:36:22] Dan heb ik nog een vraag aan mevrouw Van Stormbroek.

[2:36:25] U gaf in uw inleiding aan...

[2:36:29] Er is zeker samenwerking mogelijk. Dat bewijst het concept van Kijkenwijze maar.

[2:36:34] Nu zie je opnieuw dat er zo'n enorme boeggolf aan content is waar je iets mee kan.

[2:36:40] Hoe zou dat eruit kunnen zien als je als overheid aan zo'n richtlijn zou gaan werken...

[2:36:46] of je zou een norm willen stellen op leeftijdsregistratie en suggesties voor ouders. Hoe betrek je die

[2:36:52] techbedrijven daarbij zonder dat je ze teveel met iets laat bemoeien waar ze zelf belang

[2:36:58] bij hebben?

[2:37:00] Dank u wel.

[2:37:01] De heer Hofink, zou u willen reageren op de vraag van de heer Felicien?

[2:37:05] DE HEER HOFINK.

[2:37:05] Ja, zeker. Ik denk dat de DSA echt heel belangrijk is en heel goed is. Het gaat uiteindelijk

[2:37:12] wel om mensenrechten online. Maar ik denk dat het een klein aspect is van de aanpak. Het

[2:37:17] is voor mij toch wel heel erg de aanpak in het hier en nu. Dat er trusted flaggers zijn

[2:37:23] en die kunnen snel actie ondernemen en dan kunnen er foto's online gehaald worden zoals

[2:37:26] wij dat doen en dan kan er vanuit daar goed doorverwezen worden. Maar ik denk dat behalve

[2:37:30] in het hier en nu dus ook die actie aan de voorkant nodig is. Echt dat goede stukje preventie.

[2:37:35] Natuurlijk vanuit de DSA kun je daar dingen in doen, maar ik denk dat dat daar los in

[2:37:39] Wat ik een andere hele belangrijke vind, die ik nog niet genoemd heb, is het stukje toezicht.

[2:37:44] De DSA houdt natuurlijk toezicht op de veelhops, maar stel er zijn van die partijen zoals een

[2:37:49] Telegram, die zeggen dat ze er niet onder vallen, wat je kunt betwijfen, want volgens

[2:37:52] mij zijn er zeker wel genoeg leden in Europa, die ook met een DSA ga je die niet te pakken

[2:37:59] krijgen.

[2:38:00] Dus ik denk dat de DSA absoluut een heel belangrijk onderdeel is, maar tegelijkertijd dat we ook,

[2:38:05] wanneer we het aankomt op Nederland, moeten kijken naar toezicht.

[2:38:09] Wederom even over onszelf.

[2:38:13] Een zaak tegen een groot pornoplatform, en dat ging zoiets simpels als consent.

[2:38:18] Iedereen moet consent geven voordat je online staat.

[2:38:20] Een handhavingsverzoek dat wij hebben gestuurd naar Telegram vanwege de banga-lijsten.

[2:38:25] Dat wij dat moeten doen als NGO is natuurlijk hartstikke goed,

[2:38:27] maar heel cynisch is het ook.

[2:38:29] Het betekent dat de toezicht dus niet goed acteert daarop.

[2:38:33] Dus ik denk dat dat ook een hele belangrijke is.

[2:38:37] Dankjewel. En mevrouw van Stormbroek in reactie op de vraag van mevrouw Van der Werf.

[2:38:43] Ja, ik kan informatie delen over hoe dat 25 jaar geleden is gegaan.

[2:38:47] Toen heeft de Nederlandse overheid het NICAM erkend...

[2:38:53] als een landelijk instituut om kijkwijze te ontwikkelen.

[2:38:56] En daarbij was het van belang dat alle audiovisuele mediadiensten...

[2:39:00] zich ook aansloten bij het NICAM. Dus daar komt het draagvlak in zicht.

[2:39:04] Dat zie ik hier ook voor me, dat alle platforms verplicht worden om een internationaal klassificatiesysteem

[2:39:12] toe te passen.

[2:39:13] Want in Nederland kennen we de kijkwijzer, maar in heel veel verschillende andere landen

[2:39:16] heb je ook een vergelijkbaar initiatief.

[2:39:19] En ik denk dat daar ook de handen in eengeslagen moeten worden om samen te werken om één systeem

[2:39:24] aan te bieden, zodat kinderen worden geïnformeerd.

[2:39:27] Dus concreet uw vraag, ik denk dat vanuit die mediawet heel veel mogelijk is, omdat daar

[2:39:32] al de overheid een zet heeft gedaan.

[2:39:38] Ik had zelf ook nog een vraag aan de heer Hoving.

[2:39:41] U heeft gezegd dat een grote groep mensen, ik denk een aantal die hier ook hier zitten,

[2:39:46] dan de content verifiëren. Dat kan best heftig zijn en best extreem.

[2:39:52] Ik kan me ook voorstellen dat dat ook toch ook wel mentaal best pittig kan zijn.

[2:39:57] Ik was gewoon benieuwd welke dingen u dan ook tegenkomt daarin

[2:40:01] en in hoeverre daar ook mogelijke bescherming, zorg en misschien ook wel steun vanuit de overheid

[2:40:08] dan wel Kamer nog zou kunnen helpen. Dus ik ben even benieuwd of u dat aspect van volgens

[2:40:13] mij dit loodzware werk zou kunnen schetsen. Is er nog iemand die nog een aanvullende vraag

[2:40:18] heeft? Dan pakken we die ook gelijk mee. Mevrouw Katman.

[2:40:21] Nog een vraag aan mevrouw Beek, want er komt een hele hoop Europese regelgeving op ons af,

[2:40:27] waaronder de DSA. En we hebben nog zo beloofd aan iedereen die dit volgt, dat we geen

[2:40:31] afkortingen meer zouden gebruiken. Maar de digital services act is een wet die al die

[2:40:36] digitale diensten moet gaan reguleren. Dus die platformen die aangepakt moeten worden,

[2:40:43] dat gaat gebeuren vanuit Europa. Dan zijn we ook bezig met die leeftijdsverificatie.

[2:40:47] Als we die klussen hebben geklaard, zijn we er dan of moet er dan meer gebeuren?

[2:40:56] Wanneer het gaat om onze mensen, dan proberen wij daar zo goed als mogelijk voor te zorgen.

[2:41:02] Ze hebben verplichte gesprekken met psychologen. Er is een hele sterke teamspirit. Alleen dit

[2:41:08] blijft altijd nodig. Hier blijf je altijd bij moeten inchecken. Dan is het weer een kwestie

[2:41:12] wat ik eerder zei. De meldingen stijgen. Wij hebben meer mensen. Wij willen ook meer investeren

[2:41:17] in mental health, zoals we dat noemen. Dat geldt niet alleen voor ons, dat geldt ook

[2:41:20] voor de mensen bij de politie die dit belangrijke werk doen. Ik zou straks ook echt vragen

[2:41:26] aan de mensen zelf hoe wij dat doen. Doen wij dat goed? En wat is daar meer op nodig?

[2:41:30] Want dat kunnen zij vooral zelf ook heel goed beantwoorden.

[2:41:35] Dankjewel. Vrouw Beek in reactie op de vraag van mevrouw Katman.

[2:41:40] Wij zijn superblij met de DSA. We hebben er hard aan gewerkt en er zijn al heel veel mooie

[2:41:45] dingen uitgekomen. Het kan ook wel iets sneller wat ons betreft. Maar om een voorbeeld te

[2:41:51] noemen wat gunstig is voor kinderen. De Europese Commissie heeft TikTok light tegengehouden

[2:41:55] in Europa. Dat is een soort verslavende live functie van TikTok. Dat vind ik fantastisch.

[2:42:02] Maar met alleen dat tegenhouden zijn we er natuurlijk nog niet. Ik denk dat er in de

[2:42:07] DSA heel veel potentie zit, maar dat het er nog niet helemaal uitkomt. Zo staat er een

[2:42:12] verbod op dark patterns. Ik noem dat liever harmful design in. Maar als je TikTok of Instagram

[2:42:20] het is alsof je een casino inloopt waar je nooit meer uit terecht komt. Dat werkt nog

[2:42:25] niet helemaal zoals het zou moeten. Ik denk dat er nog heel veel werk te doen is om alle

[2:42:30] potentie uit die DSA te halen, zowel op Europees als nationaal vlak. Maar ook als alle potentie

[2:42:37] uit die DSA gehaald is, denk ik dat we er nog steeds niet zijn. Omdat die platformen nog

[2:42:41] steeds super dominant zijn en we nog steeds heel afhankelijk van te zijn, zowel een volwassene

[2:42:46] als een kind. Je zou maar de enige in de eerste klas zijn die geen WhatsApp heeft en dan zit

[2:42:51] je niet in die chat. Nou ja, reken maar dat je gepest wordt. Dus ik denk dat er ook heel

[2:42:56] veel nog moet veranderen aan de hele markt en het systeem achter die grote online platformen,

[2:43:02] waardoor we niet meer een handjevol, extreem dominante platformen hebben die eigenlijk heel

[2:43:06] veel over ons te zeggen hebben, maar waardoor we er honderd hebben waar we uit kunnen kiezen

[2:43:10] die allemaal lekker met elkaar kunnen communiceren. Wel een beetje toekomstmuziek, maar ik droom

[2:43:14] graag. En ik denk ook dat we daar uiteindelijk wel kunnen gaan komen. Dus er is nog wel wat

[2:43:22] werk aan de winkel, maar ik heb er wel vertrouwen in.

[2:43:28] Dankjewel. We hebben nog een aantal minuten over. Ik wil vragen of er nog Kamerleden zijn

[2:43:32] die nog vragen hebben. Ik heb nog één, maar ik zit nog even te kijken, te inventariseren.

[2:43:40] We doen mevrouw Katman en dan stel ik nog een vraag en dan denk ik dat we richting afwonden

[2:43:46] kunnen.

[2:43:50] Ik had u al gevraagd wat er moet gebeuren zodat u duurzaam kinderrechten kunt blijven

[2:43:55] beschermen.

[2:43:56] U zei ook al iets over de samenwerking met de verschillende ministeries.

[2:44:02] Maar u had het ook over uw PPS-netwerk, dus de publiek-private samenwerking.

[2:44:06] En dat is niet alleen u, zeg maar, als private partij.

[2:44:11] De ministerie zit er daarbij.

[2:44:14] Wat is er nou voor nodig om dat netwerk, behalve dus die twee dingen die u al genoemd heeft,

[2:44:18] optimaal te kunnen laten functioneren?

[2:44:23] Dank u wel. En ik heb nog een vraag aan mevrouw Berkhout.

[2:44:26] Ik heb in 2022, misschien weet u dat misschien niet, maar een motie ingediend

[2:44:30] om mediewijsheid te integreren bij de aanpak mentale gezondheid.

[2:44:34] En ik vroeg me af in hoeverre u ook merkt dat die aanpak mentale gezondheid ook daadwerkelijk

[2:44:42] vruchten afwerpt.

[2:44:44] We hebben steeds meer zorgwerkende berichten dat mentale gezondheid bij jongeren achteruit

[2:44:48] gaat, bij meisjes nog het hardst.

[2:44:50] Ik ben even benieuwd in hoeverre u daar de aanpak van de regering en ook de integratie

[2:44:57] van media wijze daarin appageert.

[2:45:00] Beantwoord van mevrouw Katman, daarvoor verwijs ik naar de heer Van Hoven al eerst.

[2:45:07] Er zijn de goede voorbeelden.

[2:45:09] Er was de PPS-werkgroep onder leiding van het ECP.

[2:45:12] Dat is degene waaruit ook de laagdrempelige meldvoorziening is toegekend.

[2:45:16] En daarin zat gewoon de hosting sector.

[2:45:19] De platformen zaten erin.

[2:45:20] Want we zijn in Nederland ook geografisch zo ingericht dat de platforms veel al hier zitten.

[2:45:24] En de bedrijven hier ook zitten.

[2:45:25] We hebben een enorme hosting sector.

[2:45:26] Dat doet het in Europa ook goed, dat we zo samen optrekken.

[2:45:30] Zo'n groep moet je vasthoudend, vind ik, hebben met elkaar.

[2:45:33] Daar hoort visie bij.

[2:45:34] Wat willen we nou online bereiken?

[2:45:36] We hebben een visie op strafbaar en op illegale content, maar wat willen we nou met elkaar

[2:45:40] bereiken?

[2:45:41] Ik denk dat het heel veel onderzoek is.

[2:45:43] En dat zou je kunnen doen door zo'n vast gremium te hebben.

[2:45:46] Wat ik zeg, ECP, een heel goed voorbeeld die die kar getrokken hebben, ook samen met

[2:45:50] Procom van het ministerie van Justitie en Veiligheid, maar ik denk dat het nodig is.

[2:45:54] Want waar dat ook bij helpt, de tijd van zowel het bedrijfsleven is maar

[2:45:58] één keer uit te geven, maar ook met de bezuinigingen die eruit komen.

[2:46:01] Anders krijg je allemaal aparte PPS werkgroepen bij ministerie X,

[2:46:03] bij ministerie I. Dan is er weer een werkgroep wapens,

[2:46:06] dan is er een werkgroep weer X, Y, Z.

[2:46:08] En als je het nou allemaal op één plek belegt, dan kun je vanuit daar ook,

[2:46:11] stel er komt iets nieuws vanuit de DSA of stel er komt iets nieuws vanuit Europa,

[2:46:15] kun je daar gelijk naar kijken. Stel er ontstaat een nieuwe trend.

[2:46:17] We zien opeens, weet ik niet, een enorme vorm van schadelijke content

[2:46:21] waar nog geen wettelijk kader voor is.

[2:46:24] Hoe gaan we dat aanpakken, hoe komen we tot goede wetgeving en hoe komen we tot toezicht?

[2:46:29] Beantwoordt dat uw vraag?

[2:46:32] Dank u wel. Dan tot slot mevrouw Berkhout.

[2:46:36] Ja, inderdaad, de motie over mentale weerbaarheid...

[2:46:40] bij jongeren en de rol van mediawijsheid daarin is ontzettend belangrijk.

[2:46:45] In ons netwerk wordt er ook aan gewerkt, er is een digitaal balansmodel ontwikkeld...

[2:46:50] waardoor je eigenlijk op een veel holistischere manier...

[2:46:54] naar digitale balans kan kijken...

[2:46:57] waarbij je zowel een evenwicht hebt in de mentale gezondheid...

[2:47:00] als de sociale, als de fysieke, want dat is allemaal in één.

[2:47:06] Mediawijsheid gaat erover dat je heel bewust omgaat met media...

[2:47:10] en dat heel kritisch kan doen, maar ook dat je media dus uit kan zetten.

[2:47:15] En door zo'n digitaal balansmodel te ontwikkelen...

[2:47:18] en daarin allerlei wetenschappers te betrekken, maar ook allerlei disciplines.

[2:47:22] Dus niet alleen maar psychologen, maar ook mensen die met sport bezig zijn.

[2:47:28] En de sociale omgeving van mensen.

[2:47:32] Dan krijg je een veel steviger model en ook een veel steviger fundament...

[2:47:37] om mentaal welzijn bij jongeren te bevorderen.

[2:47:41] Dus ja, media-wijsheid is daarin belangrijk, maar dan allebei de aspecten.

[2:47:45] Dus zowel weten hoe je goed omgaat met media, als ook hoe je media uit kan zetten en wat

[2:47:50] je in de plaats van media kan doen om je hele welzijn te verbeteren.

[2:47:57] Dank u wel voor uw antwoord.

[2:47:59] Dames en heren, daarbij zijn we gekomen aan het einde van een lange, maar wel hele informatieve

[2:48:03] zit.

[2:48:04] Ik wil onze gasten bedanken voor de tijd die jullie genomen hebben om ons te informeren.

[2:48:09] We hebben morgen een debat over het Digital Service Act.

[2:48:13] En misschien, we moeten nog even afstemmen, volgende week een debat over online kinderrechten.

[2:48:19] Dus volgens mij hebben we genoeg input van alle deelnemers opgehaald.

[2:48:23] En hopen dat over een paar weken we in ieder geval de online kinderrechten in Nederland een stukje versterkt hebben.

[2:48:29] En daar hebben jullie aan bijgedragen.

[2:48:30] Ik wil ook alle gasten bedanken, zij die online meekijken, hebben gekeken.

[2:48:35] Dit ronddaalsprek is online ook terug te vinden, dus zij die dat willen, dan staat u vrij.

[2:48:41] Ik wens u hierbij nog een fijne avond en tot ziens.