Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Jongeren en sociale media

[0:00:00] Goedemiddag allemaal.

[0:00:03] Welkom bij de vaste commissie voor digitale zaken.

[0:00:07] Vandaag een ronde tafelgesprek op de agenda jongeren en sociale media.

[0:00:11] Ik zei het net ook al in de aankondiging.

[0:00:13] Een thema wat natuurlijk veel mensen op het moment bezighoudt.

[0:00:20] Er zijn een aantal collega's nog niet.

[0:00:23] Er zijn namelijk ook nog plenaire debat op dit moment.

[0:00:26] Dus dat is de reden dat mensen ook in en uit lopen, omdat er ook nog andere verplichtingen zijn.

[0:00:32] Dus trek het u niet persoonlijk aan.

[0:00:35] Kamerleden moeten soms gewoon ook op verschillende plekken tegelijk zijn.

[0:00:40] We hebben een druk programma, drie blokken.

[0:00:44] Ik zal ook even voor u de Kamerleden voorstellen.

[0:00:47] Aanwezig is mevrouw Van der Werff van D66, mevrouw Katman van GroenLinks PvdA, mevrouw Dral van de VVD en meneer Van Houwelingen van Forum voor Democratie.

[0:00:57] We starten het eerste blok met onderzoekers.

[0:01:00] Zij zit hier aan de rechterkant.

[0:01:02] Van de Trimbusinstituut is mevrouw Griffioen.

[0:01:05] Zij is coördinator van het expertisecentrum Digitalisering en Welzijn.

[0:01:10] van het Nederlands instituut Nick van Hummel, adviseur en onderzoeker opgroeien en opvoeden.

[0:01:16] En Esther van Venema, psychiater en auteur van De Mentale Schijf van Vijf.

[0:01:22] Welkom.

[0:01:24] Ook een warm welkom aan de mensen op de tribune.

[0:01:26] Wij vinden het altijd heel fijn als mensen interesse hebben in de onderwerpen die we hier bespreken.

[0:01:31] En ik kan ook meteen dan meneer Stoffer

[0:01:35] van de SGP welkom heten meteen aan mijn inleiding.

[0:01:40] Dan wil ik graag het woord geven aan mevrouw Griffioen voor uw aftrap.

[0:01:48] Ja, geachte voorzitter, geachte leden van de commissie.

[0:01:51] Allereerst ontzettend bedankt dat ik hier namens het Expertisecentrum Digitalisering en Welzijn van het Trimmels Instituut een bijdrage mag leveren aan dit rondetafelgesprek.

[0:02:00] Zorgen over de impact van digitale technologie op het welzijn van jongeren zijn begrijpelijk.

[0:02:05] Digitaal welzijn is een onderwerp dat ons allemaal aan het hart gaat.

[0:02:09] Maar als wetenschappers weten wij dat de eerste indruk niet altijd klopt of volledig is.

[0:02:15] Ik wil daar graag een voorbeeld van geven.

[0:02:17] Een aantal jaren terug sprak ik in een focusgroep een aantal jongeren over een sociale mediaervaring.

[0:02:22] En daar zat een meisje in dat aangaf ik heb heel veel last van mijn angststoornis.

[0:02:26] Behalve als ik op Instagram mijn fotografie deel.

[0:02:30] Voor haar was het delen en perfectioneren van die foto's echt een creatieve uitlaatklep.

[0:02:34] Een plek waar zij zichzelf kon zijn.

[0:02:36] Ik kan u vertellen dat dat voor mij echt een heel ander licht wierp, op die kant van sociale media.

[0:02:42] En dat geeft aan dat dingen niet altijd zo simpel zijn zoals ze lijken.

[0:02:47] Dat is bij sociale media en welzijn des te meer het geval.

[0:02:53] Op basis van de wetenschappelijke literatuur en de digitale leefwereld van jongeren, concluderen wij dat er nog altijd geen onderbouwing is voor een universele zware impact van sociale media op de mentale gezondheid van jongeren.

[0:03:05] Dat betekent echter niet dat er helemaal geen haken en ogen zitten aan sociale media.

[0:03:10] Jongeren geven vaak aan dat er zowel positieve als negatieve ervaringen zijn en er zijn structurele en diepe problemen met het ontwerp van sommige digitale producten.

[0:03:21] Het welzijn van de gebruikers staat lang niet altijd centraal en ontwerpeigenschappen zijn toch veelal gebouwd met het winstoogmerk als prioriteit van bedrijven en niet het welzijn van jongeren.

[0:03:31] Endless Scrolls en algoritmes zijn daar goede voorbeelden van.

[0:03:34] Die zijn getraind op korte termijn plezier.

[0:03:37] En dat is ook belangrijk, maar dat is niet alles.

[0:03:42] Breder en dieper welzijn en aandacht voor de psychologische behoefte van jongeren is eigenlijk ook heel erg belangrijk.

[0:03:49] En dat wordt op dit moment volledig genegeerd.

[0:03:51] Denk aan autonomie, prioritijsbesteding en morele ontwikkeling.

[0:03:55] Het is dan ook echt tijd voor actie en we willen samen, met z'n allen denk ik, een digitale samenleving waarin jongeren veerkrachtig, veilig, maar ook blij en gezond kunnen functioneren.

[0:04:07] Vanuit onze expertise pleiten we voor een structurele en systeemgerichte oplossing.

[0:04:11] Die zijn veel effectiever dan generieke one-size-fits-a-few restricties.

[0:04:16] Daarom zijn wij voor een integrale aanpak die rekening houdt met de complexiteit en realiteit waarin we leven.

[0:04:22] En dat betekent aandacht voor genuanceerd onderzoek dat zowel de positieve kant als de negatieve kanten belicht.

[0:04:27] Dat betekent dat techbedrijven aangemoedigd of zelfs verplicht moeten worden om welzijnsgericht ontwerp te produceren dat schade aan banden legt en dat welzijn daadwerkelijk floreert.

[0:04:39] En dat betekent ook dat we passende ondersteuning moeten bieden voor ouders.

[0:04:42] En tot slot, en bovenal, betekent dat dat we beleid moeten ontwikkelen, niet alleen voor jongeren, maar ook met jongeren, zodat zij veerkrachtig en veilig en weerbaar kunnen zijn.

[0:04:54] Dank jullie wel.

[0:04:56] Dank u wel voor uw bijdrage.

[0:04:57] Mevrouw Griffioen, geef ik graag het woord aan meneer Van Hemmel.

[0:05:01] Dank je wel.

[0:05:01] En ook dank voor de uitnodiging dat ik hier namens het

[0:05:05] En je iets mag zeggen.

[0:05:08] Een tijdje terug sprak ik een jongerenwerker die zich inzet samen met zijn collega's om een plek te creëren waar jongeren zich kunnen ontwikkelen en hun talenten kunnen ontdekken.

[0:05:17] Online.

[0:05:18] Ze mogen langskomen, samen leren en leuke dingen doen.

[0:05:21] Hij is aanwezig.

[0:05:22] Hij begrenst als ze uit de bocht vliegen.

[0:05:25] Hij bespreekt in streams thema's die hen bezighouden en biedt ze ook nog eens een podium.

[0:05:30] Ook richt hij een fysieke plek voor hen in, waar ze met de juiste hardware hun digitale talenten konden inzetten, van programmeren tot contentcreatie.

[0:05:40] Deze professional begrijpt dat de online wereld een plek kan zijn om samen te komen, zolang je hem maar goed inricht.

[0:05:46] Het is laagdrempelig en het kan een ingang zijn voor diegenen die anders niet langs durven te komen, om makkelijk contact te maken en vragen te stellen, zonder oordeel.

[0:05:56] En er zijn meer van dit soort voorbeelden.

[0:05:58] Ik vertel dit omdat het laat zien hoe divers sociale platforms zijn en dat het meer is dan een schadelijk middel en dat niet alle onderdelen inherent schadelijk zijn.

[0:06:08] En het klopt dat het nog te vaak een omgeving is waar hele schadelijke onderdelen in zitten.

[0:06:14] We kunnen de verantwoordelijkheid voor die bescherming niet alleen bij ouders neerleggen.

[0:06:19] Hiervoor zijn gerichte maatregelen nodig.

[0:06:22] Een positieve, veilige online omgeving heeft naast bescherming regulering nodig.

[0:06:28] Door af te dwingen dat sociale platforms veiliger worden en de rechten van kinderen daarin gewaarborgd zijn.

[0:06:34] Bijvoorbeeld met hulp van de code van kinderrechten en de bestaande nationale en internationale wetgeving.

[0:06:40] Zodat als je daar bent, je kunt vallen zonder meteen je nek te breken.

[0:06:45] En verantwoordelijke volwassenen die als professionals en als ouder begeleiden, begrenzen en balans aanbrengen in off- en online-tijd.

[0:06:54] Volwassenen en publieke figuren die het goede voorbeeld geven.

[0:06:59] En plekken waar je als kind naartoe kan gaan als er iets misgaat.

[0:07:04] Want ook als je je veilig waant, kan het misgaan.

[0:07:08] Dat hoort er nu eenmaal bij.

[0:07:09] Maar dan mag je niet horen, zie je wel, je mocht hier niet komen.

[0:07:13] Dan moet je horen, kom hier, we gaan je helpen.

[0:07:17] Zo leren we jongeren dat we ze serieus nemen en dat ze het waard zijn om ons allemaal in te spannen.

[0:07:23] Om ons allemaal in te spannen om het online beter, leuker en veiliger te maken.

[0:07:28] Zodat ze mee kunnen doen.

[0:07:29] En dat we daarbij ook vaak genoeg zeggen dat een andere plek, bijvoorbeeld buiten op het voetbalveld, misschien even beter is.

[0:07:37] En ik sluit af dat het nu soms een beetje lijkt, ook in de aanloop hiernaartoe, alsof we een beetje tegenover elkaar staan met voor en tegen een verbod.

[0:07:45] Terwijl we eigenlijk onderaan de streep allemaal hetzelfde willen.

[0:07:48] En dat is dat kinderen veilig, gezond en gelukkig zijn.

[0:07:52] En over de weg naar hoe we dat in de online omgeving moeten bereiken, moeten we met elkaar een gesprek voeren.

[0:07:58] Waar ruimte is voor alle perspectieven en niet in de laatste plaats voor het perspectief van kinderen en jongeren zelf.

[0:08:03] Dank je wel.

[0:08:05] Dank u wel, meneer Van Hummel.

[0:08:06] Mevrouw Van Venema.

[0:08:08] Ja, geachte voorzitter, commissieleden, dank voor deze uitnodiging en vooral dank dat dit belangrijke thema wordt geagendeerd op deze zorgvuldige manier.

[0:08:18] Ja, de vraag is natuurlijk waar moet je beginnen?

[0:08:20] We hebben zoals veel zaken in de samenleving te maken met de polarisatie voor of tegen sociale media.

[0:08:27] En ik denk dat dat een dichotomie is die eigenlijk geen recht doet aan dat waar we ons op moeten richten, namelijk op jongeren die opgroeien, jongeren die nog een onvoldoende volgroeide prefrontale cortex hebben, ingewikkelde terminologie, maar om aan te geven dat dat wat de impulscontrole reguleert en de emoties reguleert nog eigenlijk gemiddeld tot 25 jaar niet is volgroeid.

[0:08:50] En dan kom je als jongere in contact met die mobiele telefoon en met sociale media, waarbij de platforms natuurlijk als doel hebben om de aandacht van onze kinderen en ook van onszelf als volwassenen te verkopen aan de hoogste bieder en om de aandeelhouders tevreden te houden.

[0:09:05] Dat is natuurlijk wel zorgwekkend als het gaat over de mentale gezondheid van onze kinderen.

[0:09:10] En er is veel discussie ook tussen mij en collega's over de mate van onderzoek die onderbouwt.

[0:09:17] Of dit nou problematisch schadelijk is, noem het allemaal maar op.

[0:09:21] En er is veel onderzoek, ook in het belangrijke boek van Jonathan Haidt, Generatie Angststoornis, waar je methodologisch nog wel wat vraagtekens bij kan stellen.

[0:09:30] Er zijn wel een aantal onderzoeken die wat mij betreft niet ter discussie staan.

[0:09:35] Vorige week een recent onderzoek in de JAMA, Journal American Medical Association, waarbij een onderzoek werd gepresenteerd waarin 12.000 kinderen zijn gevolgd in de leeftijd van 9 tot 12 jaar en waarbij eigenlijk longitudinaal werd gezien dat na een periode van een aantal maanden deze kinderen

[0:09:53] Ik denk dat het belangrijkste is dat er geen verantwoordelijkheid is.

[0:10:04] Ik denk dat er geen verantwoordelijkheid is.

[0:10:08] en hoe zij dan zichzelf en hun stemming en hun mentale welzijn omschrijven, namelijk beter als ze gedetoxed zijn.

[0:10:16] En er is natuurlijk ook de eigen rapportage van kinderen die toch gewoon zelf zeggen, ik ben verslaafd, ik zit langer op mijn telefoon dan ik fijn vind en ga zomaar door.

[0:10:26] Er is meer onderzoek nodig om dit gedegen te kunnen vaststellen.

[0:10:33] Ik denk dat dat terecht is, maar dat zaken ook parallel kunnen bestaan.

[0:10:37] Dat meer onderzoek goed is om een ander te onderbouwen en nuances aan te brengen.

[0:10:42] Maar dat we ook nog zoiets als gezond verstand hebben.

[0:10:45] en ook wel tegelijkertijd kunnen zeggen dat dit een zorgelijke situatie is.

[0:10:50] Net als met roken en met autogordels was het eerst ook allemaal moeilijk meer onderzoek, maar uiteindelijk zijn we natuurlijk blij achteraf dat we het zo hebben georganiseerd, dat we daarin de schade en de risico's met elkaar beperken.

[0:11:02] Ik vraag me soms af in Nederland of het woord betuttelen, wat natuurlijk snel wordt,

[0:11:06] tevoorschijn wordt gehaald als kaart, of dat ook een manier is om kinderen in die zin te veel te verwaarlozen.

[0:11:15] Er is een optimum aan vrijheid en niet betuttelen en voorbij dat optimum vind ik persoonlijk dat het overgaat in verwaarlozing.

[0:11:21] Ik snap ook uiteraard dat wetgeving vraagt om gedegen voorbereiding, dat dat tijd kost, maar ik denk in Nederland moeten we ook oppassen dat we niet te veel verzanden in eindeloze commissies met rapporten en daarop moeten wachten.

[0:11:33] En nog los daarvan is de vraag wat de rol van de lobby daarin is als het gaat over sociale media.

[0:11:38] Als psychiater maak ik me daadwerkelijk zorgen over het gebruik van sociale media op de mate waarin dat nu gebeurt door kinderen.

[0:11:46] Je ziet eigenlijk dezelfde symptomen die je bij alle vormen van verslaving ziet.

[0:11:50] Dan gaat het over depressie, angst, leegte en zelfs suicidaliteit.

[0:11:55] Je zou kunnen zeggen het is niet de sociale media de telefoon aan zich, maar het versterken van misschien al een bestaande kwetsbaarheid bij jongeren.

[0:12:03] En zelfs dat vind ik natuurlijk ook heel erg belangrijk om te noemen.

[0:12:07] Dan is het natuurlijk niet gewenst dat dat verder wordt vergroot, die kwetsbaarheid, door het zonder regulering laten gebruiken van sociale media door kinderen.

[0:12:17] Een ander argument dat vaak wordt genoemd is natuurlijk dat er een aantal jongeren zijn, denk aan jongeren op de Veluwe, LHBTQ-gemeenschap, die dolblij zijn met sociale media om uit hun isolement te komen en zich toch gezien en gehoord te voelen.

[0:12:32] Ik denk dat dat een ander onderwerp is en dat daarbij de getallen ook niet opwegen, de risico's, de kwetsbaarheid die wordt geïnduceerd door de sociale media.

[0:12:41] tegen die jongeren die daar daadwerkelijk heel veel profijt van hebben.

[0:12:45] Ten slotte denk ik dat het ook belangrijk is om niet alleen maar te verbieden, maar ook in te zetten op hoe ga je om met sociale media, hoe gaan wij om met iets wat zo ongelooflijk verslavend is, nogmaals niet alleen voor jongeren, maar ook voor ons als volwassenen.

[0:12:59] Dus ik denk dat dat ook een thema is wat naast het reguleren van het sociale mediagebruik bij jongeren ook zeer zeker geagendeerd moet worden.

[0:13:08] Dank u wel.

[0:13:09] Dank u wel.

[0:13:10] We heten ook nog even mevrouw Bruining van NSC welkom en mevrouw Koekoek van Volt.

[0:13:16] Fijn dat jullie er ook zijn.

[0:13:17] En ik wil graag mevrouw Van der Werf het woord geven voor het stellen van een vraag en adresseren ook even aan wie u de vraag stelt.

[0:13:27] Dank aan de gasten vandaag.

[0:13:33] Ik zou graag een vraag willen stellen aan mevrouw Gievejoen.

[0:13:39] U benadrukt in het verhaal dat het per kind verschilt hoe schadelijk social media zijn.

[0:13:48] Tegelijkertijd horen wij ook de oproep uit de samenleving van de ouders.

[0:13:52] Die zegt dat er met meer dan 80 procent duidelijke leeftijdsgrenzen moeten komen.

[0:14:00] De onderzoeker van de UvA, die was deze week op Radio 1, had een onderzoek waaruit blijkt dat 60 procent van de jongeren

[0:14:10] Wij ervaren een negatief effect van social media op ons geluk en zelfvertrouwen.

[0:14:17] Dus hoe zorgen we er nou voor dat we de nuance en de context van dat meisje dat u aangift... Ik voel me gelukkig als ik toch foto's kan posten.

[0:14:27] Dat we dat niet te groot maken als we zien dat een meerderheid van de jongeren zegt... voor mij heeft het hele grote negatieve effecten.

[0:14:39] Dank aan mevrouw van der Werff voor deze vraag.

[0:14:44] Ik denk dat u refereert aan het onderzoek uit 2024, als ik het goed heb, van mevrouw van der Wal.

[0:14:51] En de percentage wat u noemt, dat zit net iets anders in elkaar.

[0:14:56] Wat de auteurs van dat paper hebben gedaan is, zij hebben honderd dagen lang jongeren gevraagd om aan het einde van de dag aan te geven hoe hun welzijn is.

[0:15:05] En ook om aan te geven wat zij die dag hebben gedaan op sociale media.

[0:15:09] En die twee hebben zij gemiddeld aan elkaar gerelateerd over de spannen van honderd dagen.

[0:15:17] Dat betekent dat er ons inziens de conclusies die uit die resultaten getrokken kunnen worden net anders zijn dan hoe zij ook veelal in de media zijn geïnterpreteerd.

[0:15:28] Namelijk, we hebben nog steeds te maken met een verband aan het einde van de dag tussen welzijn en sociale media, maar nog steeds geen inzicht in wat er nou eerst kwam.

[0:15:38] Los van de details van dat onderzoek, want ik denk dat het geen zin heeft als we daarin verzanden, zal ik ingaan op uw vraag over hoe balanceren we nou eigenlijk de situatie van schade bij sommige jongeren en de voordelen bij andere jongeren.

[0:15:52] En ik wil daar toch weer wijzen op het feit dat we geen aanleiding hebben om te concluderen dat er echt op grote, zware schaal sprake is van mentale gezondheidsklachten als gevolg van sociale media.

[0:16:04] En zoals ik al zei, dat neemt niet weg dat er echt wel jongeren kunnen zijn die misschien al...

[0:16:10] zoals mijn collega hier aangaf, dat zij misschien al onderliggende klachten hebben, waardoor zij ook op een bepaalde manier sociale media gaan gebruiken, die ook weer een versterkend effect hebben.

[0:16:21] Dat is absoluut iets waar we echt goed aandacht voor moeten hebben.

[0:16:24] En dat is ook waarom we het zo belangrijk vinden dat we dus goed kijken naar de producteigenschappen van sociale media en dat we daar aan gaan draaien, dat we zorgen dat dat goed gereguleerd is, want op dat moment verbetert de situatie voor iedereen.

[0:16:41] Om op specifiek dat laatste dan in te gaan.

[0:16:45] Want je kan van mening verschillen over de eigenschappen van sommige social media.

[0:16:50] En natuurlijk zijn er schadelijkere en minder schadelijke.

[0:16:53] Maar in uw position paper pleit u dat algoritmes minder dienen te sturen op verslaving.

[0:17:00] Terwijl uw collega, mevrouw Van Venema, net aangeeft hoe zij ziet hoe groot die schade van die verslaving is.

[0:17:08] U pleit niet voor geen mate van verslaving.

[0:17:10] En welke mate van sturen op verslaving vindt u dan acceptabel voor kinderen?

[0:17:16] Of wilt u zeggen, ja, ik zou zeggen, ik wil helemaal geen verslaving.

[0:17:20] Want dat vind ik hier het ingewikkelde aan.

[0:17:22] Als je het vergelijkt met alcohol, met nicotine en met andere zaken, daarvan zeggen we ook niet.

[0:17:28] Daar beginnen we te vroeg aan.

[0:17:29] Terwijl we nu wel zien dat het voor hele grote groepen, dat verslavende punt, een probleem is.

[0:17:34] Dit was geen korte vervolgvraag, maar mevrouw Griffioen.

[0:17:44] Ja, absoluut.

[0:17:45] Ik snap dat psychiaters ook veelal en vooral in aanraking zullen komen met de jongeren die echt, echt ernstige problemen ervaren.

[0:17:53] Dus dat is toch ook wel een heel specifiek beeld wat er dan ontstaat.

[0:17:57] En waar ik graag op wil wijzen is dat er toch... Kijk, als we het hebben over verslaving, die term wordt makkelijk gebruikt.

[0:18:05] Die term wordt tegenwoordig ook makkelijk gebruikt door jongeren zelf.

[0:18:08] Maar hoe wij verslaving definiëren is toch wel echt een extreme vorm die we maar bij een heel klein percentage van de jongeren zien.

[0:18:21] Dat is overmatig gebruik wellicht, maar dat betekent niet per se dat er echt sprake is van een klinische verslaving.

[0:18:29] Dank u wel.

[0:18:30] Mevrouw Katman.

[0:18:33] Dank, voorzitter.

[0:18:35] Ik ben ook een van die moeders met tieners die met de handen in het haar zitten.

[0:18:39] Dus ik ben heel blij voor alle ouders die hier zijn en die kijken dat we daar zo aandacht voor hebben.

[0:18:44] Mijn vraag gaat nu even over de jongeren zelf.

[0:18:45] En we zijn altijd heel goed in staat in Den Haag om alles over één kant te scheren.

[0:18:50] Maar volgens mij zijn we het allemaal erover eens dat jonge kinderen, die platform, die zijn er ook helemaal niet geschikt over.

[0:18:56] Daar hebben we het eigenlijk niet over.

[0:18:57] Als we het over jongeren hebben, dan gaat het eigenlijk over die middelbare schoolleeftijd.

[0:19:02] Ik wil graag richten aan mevrouw Griffioen van het Trimos Instituut.

[0:19:09] Er wordt heel vaak tegen ons gezegd om vaker in gesprek te gaan met de jongeren, juist ook omdat zij zelf aan de bel trekken.

[0:19:17] Zij zeggen dat ze zo'n verbod niet zien zitten.

[0:19:20] Dat snap ik.

[0:19:21] Maar ze zijn wel heel fair en eerlijk over, maar wat minder zou ik wel willen.

[0:19:26] En ik vind het ook moeilijk om de telefoon weg te leggen.

[0:19:29] En ik zit eigenlijk vaker op dat ding dan me lief is.

[0:19:32] Ik heb eigenlijk wel een beetje hulp nodig.

[0:19:33] En u zei van er moet eigenlijk veel meer beleid met die jongeren gemaakt worden.

[0:19:40] Weet u hoe wij dat aan moeten pakken?

[0:19:41] En kent u ook voorbeelden van waar dat op een goede manier gebeurt?

[0:19:44] Mevrouw Greffioen.

[0:19:47] Voorbeelden van beleid dat samen met jongeren is vormgegeven zijn echt heel erg schaars.

[0:19:53] Er is recent een WHO-rapport uitgekomen waarin grootschalig onderzoek gedaan is naar beleidsvorming op dit thema.

[0:20:00] En daar was een van de conclusies helaas ook dat er toch maar heel mondjesmaat beleid wordt gevormd in samenspraak met jongeren.

[0:20:09] Ik denk de beste manier om dat te doen is uiteraard om in gesprek te gaan, structureel in gesprek te gaan, ook in gesprek te gaan met vele verschillende type jongeren in verschillende gedeeltes van Nederland, met verschillende achtergronden.

[0:20:21] En zoals u aangeeft, en zoals ik ook al heb gezegd, er zijn zeker echt negatieve ervaringen die jongeren ervaren op sociale media.

[0:20:28] Wij zijn het er compleet mee eens dat we jongeren zo goed mogelijk moeten ondersteunen bij het omgaan daarmee.

[0:20:34] Ouders spelen daar een grote rol in, maar jongeren doen daar ook zelf al heel erg veel in.

[0:20:39] Ik heb heel veel jongeren gesproken die zelf hun algoritme cureren, dus die daar echt gewoon het voortouw in nemen om te zeggen ik neem de controle terug en ik geef dit voor me zoals het voor mij werkt.

[0:20:49] vind ik ontzettend bewonderenswaardig, maar ik wil niet dat de verantwoordelijkheid alleen bij de jongeren ligt.

[0:20:54] Er moet echt gewoon iets gedaan worden aan de ontwerpeigenschappen waarvan we inderdaad zien dat de jongeren daar last van ervaren.

[0:21:02] Mevrouw Dral.

[0:21:05] Dank u wel, voorzitter.

[0:21:06] En dank aan de sprekers.

[0:21:08] Ik zou graag iets aan mevrouw Griffioen willen vragen.

[0:21:14] Dat gaat over het feit dat u zei, de kinderen weerbaar maken, daar zei u net ook iets over, ouders die daar een rol in spelen, een veilige omgeving.

[0:21:22] Het gaat dan ook vooral over de verslavende algoritmes, naar mijn idee, in de schadelijke content.

[0:21:26] En daar hebben de techbedrijven volgens mij een grote rol in.

[0:21:29] En als dat volgens mij hard wordt aangepakt, is er volgens mij een heel groot probleem al voor hulp als het op dat punt aan gaat.

[0:21:38] Kunt u nog iets concreets aangeven wat er nodig is om die kinderen meer weerbaar te maken en die omgeving veiliger te maken?

[0:21:50] Ja, dat heeft voor een groot deel te maken met de ondersteuning die zij ervaren, ook vanuit hun ouders, zoals mijn collega Nick van Hummel hier ook al aangaf.

[0:22:01] Ouders spelen een ontzettend grote rol eigenlijk in de vorming van kinderen.

[0:22:05] En dat is tot op een zekere hoogte het geval.

[0:22:07] Op het moment dat kinderen de middelbare school ingaan, dus rond hun twaalfde, dan zwakt die invloed van de ouders steeds meer en meer af.

[0:22:14] Maar ouders die een positieve opvoedstijl hanteren, dat hebben we gezien in het promotieonderzoek van een van onze collega's bij het Trimbos Instituut, die kunnen echt een heel groot verschil maken in de weerbaarheid en de veerkrachtigheid van kinderen, zodra ze de jongere tijd ingaan, om beter om te gaan en minder problematisch sociale media gebruik te ontwikkelen.

[0:22:37] Dank u wel, meneer Stoffer.

[0:22:41] Dank, voorzitter.

[0:22:45] Ik ben eigenlijk wel benieuwd wat de effecten zijn van schermgebruik op heel jonge leeftijd voor het gedrag van kinderen op latere leeftijd.

[0:22:53] En dat zal wellicht ook misschien extra tot verslaving kunnen leiden.

[0:22:57] En daarbij de vraag van in hoeverre zou het misschien kunnen helpen als op opvang en scholen tot een bepaalde leeftijd, laten we zeggen vier jaar of vijf jaar, schermgebruik helemaal zouden verbieden.

[0:23:07] Zou dat daar ook bij kunnen helpen om later effecten te voorkomen?

[0:23:13] Ik heb geen idee, voorzitter, wie die vraag het best kan beantwoorden, maar laat ik gewoon eens beginnen bij mevrouw Van Veenemaas, die zegt ik heb er geen enkele gedachte bij, dan kan de vraag ook door, maar de microfoon gaat aan, dus er komt wel wat, denk ik.

[0:23:23] In het onderzoek dat ik heb gedaan voor mijn boek De Metale Schijf van Vijver, waarbij een van de schijven is weesmatig met telefoongebruik, stuitte ik op onderzoek wat heel duidelijk verband laat zien tussen de mate van schermtijd en het ontwikkelen van het bewegingssysteem, bewegingsapparaat, motoriek van kinderen, ook effecten op de ogen, schadelijke effecten, en de cognitieve ontwikkeling.

[0:23:48] Daar zijn ook al wat studies over gedaan, maar het is op dat punt natuurlijk heel lastig om dat goed aan te tonen.

[0:23:53] Maar met name opvallend vond ik de motoriek en de kwaliteit van zicht, de oogontwikkeling.

[0:24:03] Voorzitter, er zat ook de vraag in of verbieden bij bijvoorbeeld opvangcentra en scholen tot een bepaalde leeftijd ook daarbij zou kunnen helpen.

[0:24:13] Die vraag stellen is hem denk ik beantwoorden, ja.

[0:24:18] Ik denk dat dat een logische gevolgtrekking is, dat als kinderen spelen, motorisch zich ontwikkelen, interactie hebben met elkaar fysiek, dat dat leidt tot een ander soort motorische ontwikkeling dan achter een scherm urenlang.

[0:24:35] Ik wil iets toevoegen over wat we weten over de jonge leeftijd.

[0:24:39] En de fysieke gevolgen daarvan, daar weten we wel wat over.

[0:24:44] Dus dat die schermtijd ten koste gaat van dingen waar ze op jonge leeftijd mee bezig zouden moeten zijn.

[0:24:49] En dat is spelen, aanraken, dat soort dingen eigenlijk.

[0:24:56] En wat we vooral weten bij de jonge leeftijd, is dat intentioneel gebruik van media, dat dat potentieel voordelen kan opleveren.

[0:25:05] En dan hebben we het over bijvoorbeeld dat er begeleiding is vanuit de volwassenen, dat de media die gebruikt worden leeftijdsadequaat zijn.

[0:25:12] Bij de jonge leeftijd bijvoorbeeld.

[0:25:14] Er zijn studies die laten zien dat de effecten van sesamstraat bijvoorbeeld tot op latere leeftijd nog steeds zichtbaar zijn.

[0:25:21] Maar dat zijn best wel strikte voorwaarden.

[0:25:24] Dus je zou op jonge leeftijd kunnen zeggen vanuit gezondheidsperspectief

[0:25:28] We raden af om het onder die leeftijd te gebruiken.

[0:25:34] Tenzij je het op een zo intentionele manier kunt doen dat het potentieel voordelen oplevert ten opzichte van iets anders.

[0:25:45] Dank, voorzitter.

[0:25:46] Dat boek is al genoemd, de generatie angststoornis.

[0:25:51] Ik dacht dat ik het zeker zou lezen.

[0:26:02] Maar u claimt dus dat de heer Haidt, we hebben hem ook hier te gast gehad, en ik vond dat hij heel indrukwekkend betoog hield in de kamer, online weliswaar, maar oké, dat zijn claims in zijn boek ongefundeerd zijn.

[0:26:13] Dus mijn vraag is, misschien kunt u dat toelichten, welke claims zijn waarom ongefundeerd en misschien als vervolg, want ik denk dat mevrouw Van Veenema naar andere kijken op de zaak heeft, dus ik betoog een soort, misschien dat u dan weer kan reageren en ook iets van de discussie opbellicht op wat mevrouw Griffioen zegt.

[0:26:26] Ja, dank.

[0:26:28] Mevrouw Griffioen.

[0:26:29] Ik zou nooit iemand afraden om een boek te lezen.

[0:26:31] Dat lijkt me sowieso een goede gewoonte.

[0:26:36] De claims van Jonathan Haidt waar wij in zijn boek problemen mee hadden, is de stelligheid waarmee hij aangeeft dat de mentale gezondheidsklachten die hij ziet, die hij weergeeft, dat die veroorzaakt zijn door sociale media.

[0:26:51] Daar is echt heel erg veel op af te dingen.

[0:26:54] Ook in Nederland overigens.

[0:26:55] Het is denk ik goed om aan te stippen dat Jonathan Hyde werkt vanuit Amerikaanse context.

[0:26:59] Is een Amerikaanse psycholoog, auteur.

[0:27:02] Put heel erg veel uit de situatie in Amerika.

[0:27:05] En de cijfers rondom mentale gezondheid die we daar zien in Amerika zijn toch ook anders dan de cijfers die we in Nederland zien.

[0:27:13] Als we bijvoorbeeld in Nederland kijken naar de afname die er inderdaad wel is, een lichte afname in mentale gezondheid van jongeren, dan zien we toch voornamelijk op basis van HBSC-onderzoek, dat samen met de Universiteit Utrecht is uitgevoerd, dat schoolprestatiedruk waarschijnlijk een heel grote rol speelt daarin.

[0:27:31] En wanneer sociale media dan wel genoemd worden, dan is dat vaak toch in de context van omgaan met de stress die jongeren ervaren en coping.

[0:27:39] Dus die stelligheid die hij daar heeft, die kunnen wij inderdaad helaas niet ondersteunen.

[0:27:46] Mevrouw Van Venema.

[0:27:49] Ja, interessant onderwerp om inderdaad naar dit boek te kijken op die manier.

[0:27:54] Ik ben het eens met mevrouw Griffioen dat de stelligheid, wat ik al in mijn betoog noemde, dat de methodologie hierin nog wel ingewikkeld is om daar zo stellig over te kunnen zijn.

[0:28:04] Dat is ook niet waardoor ik gegrepen was door het boek van Jonathan Haidt, maar met name over zijn bezorgdheid.

[0:28:12] Met name hoofdstuk 8 vond ik daarin een belangrijk hoofdstuk waarin hij eigenlijk benoemde dat wij jongeren een asynchroon leven laten leiden door dat sociale mediagebruik.

[0:28:25] Daar heb ik niet zoveel onderzoek voor nodig.

[0:28:27] We hebben een oerbrein die gericht is op met elkaar verkeren, het liefst fysiek.

[0:28:34] Als je het helemaal doortrekt, het liefst met elkaar ritmisch bewegen, namelijk volksdansen.

[0:28:38] Dat hoeft van mij niet meer.

[0:28:40] Maar dat asynchrone leven, in je eentje met die telefoon op zolder zien hoe iedereen een geweldig fantastisch leven heeft, behalve jij, dat dat een buitengewoon treurig beeld is.

[0:28:51] wat ik in de praktijk ook veel zie.

[0:28:53] Niet alleen gebiased door mijn blik op patiënten, maar ook in de leefomgeving waar ik veel met jongeren te maken heb die geboren zijn rond het jaar 2000.

[0:29:02] En je kan je natuurlijk ook afvragen of je het boek van Jonathan Hyde niet moet zien als een waarschuwing.

[0:29:08] Dat je zegt van hij stipt een belangrijke risicofactor aan voor mentaal

[0:29:14] onwelbevinden in feite bij jongeren.

[0:29:18] Waarom zouden we dan niet zeggen, want dat is natuurlijk een heel complex verhaal, er zijn talloze oorzaken, ook heel persoonlijk bepaald, in Nederland, Amerika, grote verschillen, allemaal eens.

[0:29:27] Alleen als je toch met elkaar ziet dat er een enorme risicofactor is waar je wat aan zou kunnen doen, dan vraag ik me af of dat niet al op zich heel belangrijk is om het op die manier te beschouwen en daar concreet maatregelen tegen te nemen.

[0:29:44] Dank u wel, mevrouw Bruining.

[0:29:47] Dank u wel, voorzitter.

[0:29:49] Vroeger werd je gepest op het schoolplein en kon de juf dat nog zien en daar waarschijnlijk wat aan doen.

[0:29:56] Nu hebben we een hele andere vorm van pesten, het online pesten via WhatsApp, Instagram, Facebook en al die andere mediums die je hebt.

[0:30:06] De vraag stel ik aan meneer Van Hummel.

[0:30:11] Wat is er voor nodig om dat online pesten tegen te gaan?

[0:30:14] Ik weet dat er een aantal programma's op school worden gegeven.

[0:30:18] Maar wat is er nog meer nodig?

[0:30:19] Het trekt sneller op dan dat we het tegen gaan.

[0:30:22] Dank u wel.

[0:30:24] Dank je wel voor het vraag.

[0:30:27] Wat we over dat pestgedrag en dat cyberpestgedrag weten, is dat, en dat stipte mevrouw Van Venema net ook al aan, een kwetsbaarheid in de fysieke wereld vertaalt zich heel vaak door naar die kwetsbaarheid in de digitale wereld.

[0:30:39] Dus kinderen die gepest worden in de klas, worden vaker ook gepest online.

[0:30:45] En het probleem met dat cyberpesten, inderdaad, dat stopt niet.

[0:30:50] Dat gaat door buiten de grens van school, waar je vroeger naar huis ging en dat je veilige plek was.

[0:30:55] En nu gaat dat door.

[0:30:56] Maar wat we wel zien in onderzoek daarover, is dat de aanpak van pesten die we hebben in de fysieke wereld, dus bijvoorbeeld met elkaar de sociale normen spreken in de klas, regels met elkaar opstellen over hoe we met elkaar omgaan en daar het gesprek over voeren, die werken ook voor die doorvertaling naar de online wereld.

[0:31:17] Alleen het probleem is heel vaak dat

[0:31:19] dat er minder aanwezigheid is van belangrijke volwassenen... die kunnen corrigeren, begrenzen, bijsturen... of kunnen weten dat een ruzie de volgende dag je klas inkomt.

[0:31:32] Dus we weten dat een aantal dingen daarin ook werken.

[0:31:36] En daar is nog iets extra's nodig.

[0:31:39] Namelijk dat je... denk ik ook heel erg mechanismes probeert in te bouwen...

[0:31:47] Dat pleit voor het ontwerp van online omgevingen.

[0:31:53] Om laagdrempelig meldingen te kunnen doen.

[0:31:57] Maar ook door te kunnen sturen naar mensen die je kunnen helpen.

[0:32:03] En de beschikbaarheid aan kinderen te laten zien.

[0:32:07] Als er te veel stappen zijn om hulp te vragen, doen kinderen het niet.

[0:32:11] En ik denk dat het ook iets vraagt van het vakmanschap van bijvoorbeeld professionals in de klas.

[0:32:17] Dus wat ik heel vaak zie, ook nu in mijn werk, is dat professionals, als ik het nu specifiek heb over leerkrachten, dat die denken, ja, ik weet niet hoe ik daarmee om moet gaan.

[0:32:26] Maar ze weten wel hoe ze om moeten gaan met een ruzie die op het schoolplein ontstaat.

[0:32:30] En eigenlijk heb je daar dezelfde vaardigheden voor nodig.

[0:32:33] Dus het gaat heel erg over ook bewustmaken van, je kan al een heleboel wel.

[0:32:39] en toon interesse, open het gesprek en heb het met elkaar over die sociale omgangsvormen ook online.

[0:32:46] En heb daar ook een visie op, dus hebben we met elkaar groepsapps of niet.

[0:32:50] Dus die sociale norm is daarin heel belangrijk om aan te stellen.

[0:32:54] Dank u wel.

[0:32:55] Mevrouw Koekoek.

[0:32:57] Ik zou graag aan meneer Van Hummel een vraag willen stellen over digitale geletterdheid.

[0:33:03] Wij hebben dat in Nederland niet in het basiscurriculum zitten.

[0:33:05] Nu zijn er natuurlijk ook veel maatschappelijke initiatieven ontstaan daaromtrend.

[0:33:12] Mijn vraag is erop gericht.

[0:33:13] We hebben het veel gehad over het ontwerp en daar kun je kinderen in beschermen en weerbaar maken.

[0:33:17] Digitale geletterdheid zou ook zoiets kunnen zijn.

[0:33:20] Wat is daar in de betere route?

[0:33:23] Zou je het op moeten nemen met het basiscurriculum?

[0:33:35] Dat is een goede vraag.

[0:33:38] We zien veel goede initiatieven, maar mensen weten van paniek niet meer wat er kwalitatief goed is en wat niet.

[0:33:47] Zijn we er met een les over nepnieuws?

[0:33:50] Of moeten we volgende week een les geven over in de latere leeftijden seksuele voorlichting?

[0:33:58] Dat zijn moeilijke vragen waar het onderwijs mee worstelt.

[0:34:05] De twee routes zijn belangrijk.

[0:34:09] Digitale geletterdheid en aandacht hebben voor de vaardigheden die nodig zijn.

[0:34:15] bewegen in die online wereld.

[0:34:16] Dus dat gaat over kritisch kijken, maar ook weer over normen en waarden, over wat kun je er vinden en wat ook niet.

[0:34:24] En anderzijds ook in al die onderwerpen waar we normaal al lessen over geven, dus wat er al in het basiscurriculum eigenlijk al zit.

[0:34:32] Dus dat gaat bijvoorbeeld over pesten, zoals ik het net vertelde, om daar ook die koppeling te maken naar die online wereld.

[0:34:38] Want op het moment dat wij het heel erg los van elkaar trekken,

[0:34:41] sluit het eigenlijk niet meer aan op de belevingswereld van kinderen en jongeren, zoals dat nu al het geval is.

[0:34:46] Want voor hun is er geen onderscheid tussen die twee werelden.

[0:34:49] Dus het is een beetje, het is denk ik een tweeweg.

[0:34:51] En om nog even terug te komen op die vele initiatieven.

[0:34:54] Ik denk dat de vele initiatieven die er zijn, dat we daar ook heel kritisch naar moeten kijken.

[0:34:58] Wat vinden we kwalitatief goed?

[0:35:00] Kunnen we dat een beetje stroomlijnen?

[0:35:01] En hoe past dat bijvoorbeeld ook in het curriculum, als dat erin komt?

[0:35:07] Er zijn natuurlijk conceptkerndoelen, digitale geletertijd, die nu klaar liggen.

[0:35:10] Hoe kunnen we dat allemaal goed stroomlijnen om daar ook voldoende aandacht voor te hebben?

[0:35:18] Dank u wel.

[0:35:19] En de groep wordt steeds groter.

[0:35:20] Ik heet meneer Valise, welkom van de PVV.

[0:35:23] Meneer Valise, heeft u een vraag naar aanleiding van de position papers of... Dank, voorzitter.

[0:35:29] Er zijn nog voldoende vragen gesteld, denk ik, in mijn afwezigheid.

[0:35:32] Dus ik kijk gewoon even terug.

[0:35:34] En mocht er nog aanvullende vragen zijn, neem ik wel even per e-mail contact met u op.

[0:35:38] Als u het mij vrijstaat.

[0:35:39] Heel fijn, dank je wel.

[0:35:40] Mevrouw van der Werff.

[0:35:45] Ik heb een vraag aan de heer Van Hummel.

[0:35:47] U pleit voor verkeersregels op sociale media.

[0:35:50] Maar dat veronderstelt natuurlijk wel dat ook platforms te goeder trouw zijn.

[0:35:55] En niet dat zij doelbewust blijven kiezen voor een verslavend ontwerp en steeds jongere doelgroepen.

[0:36:01] Dus ik denk dan bij mezelf, ja, je kan wel verkeersregels bedenken, maar als je wordt aangereden door iemand, dan heb je daar niet zoveel aan.

[0:36:09] Dus heeft het dan wel zin om bewustwarming, een lesje mediawijsheid, te beginnen?

[0:36:16] Waar ik in de basis heel erg voor ben.

[0:36:19] Maar als dat tegenover een gemiddelde schermtijd van zes uur per dag staat, wat voor sommige groepen jongeren nu het geval is, ja, over welke orde van grootte hebben we het dan?

[0:36:28] En heeft het dan zin?

[0:36:32] Dank je wel voor de vraag.

[0:36:34] Een superrelevante vraag.

[0:36:38] Om even om die verkeersmetafoor door te gaan.

[0:36:42] Blootstelling betekent niet automatisch schadelijkheid.

[0:36:45] Dus als we mensen in het verkeer loslaten, betekent dat niet dat ze automatisch een

[0:36:48] auto-ongeluk krijgen.

[0:36:51] En daarmee bedoel ik te zeggen dat we het zeker niet moeten beperken tot een lesje mediawijsheid, laat ik dat absoluut ook vooropstellen.

[0:36:59] Ik denk dat er alleen een hele brede aanpak nodig is, waarin we enerzijds vandaag, want dat kunnen we morgen al doen, in blijven zetten op hoe ondersteunen we ouders en professionals bij die begeleiding en ook versterken, wat weten ze eigenlijk al heel goed, want dat is wat ik heel vaak zie, de transfer naar

[0:37:18] Die digitale wereld is best moeilijk te maken.

[0:37:21] Terwijl, als je het er met elkaar over hebt, dan is het in één keer vrij duidelijk.

[0:37:26] Ik heb een kort voorbeeld.

[0:37:29] Ik was laatst op een kinderopvang en er waren vragen over een jongetje die veel gamede thuis.

[0:37:34] Hij kreeg weinig begeleiding van zijn ouders.

[0:37:36] En ze vonden dat hij zich agressief gedroeg ten opzichte van zijn leeftijdsgenootjes.

[0:37:40] En zij dachten, wat moeten we hiermee?

[0:37:42] Hoe gaan we hiermee om?

[0:37:44] En op het moment dat je het dan met elkaar hebt over hoe ga je normaal het gesprek aan met ouders als je zorg hebt over iets, dat maakte de transfer naar, oh, maar misschien kunnen we het nu ook op deze manier aanpakken.

[0:37:54] Dus daar zit een heel belangrijk punt.

[0:37:58] En anderzijds denk ik ook dat het heel belangrijk is om tegelijkertijd heel actief te werken aan dat ontwerp.

[0:38:05] Hoe kunnen we die schadelijke elementen, waarvan we weten dat ze schadelijk zijn, dus bijvoorbeeld de endless scroll, en de technische mogelijkheden zijn er om daarmee te stoppen, om vijftig berichten te zien, en daarna is het afgelopen.

[0:38:20] om die aan te pakken, zodat het een veel veiligere omgeving ook wordt en die regels ook daadwerkelijk toe te passen.

[0:38:28] Dank u wel, mevrouw Katman.

[0:38:30] Ook een vraag aan de heer Van Hummel.

[0:38:34] U zei van er moet ook een plek zijn waar je naartoe kan gaan als het misgaat.

[0:38:40] En die plek moet dan ook uitstralen, kom hier.

[0:38:44] En niet van wat heb je nou gedaan?

[0:38:46] Die had hier ook niet moeten zijn.

[0:38:48] Waar is die plek?

[0:38:49] En hoe richten we die plek in?

[0:38:51] Ik denk dat we al een hele hoop van die plekken hebben.

[0:38:56] Ik denk even aan Help Want.

[0:38:59] Maar ook bijvoorbeeld het NICAM, die al heel veel weet over hoe we informatie kunnen geven over potentiële schadelijkheid, zodat je zelf een afweging kan maken over wat je wil zien en wat je niet wil zien.

[0:39:12] En over dat soort

[0:39:13] over laagdrempelige aanwezigheid van organisaties die zeggen... kom maar hier, we gaan je helpen.

[0:39:24] En niet alleen online, maar ook in de fysieke wereld.

[0:39:27] Dus als het misgaat, kan je ergens terecht.

[0:39:30] Ik kom terug op het voorbeeld van de jongerenwerker.

[0:39:33] Hij richtte ook een fysieke plek in.

[0:39:35] Dus het was niet alleen online.

[0:39:37] Maar hij probeerde dat ook heel duidelijk naar de fysieke wereld te trekken.

[0:39:42] ben je er oké mee om fysiek af te spreken of hier een keer langs te komen, om op die manier de drempel te verlagen.

[0:39:49] Dus het gaat niet alleen over zorgen dat we in die online wereld die plekken hebben, maar ook dat we in die online wereld mensen aanwezig hebben die ook kunnen zeggen, kom met ons in verbinding terug.

[0:40:02] Dus het is tweeledig.

[0:40:06] Mag ik daar een heel korte aanvulling op doen?

[0:40:08] Zeker.

[0:40:08] Ik wil alleen nog even aanstippen.

[0:40:10] Nick heeft gelijk, er zijn ontzettend veel meldpunten, maar eigenlijk zou je willen dat kinderen bij hun ouders terecht kunnen daarvoor.

[0:40:17] En dat de ouders inderdaad zonder voordeel en in alle openheid en met begrip van de leefwereld van jongeren dat aan kunnen horen zodat zij goed kunnen helpen.

[0:40:26] Dat zijn ouders, maar ook de directe omgeving.

[0:40:28] Dat kunnen ook leeftijdsgenoten zijn of mentoren op school.

[0:40:31] Maar dat is ook belangrijk om aan te stippen.

[0:40:33] Eigenlijk zou je willen dat dat de plek is waar de jongeren in eerste instantie naar kijken.

[0:40:37] Het feit dat dat nu niet altijd gebeurt, is ook heel jammer om te zien.

[0:40:43] Dank u wel.

[0:40:44] Mevrouw Drouw.

[0:40:46] Dank u wel, voorzitter.

[0:40:47] Ik had een vraag aan meneer Van Hummel.

[0:40:50] U zegt in uw precision paper over wel of geen verbod, dat het ook averechts kan werken.

[0:40:57] Als je kijkt naar de platforms, dan is dat eigenlijk de leeftijd van 13 jaar.

[0:41:02] Alleen de leeftijdsverificatie functioneert niet.

[0:41:05] Hoe kijkt u tegenaan een bepaalde leeftijd en het werken van een leeftijdsverificatie?

[0:41:11] Ik denk dat de leeftijdsverificatie een onderdeel kan zijn van een breder pakket aan maatregelen.

[0:41:19] De leeftijdsverificatie van dertien jaar is iets wat de platforms zelf hebben bedacht.

[0:41:24] Het gaat over toestemming geven voor je data.

[0:41:28] Dat is doorgetrokken naar je mag niet op sociale media onder je dertiende.

[0:41:31] Ik denk dat het goed is als we kijken naar de mogelijkheden om die leeftijdsverificatie goed te krijgen.

[0:41:41] Maar dat mag niet het enige zijn.

[0:41:45] Volgens mij is er gisteren een argumentenkaart aangeboden over de leeftijdsverificatie.

[0:41:50] Ik denk dat dat een heel mooi onderdeel kan zijn van kijken van wat zijn de kosten en de baten van die leeftijdsverificatie.

[0:41:57] Maar kunnen we daarnaast ook nog voor andere maatregelen zorgen.

[0:42:02] Dus bijvoorbeeld een einde maken aan die endless scroll.

[0:42:05] Of met een druk op de knop je data te kunnen laten verwijderen.

[0:42:09] Of überhaupt goed inzicht te kunnen krijgen in welke data er eigenlijk van je is.

[0:42:15] Ik denk dat het heel goed is als dat veilig kan.

[0:42:20] Dank u wel.

[0:42:21] Nog een aanvullende vraagje?

[0:42:31] Ik begrijp heel goed wat u zegt.

[0:42:33] Helemaal eens, het zijn natuurlijk meerdere facetten om dat te bereiken.

[0:42:37] Er zijn ook al verschillende moties ingediend, ook over het feit dat de schadelijke content en de verslavende algoritmes gewoon eraf moeten.

[0:42:44] Die is ook aangenomen.

[0:42:47] Maar heeft u een bepaalde leeftijd waarvan u denkt, wat onderzocht is?

[0:42:52] De generatie van tegenwoordig is ermee opgegroeid.

[0:42:59] Het biedt informatie, het moet een veilige plek zijn.

[0:43:01] Maar is er een onderzoek gedaan waarvan u zegt... dit is een leeftijd waarvan we denken... we zien nu elf-, twaalfjarigen, waar ik mijn persoonlijke zorgen over maak... die worden gerondseld op scholen.

[0:43:14] Als dat een groep is die er misschien niet bij kan, zou dat helpen?

[0:43:17] Het gaat dan over een stukje veiligheid.

[0:43:19] Hoe kijkt u daarnaar?

[0:43:20] Of is daar onderzoek naar gedaan?

[0:43:22] Als je ontwikkelingstechnisch kijkt, dus naar de ontwikkeling van kinderen, is het heel logisch dat ze rond hun achtste, negende ter dege interesse krijgen in het gebruik van sociale media.

[0:43:37] Omdat dan de aanloop richting de pubertijd, focus richting leeftijdsgenoten, identiteitsontwikkeling, wie ben ik, wat vind ik.

[0:43:48] Dus dat is heel logisch dat ze dan eigenlijk, ja,

[0:43:51] Maar op het moment dat je een leeftijdsgrens oplegt, dat is nog steeds een precaire leeftijd om in een keer in aanraking te komen met die omgeving.

[0:44:06] Dus ik vind het moeilijk om daar een leeftijd op te leggen.

[0:44:08] Het is heel logisch dat ze rond die tijd interesse in krijgen.

[0:44:14] En soms al eerder.

[0:44:17] Dat is ook een sociale activiteit.

[0:44:23] Dat je er dan ook over moet gaan praten.

[0:44:27] Dat je het er dan ook al met elkaar over moet hebben.

[0:44:31] Er is een proefschrift verschenen die zegt dat de regels die je met elkaar gaat maken over dit onderwerp, die moet je al op jongere leeftijd gaan maken.

[0:44:43] Die werken minder goed op het moment dat kinderen 15 of 16 zijn.

[0:44:48] Als je een leeftijd van 14 of 16 zou opleggen,

[0:44:50] Dan ben je te laat met het maken van regels, want ze zijn dan alsnog vogelvrij.

[0:44:54] Ik durf daar geen leeftijd op te zetten, omdat het te complex is in relatie tot de leeftijd dat ze er interesse op voor beginnen te krijgen.

[0:45:12] Dank, voorzitter.

[0:45:14] Mevrouw Van Veenema sprak zojuist in antwoord op mijn vorige vraag heel kort even over haar boek en het onderzoek dat ze gedaan heeft rond de mentale schijf van 5.

[0:45:23] Nu hebben we onder andere middelbare scholen, sommigen hebben het al, ik hoor anderen die zijn ermee bezig, maar om te gaan verbieden dat daar smartphones gebruikt gaan worden.

[0:45:33] Bij mijn middelste dochter in de middelbare school doen ze dat al.

[0:45:36] En daar hoor ik in ieder geval effecten dat ze weer met elkaar praten en dat ze soms maar zoiets anders doen dan... Je hebt geen scherm meer, hè?

[0:45:43] Maar mijn vraag is van, als je dat schermgebruik inperkt, is het dan automatisch zo dat het op andere domeinen het verbetert?

[0:45:51] Gaan mensen dan meer bewegen, praten, gaan ze maar door?

[0:45:54] Of ligt dat veel complexer dan dat?

[0:45:56] Is het niet een automatisme dat je dat daarna weer anders gaat doen?

[0:46:02] Dank voor uw vraag.

[0:46:02] Wat bedoelt u met dat laatste, met dat automatisme?

[0:46:06] Als je dat schermgebruik beperkt, ga je dan automatisch meer bewegen of praten of contacten hebben?

[0:46:14] Of is dat niet een automatisch gevolg dat je zegt, je ziet dat direct terugkomen?

[0:46:19] Is er meer voor nodig om dan tot iets anders te komen?

[0:46:22] Het kan ook zijn dat je zonder scherm wegzakt en je denkt, nu doe ik niets meer.

[0:46:26] Er is natuurlijk een verbod in gang gezet in 2024.

[0:46:34] Toen is er in de Volkskrant een artikel verschenen.

[0:46:36] Die hebben toen een rondje gedaan langs die scholen om te inventariseren wat het gevolg daarvan was.

[0:46:42] Dat is natuurlijk geen gedegen wetenschappelijk onderzoek geweest, maar die constateerde wel dat jongeren weer met elkaar in gesprek gaan op het schoolplein, weer verliefd worden in bomen klimmen, katten kwaad uithalen enzovoort.

[0:46:55] En dat is natuurlijk niet om de boel te romantiseren, maar dat vond ik wel een interessante constatering na, wat was het, een maand volgens mij, dat verbod op die scholen.

[0:47:05] Ik denk dat dat vanzelfsprekend is bij jongeren, dat die elkaar weer gaan opzoeken op een leeftijd dat het biologisch gezien logisch is dat je met elkaar gaat flikflooien.

[0:47:18] En je zag natuurlijk ook de effecten van corona waarbij dat niet mogelijk was, hoe ongezond dat was.

[0:47:24] Dus dat vind ik nogal belangrijk.

[0:47:25] En ik zou ook willen toevoegen, want dat heb ik nog niet hier gehoord, maar vind ik wel belangrijk dat...

[0:47:30] Dat het brein in principe een negatieve bias heeft en dat die algoritmes in die zin ook zo ontzettend schadelijk kunnen zijn, wat ik vanuit mijn vakgebied ook zie.

[0:47:45] Kanalen waarbij het logisch is dat het brein zich richt op negatieve prikkels en informatie omdat we dat nodig hebben gehad destijds om te overleven en niet door tijgers te worden opgegeten.

[0:47:56] En dat zie je natuurlijk ook dat dat nu wordt misbruikt door de algoritmes waarbij we enorme bias nogmaals hebben naar negatieve content.

[0:48:04] En dat vind ik met name de leeftijdscategorie die u noemt in uw vraag, vind ik dat een heel groot risico waar wat mij betreft onvoldoende aandacht voor is.

[0:48:15] Dank u wel.

[0:48:16] Meneer Van Houwelingen.

[0:48:18] Dank.

[0:48:19] Jonathan Haidt legt de omslagpunten rond 2010 bij de invoering van de Ivo met een camera.

[0:48:24] Dat is mijn vraag aan mevrouw Van Vennema.

[0:48:26] Ziet u of niet, dat is mijn open vraag, wellicht in uw praktijk.

[0:48:29] Want u bent psychiater.

[0:48:30] De mentale klachten van jongeren sinds die tijd veranderen.

[0:48:34] Neemt het toe of af?

[0:48:36] Verandert het van aard?

[0:48:37] Kunt u daar misschien iets over zeggen?

[0:48:39] Dat is een lastige vraag.

[0:48:42] Mijn praktijk is een voorbeeld, dus daar ben ik voorzichtig mee.

[0:48:46] Uit onderzoek blijkt dat de mentale gezondheid er niet op verbetert.

[0:48:55] Of dat te maken heeft met de telefoon of de toegenomen ellende geopolitiek.

[0:49:00] Dat zal niet bijdragen aan een prettige mentale gezondheid.

[0:49:07] Naast een zeer eisende en overprikkelende samenleving.

[0:49:11] Waar die sociale media ook weer een rol in speelt.

[0:49:14] Dus dat is een vrij complex samenspel van allerlei factoren.

[0:49:18] Waarbij ik terugkom op wat ik eerder zei.

[0:49:19] Die sociale media is daarin een grote risicofactor.

[0:49:23] Zeker als je daar kwetsbaar voor bent.

[0:49:25] En ja, dat is betreurenswaardig.

[0:49:29] Dank u wel.

[0:49:29] Mevrouw Bruining.

[0:49:31] Dank voorzitter.

[0:49:33] Mijn vraag is aan mevrouw Grifoen.

[0:49:36] Wat is de beste vorm van regulering?

[0:49:39] Waar denkt u aan als we het hebben over regulering?

[0:49:41] Want het woord is vaker gevallen in het rondje natuurlijk, maar wat is de beste vorm?

[0:49:45] Dank u wel.

[0:49:48] Wij denken dat het ontzettend belangrijk is dat er echt wordt opgetreden en hard tegen de wijze waarop techbedrijven zich gedragen en de wijze waarop zij winst toch wel boven het welzijn lijken te stellen, systematisch, op basis van wat we zien en hoe apps worden ontworpen.

[0:50:05] Dat is lastig, want dat zijn enorme bedrijven.

[0:50:08] Ik las ergens dat Microsoft het brutonationale product van Frankrijk heeft.

[0:50:13] Ja, dat is een fikse vijand, om het zo maar te zeggen, om tegenop te boksen als je ze zo wilt zien.

[0:50:20] Dus dat is denk ik echt waar wij een hele grote taak zien voor de overheid.

[0:50:25] Om actie te ondernemen, om daar gevolgen aan te verbinden.

[0:50:28] zodat techbedrijven worden verplicht om in ieder geval wel zijn op hetzelfde niveau te stellen qua belang als winst en liever natuurlijk daarboven.

[0:50:40] Dank u wel.

[0:50:41] Mevrouw Koekoek.

[0:50:42] Ik heb een vraag aan mevrouw Giffion.

[0:50:45] U gaf eerder aan dat het idealiter kunnen kinderen bij ouders of veilig mensen in hun omgeving terecht.

[0:50:54] Als je jonger bent, snap je de belevingswereld goed.

[0:50:58] Maar als je gaat naar je ouders of je verzorgers,

[0:51:01] Ik worstel daar zelf nog wel eens mee.

[0:51:03] Ik ben van de generatie hives.

[0:51:05] Je hebt ook een generatie die dat niet heeft ervaren in hun jeugd.

[0:51:09] Wat zouden we kunnen doen, of misschien moeten doen, vanuit een overheid... om die ouders-verzorgers daarin ook meer handvaten te geven?

[0:51:16] Volgens mij gaf meneer Van Hummel net ook aan over leerkrachten.

[0:51:21] Je moet bepaalde nieuwe vaardigheden.

[0:51:23] Dat zit ook in de verzorgers.

[0:51:25] Heeft u daar advies voor?

[0:51:28] Ja, absoluut.

[0:51:29] Ik ben het er roerend mee eens dat ouders, dat eigenlijk alle volwassenen het liefst, ook een zo goed mogelijk begrip moeten krijgen van wat gebeurt er nou eigenlijk op sociale media.

[0:51:38] Hoe ziet die leefwereld eruit?

[0:51:40] Want wat ik toch ook vaak zie als ik ouders spreek of

[0:51:43] opvoeders in het onderwijs, dat ze toch maar een mondjesmatig begrip hebben van hoe dat eruit ziet, wat voor content jongeren zien en dat is vaak toch ook gebaseerd op media of op verhalen die ze dan hebben gehoord.

[0:51:55] Dus ik denk dat we ouders ontzettend kunnen helpen als we ze handvatten geven om te ervaren hoe het is op sociale media.

[0:52:05] Het helpt toch ontzettend als je zelf ook even een kijkje neemt.

[0:52:08] Hoe ziet dat eruit?

[0:52:09] Wat voor ervaring is dit?

[0:52:12] Wat vind ik hier leuk aan?

[0:52:13] Wat vind ik hier niet leuk aan?

[0:52:14] Om vervolgens hopelijk een open gesprek te kunnen hebben met jouw kind.

[0:52:17] Over, hé, vertel eens.

[0:52:18] Wat vind jij leuk?

[0:52:19] Wat zie je daar zoal?

[0:52:21] Met wie praat je daar zoal?

[0:52:22] En wat vind je niet leuk?

[0:52:24] En hoe kan ik jou daarbij ondersteunen?

[0:52:26] En op dit moment, zoals we ook al eerder hebben aangestipt, zitten ouders toch heel erg in een...

[0:52:31] een mindset die is gebaseerd op angst en onzekerheid en bescherming.

[0:52:37] En die zorgt er toch voor dat ze wat minder openstaan, denk ik, voor de ervaringen die jongeren hebben en de volle breedte daarvan.

[0:52:44] Dus dat zou ik echt sterk aanraden, dat de ouders daarbij helpen.

[0:52:50] Nou, ik was nu even aan het denken, ik moet Snapchat nog leren kennen, want ik snap daar helemaal niks van.

[0:52:56] Dus ik ben ook ouder, dus ik let goed op in dit gesprek.

[0:52:58] Meneer Valise.

[0:53:01] Geen vragen, voorzitter.

[0:53:03] Ik kijk even naar de tijd, want we hebben dadelijk ook een heel vol blok waar we ook nog mensen moeten inbellen.

[0:53:09] Ik wil jullie ontzettend bedanken voor jullie position papers, maar zeker ook voor dit gesprek.

[0:53:15] Dank je wel.

[0:53:16] En dan schors ik heel even zodat we door kunnen naar het volgende blok.

[0:55:00] GELUID VAN TELEFOON.

[0:56:54] Ah, daar is hij.

[0:56:54] Kun je me nu horen?

[0:57:00] Oké.

[0:57:02] Oké, bedankt.

[0:57:02] Ja.

[0:57:04] Hallo, hallo.

[0:57:08] Oké, bedankt.

[0:58:36] Dan heropen ik dit rond de tafel gesprek.

[0:58:42] We hebben veel mensen aan tafel.

[0:58:45] Ik zal iedereen voorstellen.

[0:58:46] We hebben ook iemand online.

[0:58:49] Rechts van mij meneer Hoving van Offlimits.

[0:58:53] Mevrouw Assante van het commissariaat van de media komt eraan.

[0:58:57] Dan hebben we online Sarah Castro van Save to Net.

[0:59:02] When there is a question for her it will be in English.

[0:59:05] Dan Edo Havenman van Meta.

[0:59:11] Evelien Osten van Bits of Freedom.

[0:59:16] En mevrouw Van Storenbroek van het Nederlands Instituut voor de Klassificatie van Audiovisuele Media, oftewel Kijkwijzer.

[0:59:24] Welkom allemaal.

[0:59:26] Mag ik meneer Hoving als eerste het woord geven?

[0:59:29] Dank u wel, voorzitter.

[0:59:32] Het is een hele eer om hier te mogen zitten als Off Limits.

[0:59:38] Voor mij, maar vooral dat u ons zo serieus neemt voor die supersteden die daar aan de kant zitten.

[0:59:43] Want dat zijn de mensen die iedere dag werken om het internet veilig en inclusief te houden voor iedereen.

[0:59:48] Dus als u naar mijn verhaal nog vragen heeft, gaat u alstublieft naar ze toe.

[0:59:52] Belangrijkste boodschap die ik eigenlijk vandaag wil geven, is dat we misschien eigenlijk wel al langer weten wat de online uitdagingen zijn voor jongeren.

[1:00:05] En dat zeg ik omdat social media is niet allemaal hetzelfde.

[1:00:08] Snapchat is toch echt iets anders dan TikTok, is toch echt iets anders dan Instagram.

[1:00:12] Wij zien hoe dat mis kan gaan, maar wij zien dus ook dat er al jaren geleden tal van organisaties zijn opgestaan om de aanpak hier van vorm te geven.

[1:00:20] Om kinderen weerbaar te maken, bijvoorbeeld een hackshield.

[1:00:25] Om te doen aan goede seksuele en relationele vorming.

[1:00:28] Rutgers.

[1:00:29] Heel urgent als je ook kijkt naar het rapport van vondslachtofferhulp wat vandaag is uitgekomen over online seksueel geweld.

[1:00:36] Bureau Jeugd en Media die in het eerste stuk zou zitten voor mediawijsheid aan ouders en kinderen.

[1:00:42] Organisaties zoals Offlimits om laagdrempelig met hel brand het snel hulp te bieden.

[1:00:46] Of als mensen meer hulp nodig hebben, een centrum seksueel geweld of een suïcidepreventielijn 113.

[1:00:54] Organisaties waar jongeren snel terecht kunnen voor hulp, daad, raad en soms dat luisterende oor, maar vooral die hulp die nodig kan zijn.

[1:01:03] Deze infrastructuur, waar we volgens mij heel trots op mogen zijn als Nederland, is alleen niet zo heel structureel.

[1:01:09] En dat maakt het wel eens ingewikkeld.

[1:01:12] In het vervolg, ook al is niet alle social media hetzelfde, er is wel een rode draad in te trekken.

[1:01:18] En dat is toch heel vaak content waarmee het misgaat.

[1:01:22] En wij pleiten er daarom ook voor om content op een integrale manier aan te kunnen pakken.

[1:01:27] Je hebt off limits als trusted flagger, als laagdrempelige meldvoorziening, voor strafbaar en onrechtmatig.

[1:01:33] Maar er is ook een heel groot grijs gebied, wat niet direct de wettelijke norm overgaat, maar waar mensen wel verschrikkelijk veel last van kunnen hebben.

[1:01:40] Bijvoorbeeld mensen uit de LHBTI plus gemeenschappen.

[1:01:42] Of als je ziet wat er gebeurt rondom bijvoorbeeld de menno-sfeer online.

[1:01:47] Het zijn zaken die niet direct de wettelijke grens overgaan, vergen dus geen verwijderverzoek van een partij als ons, maar zijn wel verschrikkelijk schadelijk.

[1:01:55] Ik noem dat de harmful but lawful content, eigenlijk de hele awful content.

[1:02:02] En ik denk dat we daar echt goed op aan moeten gaan en goed die aanpak moeten doen, omdat je daarmee ook heel veel zorg voorkomt in de toekomst.

[1:02:11] Nogmaals terug naar het rapport van slachtofferhulp van vandaag.

[1:02:15] We zien ook bij Off Limits het meeste wat gemeld wordt is toch seksueel wat misgaat.

[1:02:19] En we zien dat dat vaak offline doorwerkt of juist van offline naar online doorgaat.

[1:02:24] En dat het heel vaak een indicator is dat het vaker misgaat als je niet heel vroeg erbij bent.

[1:02:29] Het laatste punt dat ik wil maken is om dit ook dichtbij te brengen.

[1:02:32] Herman Schenk-Willink zei het al, groot denken klein doen.

[1:02:35] Breng het dichtbij bij de slachtoffers.

[1:02:37] Dat raakt ook fysiek, eigenlijk wat de collega van het Nederlands Jeugdinstituut in het vorige blok zei.

[1:02:43] Maar zorg dat mensen ook op een fysieke plek terecht kunnen.

[1:02:46] En dan wil ik echt het goede voorbeeld van de gemeente Amsterdam aanhalen, waar wij ook als help wanted helpen, maar ook met outreach naar scholen helpen om de zorg goed te coördineren met alle partijen die er zijn.

[1:02:57] De laatste twee punten zijn ook al genoemd.

[1:03:01] Leeftijdsverificatie, altijd met klassificatie, daar is ook een motie over van het NICAM.

[1:03:07] Maar zorgen dat kinderen toegang hebben tot die veilige omgeving, dat ze geen content te zien krijgen die schadelijk is, maar ook dat ze geen producten kunnen kopen waarvan we wettelijk hebben bepaald dat het niet mag.

[1:03:17] En als laatste natuurlijk, als er partijen zijn die niet meewerken, dat we dan doorbijten.

[1:03:22] Dat is heel kort mijn boodschap.

[1:03:36] Ik denk dat we goud in handen hebben als Nederland.

[1:03:39] Stut, dat zou mijn advies zijn.

[1:03:41] Bedankt.

[1:03:47] Hartelijk dank, ook vanuit mijn kant waardering voor deze bijeenkomst.

[1:03:52] Het is toch een groot maatschappelijk vraagstuk waar heel veel partijen zich zorgen over maken en er elke dag aan werken.

[1:04:02] Ik zit hier vanuit de mediatoezichthouder, het commissariat voor de media.

[1:04:08] En heel veel van jullie zullen misschien denken, wat is het commissariaat en wat doet het commissariaat?

[1:04:14] Wij houden op basis van de Mediawet uit 2008 toezicht op de audiovisuele mediasector.

[1:04:22] Maar we zien natuurlijk ook met de digitalisering van het mediaaanbod dat er ook een noodzaak is om toezicht te houden, daar waar het kan, op de digitale media.

[1:04:34] En specifiek als het gaat om de jeugd, houden wij sinds 2021 toezicht op influencers, zoals je dat ook noemt.

[1:04:45] Content uploaders.

[1:04:47] En dat doen wij eigenlijk omdat we het belangrijk vinden dat als jongeren die content tot zich nemen, dat ze weten met wie ze te maken hebben.

[1:04:59] Dus transparantie vinden wij daarin ontzettend belangrijk.

[1:05:02] Maar ook, en daar zijn jongeren heel gevoelig voor, ik denk nog wel gevoeliger dan volwassenen, dat wanneer er sprake is van commerciële aanbod, dus waar jongeren verleid zouden kunnen worden om aankopen te doen of beïnvloed te worden, dat dat ook duidelijk wordt gemaakt.

[1:05:21] En op die manier houden wij toezicht op influencers.

[1:05:27] Toen wij dat toezicht onder ons kregen, hebben we een aantal drempelcriteria bedacht, want het zijn er nogal veel, om ons toezicht behapbaar te maken.

[1:05:38] En een van die criteria was namelijk het aantal volgers die de content uploaders hebben.

[1:05:46] En de grens lag bij 500.000 volgers.

[1:05:51] Vervolgens hebben we ook gezegd dat er moet sprake zijn van een minimum aantal video's die worden opgeladen.

[1:06:00] En dat is ook een belangrijke drempelcriteria.

[1:06:05] Verder eisen wij van influencers ook dat ze zich bekendmaken wanneer zij schadelijke content zouden kunnen aanbieden voor jongeren bij het NICAM.

[1:06:17] En ze moeten zich ook melden bij de stichting reclamecode.

[1:06:20] Samen met die partijen houden wij toezicht op de influencers.

[1:06:26] Sinds we ermee begonnen zijn, hebben we... Vorig jaar was de eerste keer dat we een boete uitdeelden.

[1:06:34] En dan kan ik me afvragen dat mensen denken, hoe kan dat nou?

[1:06:37] Er zijn er zoveel.

[1:06:39] Er gebeurt zoveel wat eigenlijk niet zou kunnen.

[1:06:41] Waarom toch pas dan vorig jaar een eerste sanctie?

[1:06:45] Dat komt omdat we hadden te maken met een nieuwe doelgroep die onder ons toezicht viel.

[1:06:53] Dus voor hen was toezicht nieuw, maar voor ons was dat ook nieuw.

[1:06:58] Dus we hebben eerst langs de lijn van informeren.

[1:07:04] Jongens, welkom.

[1:07:06] Dit is de wet.

[1:07:07] Dit is wat we van jullie verwachten.

[1:07:09] Dit is de norm.

[1:07:11] Dus we hebben de norm overgedragen.

[1:07:13] Daar waar we overtredingen zagen, hebben we waarschuwingen gegeven.

[1:07:20] En als we zien dat de norm de wet is bekend, we hebben gewaarschuwd en er verandert niks, dan gaan we over tot sancties.

[1:07:30] Dus in alle gevallen eigenlijk in de afgelopen jaren konden we

[1:07:35] het doen met het geven van de waarschuwing.

[1:07:37] En vorig jaar was er toch één partij waarvan we dachten, nou, nu zijn we klaar met informeren en waarschuwen.

[1:07:42] Nu gaan we een sanctie uitdelen.

[1:07:45] Nou, dit jaar hebben we ook een sanctie uitgedeeld.

[1:07:48] We hebben ook in de loop dat we toezicht houden op influencers, hebben we ook gezien dat juist onder die grens van 500.000 daar zit ook schadelijkheid.

[1:07:59] Dus we hebben besloten om op basis daarvan ons beleid te herijken en we hebben gezegd we laten die grens eigenlijk los.

[1:08:07] Dus dat betekent dat er heel veel meer influencers onder ons toezicht kunnen komen te staan.

[1:08:12] Wel zeggen wij, omdat wij creativiteit belangrijk vinden, omdat we ze ook niet gelijk willen schakelen als een partij als bijvoorbeeld Netflix.

[1:08:20] waarmee ze wel te vergelijken zijn op basis van de mediawet, hebben we gezegd, ook om de administratieve lastendruk vooral voor die kleintjes te helpen verlichten, hebben we gezegd, nou, de partijen met honderdduizend volgers of minder, die hoeven zich niet bij ons te registreren, maar het kan altijd nog zo zijn dat ze content uploaden waar we iets van vinden en waar we op gaan interveneren.

[1:08:46] We werken veel samen met partijen om onze doelen te bereiken.

[1:08:51] Een belangrijk partij is bijvoorbeeld het samenwerkingsverband digitale toezichthouders.

[1:08:56] Daarin zit ACM, AFM, AP.

[1:09:00] We werken ook samen met inspecties.

[1:09:03] En waarom doen we dat?

[1:09:04] Omdat er veel raakvlakken liggen.

[1:09:06] in onze verantwoordelijkheden.

[1:09:09] We werken ook internationaal veel samen met andere toezichthouders.

[1:09:14] Ik was afgelopen week in Moldavië, daar stond het agendapunt online bescherming van minderjarigen hoog op de agenda.

[1:09:23] Dat is ook een van de drie speerpunten waar het commissariaat voor de media zich de komende vijf jaar op gaat richten.

[1:09:28] Naast een robuuste nieuwsvoorziening.

[1:09:31] Dus de vindbaarheid van betrouwbaar onafhankelijk aanbod.

[1:09:35] En een goed werkend landelijk publiek media bestel.

[1:09:38] Ik denk dat mijn tijd voorbij is.

[1:09:40] Ik zag u al kijken.

[1:09:41] Wij hebben een position paper en uiteraard zijn wij ook bereid om na vandaag met u in gesprek te gaan en vragen te beantwoorden.

[1:09:49] Dank u wel.

[1:09:50] Meneer Haverman.

[1:09:53] Goedemiddag, ik ben Edu Haafman, herfstpublicpolicy voor Mertha en de BNLUX.

[1:09:59] Dank voor de uitnodiging om hier te mogen zijn.

[1:10:03] We hebben als Mertha een positionpaper gedeeld waarin we een aantal dingen hebben gedeeld over Instagram teenaccounts en ook over leeftijdsverificatie.

[1:10:13] Ik wil over dat tweede nog een paar korte dingen zeggen.

[1:10:16] Eigenlijk, heel algemeen, elke dag

[1:10:22] lopen kinderen in de EU onnodig risico omdat apps niet goed weten hoe oud ze precies zijn.

[1:10:34] En het weten van de leeftijd van mensen op je platform stelt services, diensten in staat om de veiligst mogelijke ervaring te bieden.

[1:10:50] voor de jongeren met leeftijdsadequaat content.

[1:10:56] Mette heeft daar natuurlijk het voortouw in genomen met teenaccounts.

[1:11:01] We hebben veel gesprekken gevoerd met ouders, experts, jongeren zelf ook, hoe tieners de beste ervaring online te geven.

[1:11:12] Maar de vraag blijft hoe en waar in Europa het beste leeftijds

[1:11:20] te verifiëren en dat blijft eigenlijk een open vraag.

[1:11:22] Terwijl er op zich een heel simpel recht door zee antwoord is.

[1:11:28] En ik denk ook dat het goed is om dat op Europees niveau in Brussel echt te proberen te regelen.

[1:11:34] We hebben namelijk een oplossing nodig die universeel is, makkelijk te gebruiken, burgerrechten beschermd en een level playing field creëert voor iedereen

[1:11:49] in de sector.

[1:11:50] Met universeel bedoel ik dan dat de leeftijd geverifiëerd wordt op één plek.

[1:11:57] En dat iedereen ook een mogelijkheid heeft om zijn of haar leeftijd te verifiëren.

[1:12:03] Gemakkelijk om te gebruiken.

[1:12:05] Dus niet app voor app op verschillende manieren complexiteit toevoegend.

[1:12:13] dus iedereen ook in staat stellen zijn recht op informatie uit te oefenen.

[1:12:18] Ook al hebben ze misschien niet een bepaalde documentatie, paspoort of beschikking over IRD'en.

[1:12:25] Dus dat ze wel van dienst en gebruik kunnen blijven maken als ze dat willen.

[1:12:29] En vier, het level playing field wat ik noemde.

[1:12:32] Tieners gebruiken wekelijks gemiddeld meer dan veertig apps.

[1:12:37] En er worden natuurlijk elke dag nog meer nieuwe apps gelanceerd.

[1:12:43] Als al die apps niet op dezelfde manier leeftijd verifiëren... en die leeftijdsinformatie helder hebben... dan zul je zien dat tieners gewoon schuiven naar de apps... die dit minder goed verifiëren of die uiteindelijk minder bescherming bieden.

[1:12:58] En volgens mij is niemand daarmee gediend.

[1:13:01] Interessant genoeg... neemt de VS nu het voortouw om dit goed te regelen.

[1:13:09] Een derde van de staten in de VS...

[1:13:12] is al bezig met wetgeving hierover op papier te zetten en te bespreken in hun parlementen.

[1:13:23] En er ligt ook een nieuwe federale wet, een bil, voor.

[1:13:28] En als die het haalt en volgens getekend wordt tot wet, zou die verplichten

[1:13:34] voor de hele VS, ouderlijke toestemming, parental approval en leeftijdsverificatie op operating system of app store level.

[1:13:43] Waarmee dat dus direct op die manier geregeld is en er echt een effectieve methodiek is om jeugd en teen veel beter te beschermen.

[1:13:52] En ik hoop ook echt dat we zoiets op korte termijn in Europa kunnen gaan doen.

[1:13:56] En ik hoop ook echt dat de Kamer daar zou willen aandringen.

[1:14:00] Dank u wel, mevrouw Alsten.

[1:14:03] Ook namens Bitser Freedom veel dank voor de uitnodiging.

[1:14:07] We hebben vandaag veel gehoord over het effect van sociale media op jongeren.

[1:14:11] De expertise van Bitser Freedom ziet specifiek op de mechanismen die met name Big Tech inzet die tot die effecten leiden.

[1:14:19] Dus de ingrediënten als het ware die schadelijk zijn.

[1:14:23] Dus of u nu besluit tot een leeftijdsnorm, een harde leeftijdsgrens, wat ons betreft staat buiten kijf.

[1:14:30] Dat hoe dan ook gewerkt moet worden aan het reguleren van die specifieke mechanismen.

[1:14:35] Dus ik leg ze heel kort toe om daarna te bespreken met welke maatregelen er tegen kan worden opgetreden.

[1:14:42] Het is kort hoe die platformen opereren.

[1:14:45] Big tech platformen verdienen geld door derde partijen zoals adverteerders de mogelijkheid te geven hun gebruikers te beïnvloeden.

[1:14:54] Hoe langer je online bent, hoe meer advertenties ze je kunnen tonen en hoe beïnvloedbaarder je bent, hoe meer ze voor die advertenties kunnen rekenen.

[1:15:03] Hiervoor zetten platformen een heel systeem aan manipulatie-mechanieken in, die er eigenlijk allemaal op gericht zijn om de tijd die je op een platform doorbrengt, de data die je genereert en de mate waarin je beïnvloedbaar bent te maximaliseren.

[1:15:20] En op die specifieke mechanismen moet wat ons betreft worden ingegrepen.

[1:15:26] U heeft al een belangrijke stap gezet, namelijk door het verbieden van gepersonaliseerde advertenties voor jongeren in de digitale dienstenverordening.

[1:15:35] En nu is het zaak dat u ook het serveren van gepersonaliseerde content aan banden legt.

[1:15:40] Aanbevelingsalgorithmen die jongeren steeds extreemere content voorschotelen, moeten worden verboden.

[1:15:46] Zoals bijvoorbeeld de staat New York niet zo heel lang geleden heeft gedaan.

[1:15:50] Daarnaast moeten ook andere soorten manipulatie bestreden worden, waarmee de aandacht wordt getrokken en vastgehouden.

[1:15:56] De Digital Fairness Act, waar nu in Brussel aan gewerkt wordt, is hiervoor de uitgesproken plek.

[1:16:03] En in de position paper die wij hebben gedeeld, vindt u een aantal maatregelen die in deze wet kan worden genomen.

[1:16:10] Tot slot, en misschien is dit een beetje overdadig, maar Bitsur Freedom weet als geen ander hoe schadelijk Big Tech is.

[1:16:19] Dus wij zitten hier niet om Big Tech te verdedigen.

[1:16:22] Big Tech platformen profiteren van de onveiligheid en kwetsbaarheid van hun gebruikers.

[1:16:28] En ze hebben in hun bestaansgeschiedenis, naar mijn weten, geen enkele echte verantwoordelijkheid genomen voor de problemen die ze veroorzaken en verergeren.

[1:16:36] Sterker nog, ze strooien ons zand in de ogen door die problemen te verdoezelen, verdraaien en af te schuiven.

[1:16:43] Maar dat betekent niet dat sociale media zo moeten zijn.

[1:16:47] Jongeren hebben het recht op individuele maatschappelijke culturele ontplooiing.

[1:16:51] Het internet kan hiervoor in potentie een hele waardevolle plek zijn, maar dan bent wel u als wetgever keihard nodig.

[1:17:00] Dus daarom nogmaals hartelijk dank voor de uitnodiging en voor het faciliteren van dit gesprek.

[1:17:06] Dank u wel, mevrouw Van Stormbroek.

[1:17:10] Dank u wel, voorzitter.

[1:17:11] Geachte Kamerleden, hartelijk dank voor deze uitnodiging.

[1:17:14] Het debat gaat tot nu toe met name over de grote zorgen op sociale media en wat mij betreft ook.

[1:17:20] Dus ik wil daar nog eventjes op doorgaan, want ik vind ook, net als mijn buurvrouw zojuist zegt, het schadelijke ontwerp van de platforms een heel belangrijk thema om het vandaag ook over te hebben.

[1:17:30] Het gebrek aan informatie, controle op de inhoud en de werking van de algoritme die bepalen wat je ziet en de pogingen die platformen nu doen om jongeren te beschermen, zijn niet voldoende.

[1:17:39] Kinderen worden blootgesteld en maken zichzelf ook zorgen over wat ze allemaal zien aan beeldmateriaal, zoals geweld, dierenleed, gevaarlijke challenges.

[1:17:48] En dat willen zij zelf ook niet.

[1:17:49] Dat weten we uit ons eigen onderzoek, maar ook het onderzoek van UNICEF afgelopen week.

[1:17:54] Er zijn weer verschillende onderzoeken die dat allemaal weer laten zien.

[1:17:57] Daar komt bij dat de sociale media platformen ontworpen zijn om zoveel mogelijk aandacht vast te houden.

[1:18:03] En daardoor is er nauwelijks sprake van keuzevrijheid en met één klik op een filmpje wordt tot in het oneindige versterkt.

[1:18:09] Heftige en extreme inhoud heeft meer kans om viraal te gaan en actief aan kijkers te worden aangeboden.

[1:18:14] Terwijl we goede regels hebben voor televisie en films laten we jongeren online vrijwel onbeschermd.

[1:18:20] Dat is een fundamentele weefhoud in ons mediabeleid.

[1:18:23] Het NICAM heeft instrumenten in huis om samen met de sociale media platforms een uniform beschermingssysteem te ontwikkelen, zodat het ook bestaat voor die anderen die ik zojuist noemde.

[1:18:32] Dus voor televisie, bioscopen, streamingsdiensten.

[1:18:36] Hier worden ook beelden vertoond.

[1:18:38] Alleen zo kunnen we de bescherming van kinderen goed en uniform regelen, ook in Europa.

[1:18:43] Door samenwerking met de platforms, overheid en maatschappelijke organisaties op basis van onafhankelijke wetenschappelijke inzichten zoals we bij Kijkwijzer bij het NICAM al 25 jaar lang doen.

[1:18:53] Niet als censuur, maar als bescherming.

[1:18:56] Niet om de platforms te straffen, maar om ze medeverantwoordelijk te maken voor de ontwikkeling van onze kinderen.

[1:19:01] Het NICAM roept de Tweede Kamer op om de motie van mevrouw Katman en mevrouw Van der Werf voor de ontwikkeling van een digitale kijkwijze aan te nemen.

[1:19:09] Dit is een systeem dat werkt op sociale media en het schadelijke ontwerp van platforms.

[1:19:13] Gebaseerd op wetenschappelijke inzichten, op praktijkervaring, zowel voor ouders en opvoeders als voor kinderen, maar ook voor beleid.

[1:19:22] Kinderen worden hierin ook zelf betrokken.

[1:19:24] Heel erg belangrijk.

[1:19:26] Als Kamerlid kunt u het verschil maken.

[1:19:28] Door eisen te stellen aan de platforms en door samenwerking te stimuleren.

[1:19:32] En door NIKAM de middelen en het mandaat te geven om ook in de digitale wereld met een kijkwijzer het werk te doen.

[1:19:38] Omdat het kan en omdat er zoveel moois te zien is en te ervaren voor deze kinderen op deze platform.

[1:19:43] Laten we het dan ook samen zo regelen.

[1:19:45] Dank u wel.

[1:19:47] Dank u wel.

[1:19:48] En nu is het tijd om naar onze gast online te gaan.

[1:20:00] Mevrouw Castro, u bent de ontwikkelaar van HarmBlock.

[1:20:05] Het is nu uw tijd om te praten.

[1:20:05] Dank u. Dank u. Dank u. En bedankt voor het geven van mij de kans om te praten.

[1:20:08] Dus, we geloven dat we op een crisispunt staan.

[1:20:09] Platformen die voor winst zijn gebouwd, verliezen om onze kinderen te beschermen.

[1:20:12] Hun contentmoderatie is reactief, te weinig, te laat, na het schade is gedaan.

[1:20:15] De technologie existeert, maar we moeten ervoor zorgen dat de technologie ervoor wordt geïnvesteerd.

[1:20:27] De technologie is er, maar we moeten ervoor zorgen dat de technologie ervoor wordt geïnvesteerd.

[1:20:34] Tools like Harm Block work at the operating system level to prevent the creation, sharing, viewing of harmful sexual content, including in live streams.

[1:20:44] And that's before the harm reaches the child's phone or leaves the child's phone.

[1:20:49] In real time, it's private and it's platform independent.

[1:20:53] Children need and deserve this level of protection, even across encrypted apps.

[1:20:59] We kunnen onze kinderen niet zonder seatbelts in de auto's sturen.

[1:21:05] We moeten ze geen apparaat geven zonder bescherming in het operatiesysteem te bouwen.

[1:21:11] Dank u wel.

[1:21:13] Ik heb een vraag aan de heer Havenman van Meta.

[1:21:18] Uit uw interne onderzoek, bekend geworden via de Facebook-files, blijkt dat 13 procent van de jongeren in het VK met suïcidale gedachten dit toeschreef aan Instagram.

[1:21:30] Ik vroeg me af waarom de politiek, u, uw bedrijf, nog zou moeten vertrouwen op zelfregulering als u blijft vasthouden aan gedragstrekkende algoritmes en verslavend ontwerp.

[1:21:42] op Instagram-teams waar u zojuist even reclame voor maakte.

[1:22:06] Ik moet eerlijk zeggen dat ik het onderzoek waar mevrouw Van der Werf naar leidt, ik heb niet gelijk een beeld welke zij bedoelt.

[1:22:14] Ik weet dat wij intern heel veel onderzoek doen en ook met experts en academici en ouders en jeugd spreken om te zorgen dat wij leeftijdsadequate ervaringen kunnen bieden en dat we ook veilige ervaringen kunnen bieden aan de mensen op onze platformen.

[1:22:32] En ik hoor mevrouw Van der Werf zeggen dat

[1:22:36] We pleiten voor zelfregulering.

[1:22:39] Maar we pleiten voor regulering die leeftijdsverificatie op Europees niveau verplicht oplegt.

[1:22:46] Dat is niet zelfregulering.

[1:22:49] Dat is harde regulering.

[1:22:57] Onze verantwoordelijkheid naden proberen in te vullen om leeftijdsadequate ervaringen te bieden.

[1:23:03] Waar ook een aantal van de designkeuzes volgens mij tegemoet komen aan de dingen die ik ook in de voorgaande ronde gehoord heb.

[1:23:12] mensen en jeugd in het bijzonder nutjes geven om na een bepaalde tijd te stoppen met scrollen, een bepaalde onderwijp weg te blijven, dat ze niet zomaar benaderd kunnen worden.

[1:23:23] Er zitten denk ik allemaal functies die er juist tegemoet komen en ik zou heel graag zien dat er juist meer regelgeving komt die ook dan die leeftijdsverdificatie oplegt.

[1:23:33] Korte vervolgvraag.

[1:23:35] Laat ik positief die vervolgvraag inleiden.

[1:23:38] Ik ben blij dat de heer Afelman zich aansluit bij DOI voor minimumleeftijd.

[1:23:42] Dat is goed.

[1:23:44] Maar het grootste probleem wat hierdoor heel veel mensen vandaag wordt aangehaald, zijn die verslavende elementen.

[1:23:51] Zijn die algoritmes.

[1:23:52] En wat heeft META, bijvoorbeeld sinds die suïcide van Molly Russell in het Verenigd Koninkrijk, gedaan, concreet gedaan,

[1:24:01] om te voorkomen dat jongeren worden blootgesteld aan zelfbeschadigende en suicidale content.

[1:24:07] Want dat is niet altijd makkelijk te verbieden.

[1:24:09] Er zit een heel groot grijs gebied.

[1:24:11] En wat doet u er nou aan?

[1:24:12] Dat jongeren dat niet voorgeschoteld krijgen, al helemaal niet elke dag opnieuw.

[1:24:19] Dank u wel, voorzitter.

[1:24:21] Een belangrijke vraag.

[1:24:22] Ik weet niet of het helemaal klopt dat wij het eens zijn op wat voor leeftijdsgrenzen op welk niveau ze moeten liggen, maar dat de leeftijd vast te houden zodat je leeftijdsadequaat ervaring kunt bieden, daar zijn we het...

[1:24:35] Als het gaat om suicidepreventie, dat is een heel belangrijk en ingewikkeld onderwerp.

[1:24:43] Daarvoor werken wij wereldwijd met veel organisaties samen.

[1:24:46] We hebben samen met andere organisaties en academische projecten beleid geformuleerd.

[1:24:59] de balans te vinden tussen mensen toestaan om hun ervaringen te delen en een cry for help te doen, maar tegelijkertijd inderdaad zorgen dat mensen daar niet zomaar mee geconfronteerd worden en daar... geïnspireerd... Ik zeg het juiste woord even te zoeken, een beter woord te zoeken.

[1:25:21] Dus mensen niet daarmee zomaar te laten confronteren.

[1:25:25] Dus we hebben daar enorm veel...

[1:25:28] aan gedaan de afgelopen jaren.

[1:25:31] Dat is niet weinig.

[1:25:37] Dank u wel, mevrouw Katman.

[1:25:40] Ik heb ook een vraag aan de heer Havenman van Meta.

[1:25:45] Zelfs sigarettenfabrikanten zeggen gezonde en niet-verslavende sigaretten bestaan niet.

[1:25:51] Maar gezonde en niet-verslavende en veilige social media platformen bestaan wel.

[1:25:57] Meta kan niet maken en waarom maakt Meta die niet?

[1:26:04] Meneer Havenman.

[1:26:05] Dank u wel, voorzitter.

[1:26:07] Ik herken me niet helemaal in de premissen.

[1:26:10] Volgens mij doet u een aantal aannames over hoe onze platformen werken.

[1:26:17] En ik geloof niet dat die helemaal kloppen.

[1:26:22] Het wordt nu een vastzittende plaats hier, maar met tien accounts, juist door mensen nutjes te bieden.

[1:26:29] Er is ook een moment om niet meer op je telefoon te zitten.

[1:26:32] Misschien heb je genoeg gescrolld.

[1:26:34] En juist bepaalde content van jeugd te weren.

[1:26:38] Ik denk dat we daar volgens mij best wel behoorlijk in de buurt komen.

[1:26:44] Hetgeen u vraagt en voorstelt, maar u lijkt naar iets anders te zoeken.

[1:26:51] Misschien kunt u iets meer toeleggen waar u dan precies naar zoekt.

[1:26:54] En misschien dat we elkaar dan al wel gevonden hebben, omdat we doen wat u zegt.

[1:26:58] En misschien dat ik daar nog weer wat mee kan nemen.

[1:27:03] Waar ik naar zoek is eigenlijk wat alle deelnemers aan deze rondetafel zonder uitzondering hebben aangegeven in hun position papers.

[1:27:10] En ook de niet-deelnemers aan de rondetafel die wel position papers hebben ingediend.

[1:27:17] En dat is gewoon, we moeten de techbedrijven aanpakken op hun verslavend en polariserend ontwerp.

[1:27:23] Dat kan, dat lag ook al in wetgeving in Brussel voor.

[1:27:26] Dat is door diezelfde techbedrijven er keihard afgelobbyd.

[1:27:30] Er ligt nu weer een wet, gelukkig in Brussel, voor.

[1:27:32] Dus laten we allemaal hopen dat die wel wordt aangenomen.

[1:27:35] En dan verbieden we gewoon verslavend en polariserend ontwerp.

[1:27:39] Maar blijkbaar heeft een bedrijf als Meta een stok nodig, een wet, terwijl u er ook voor kunt kiezen om dat zelf al gewoon te doen, omdat dat beter, gezonder en veiliger is voor iedereen die met heel veel plezier eigenlijk gebruik wil maken van uw platform.

[1:27:56] Op het gevaar van de ruimtevallers zijn de dingen die we aangepast hebben en die wij doen eigenlijk heel erg in lijn met waar mevrouw Kapman om vraagt.

[1:28:08] In de Digital Service Act wordt heel expiet opgelegd aan platformbedrijven als de onze.

[1:28:16] om voor jeugd een leeftijdsadequate ervaring te bieden.

[1:28:20] Dus die verplichtingen hebben we al.

[1:28:21] En die hebben we dus ook al doorgevoerd.

[1:28:23] En ik kan nog een aantal dingen noemen.

[1:28:25] Dat onder 18 ook jeugd geen advertenties op onze platformen krijgt.

[1:28:28] Dus laat staan op gepersonaliseerde advertenties.

[1:28:31] En zo zijn er nog een aantal voorbeelden.

[1:28:34] En ik denk dat we daar heel erg in lijn zijn met elkaar.

[1:28:38] Want het doel is natuurlijk gewoon een prettige en een fijne ervaring bieden.

[1:28:42] En een veilige ervaring bieden.

[1:28:43] Daarvoor zijn we het helemaal over eens.

[1:28:46] Dank u wel.

[1:28:47] Mevrouw Drouw.

[1:28:49] Dank u wel, voorzitter.

[1:28:52] Ik wil graag een vraag stellen aan mevrouw Basanti.

[1:28:57] U zei iets over sancties die opgelegd zijn.

[1:29:02] Die sancties zijn natuurlijk om te voorkomen dat het nog een keer gebeurt, maar ook volgens mij wel als een signaalfunctie dat we dat gedrag niet willen zien.

[1:29:12] Ziet u daar effecten van?

[1:29:14] Er zijn nu twee boetes opgelegd.

[1:29:18] Hoe hoog zijn die boetes dan?

[1:29:19] Hoeveel impact heeft dat?

[1:29:21] Helpt dat?

[1:29:24] Goeie vraag.

[1:29:25] Dat is waar we als toezichthouder naar streven.

[1:29:31] We weten uit wetenschappelijke inzichten dat er meer nodig is.

[1:29:36] dan het opleggen van sancties om het gewenste gedrag te krijgen.

[1:29:44] Sancties kunnen wel inderdaad een signaal zijn.

[1:29:48] Sancties kunnen een afschrikwekkend effect hebben.

[1:29:53] We hebben tot nu toe twee formele sancties uitgedeeld.

[1:29:59] De effectiviteit daarvan hebben we nog niet kunnen meten, want de tijd daartussen is vrij kort.

[1:30:06] maar gaat u maar vanuit dat we dat zeker wel zullen meenemen in vervolgonderzoek.

[1:30:12] Ik wil wel de herheerste mythe, alsof je als toestichthouder alleen effectief kan zijn als je hele hoge boetes uitdeelt.

[1:30:22] Onze toestichtsfilosofie is erop gericht om uiteraard daar waar het moet gebruik te maken van formele sanctionering, maar wij denken dat het veel effectiever is

[1:30:33] om ervoor te zorgen dat instellingen die onder ons toezicht staan uit zichzelf en met kennis en met vermogen en gebaseerd op risicomanagement het goede doen en zich aan de wet houden en zich onthouden

[1:30:49] van schadelijkheid, want dan ben je als toezichthouder echt effectief.

[1:30:54] Maar dat wil niet zeggen dat daar waar we zien dat een instelling, na herhaaldelijke interventies van ons, desondanks zich niet aan de wet wil houden of zich niet wil onthouden van schadelijke praktijken, ja, daar grijpen we natuurlijk in met sancties.

[1:31:13] Dank u wel, meneer Stoffer.

[1:31:16] Ik heb een vraag.

[1:31:18] Ik weet niet zeker aan wie ik hem zou moeten stellen, maar ik ga het proberen, mevrouw Osten.

[1:31:23] En als het verkeerd geadresseerd is, dan merk ik het vanzelf.

[1:31:26] De vraag is heel simpel, maar het antwoord misschien lastiger.

[1:31:29] Ik zou graag willen weten wat de allerbeste technische oplossing is om meer bescherming te bieden en welke regelgeving er op dit moment in de weg staat om dat uit te voeren.

[1:31:41] Bedoelt u dan specifiek voor de leeftijdsverificatie of breder?

[1:31:46] Het mag allebei.

[1:31:48] Dat zou ook voor ons hier kunnen gelden.

[1:31:57] Wij vinden eigenlijk dat er specifiek in die mechanismen van de Big Tech-platformen moet worden ingegrepen, omdat dan, zoals u zelf zegt, iedereen beschermd is en niet alleen de jongeren.

[1:32:08] Ik denk dat daar niet zozeer een technische oplossing voor nodig is, maar vooral bepaalde dingen niet doen.

[1:32:15] Met name bijvoorbeeld de gepersonaliseerde content algoritme, het profileren van gebruikers, zodat je zo goed de meest beïnvloedde

[1:32:31] beïnvloedbare gebruiker bij de juiste boodschap kunt koppelen.

[1:32:38] Er zijn een heel aantal technische maatregelen, bijvoorbeeld rondom het nudgen en notificeren van gebruikers, waardoor die apps eigenlijk de hele dag door maar je aandacht blijven vragen.

[1:32:51] Dat is ook een kwestie van

[1:32:53] platformen kunnen besluiten het niet te doen.

[1:32:55] U kunt besluiten dat ze het niet mogen doen.

[1:32:58] Een tussenweg zou kunnen zijn dat gebruikers de keuze wordt gegeven om dat soort zaken aan en uit te zetten.

[1:33:06] Wanneer het specifiek gaat over leeftijdsverificatie,

[1:33:12] Er is nu een grote pilotgaande in Australië, waarbij 52 verschillende soorten leeftijdsverificatie worden getest.

[1:33:22] Dus er is nogal wat op de markt van vrij helzame oplossingen, zoals een soort digidee-achtige technieken.

[1:33:32] tot minder heilzame, dus alles met het woord blockchain erin zou ik vooral afraden.

[1:33:38] Leeftijdsverificatie, waarbij biometrie een rol speelt om leeftijd te schatten, zou ik afraden.

[1:33:45] En het geven van meer informatie aan de Big Tech-platformen zou ik ook afraden.

[1:33:52] Dank u wel.

[1:33:52] Nog een vervolgvraag, meneer Stoffer.

[1:33:54] Nou, die zat wel in mijn vraag ingebakken.

[1:33:57] Misschien is de antwoord wel ongeveer gegeven, maar even heel scherp.

[1:34:00] Wat zit ons in de weg?

[1:34:02] Waardoor hebben we het nog niet?

[1:34:04] En wat kunnen we veranderen?

[1:34:09] Nou, dus wat betreft die mechanismen is er al wel het een en ander gedaan in de digitale dienstenverordening.

[1:34:15] Dus daar zijn een aantal manipulatieve ontwerppraktijken zijn beter gereguleerd.

[1:34:24] Er zijn ook manipulatieve ontwerppraktijken die daar niet onder vallen.

[1:34:31] Dat zijn de vormen waar we het vandaag over hebben.

[1:34:34] Die bijdragen aan timespent en andere indicatoren die iets zeggen over de verslavende werking.

[1:34:42] Ik wil wegblijven van dat woord.

[1:34:47] over klinische verslaving of niet, maar de situatie waarin mensen meer tijd doorbrengen op hun telefoon of in een app dan ze zelf zouden willen.

[1:34:59] En die specifieke manipulatieve praktijken kunnen nu in de herziening van het Europese consumentenrecht heel goed worden geadresseerd.

[1:35:10] Die update wordt daar al heel lang om gevraagd.

[1:35:17] In theorie, als de lobby van de grote platformen onsuccesvol is, zou dat misschien wel het ontbrekende puzzelstukje kunnen zijn.

[1:35:32] Ik heb een vraag voor mevrouw Assante.

[1:35:36] U schrijft dat jongeren op social media in aanraking kunnen komen met onbetrouwbare informatie.

[1:35:43] Het is ook in de mainstream media.

[1:35:50] volkomen gefabriceerd waren, waar mensen ook echt een baan door hebben verloren.

[1:35:53] En als je mij vraagt, dan zie ik dat het commissariaat van de media daar, voor zover ik weet, maar misschien kun je de antwoord geven, daar dus niet op handhaaft.

[1:36:00] En er bijvoorbeeld wel ongewone held achter de boek aanziet voor iets totaal onbeduidelijks.

[1:36:03] Dus mijn vraag is eigenlijk, hoe zit u vervolgd?

[1:36:06] Daar had u het de hele tijd over.

[1:36:07] Uw vervolgingsbeleid komt om mij ontzettend willekeurig over.

[1:36:11] En is dat niet, je zou zelfs kunnen zeggen politiek gekleurd, is dat niet een probleem?

[1:36:16] Mevrouw Assange.

[1:36:19] Het beleid van het commissariaat ten aanzien van waar we toezicht op houden of niet is gebaseerd op risico's.

[1:36:27] We kijken naar de mate waarin een bepaalde praktijk risicovol is, riscant is, zich voor kan doen en de impact daarvan op de mediagebruiker.

[1:36:41] Dat is de leidraad op basis waarvan wij toezicht houden.

[1:36:45] We hebben geen enkele voorkeur

[1:36:47] voor wie dan ook.

[1:36:50] We juichen het juist toe.

[1:36:52] En dat is ook het mooie van het Nederlandse mediabestel, de pluriformiteit.

[1:36:57] Wat de wet ook voorschrijft, dat eigenlijk binnen het aanbod alle opvattingen, stromingen, culturen, alle Nederlanders hebben het recht om zich in dat aanbod te herkennen.

[1:37:17] Wat we wel zeggen tegen partijen, nou dat we zeggen welkom, wat fijn dat u bijdraagt aan die pluriformiteit, zeggen we, we hebben regels.

[1:37:28] En die regels gelden voor iedereen.

[1:37:32] Dus wij verwachten dat alle partijen zich aan die regels houden.

[1:37:38] Nog één zin, en daar waar het niet gebeurt, daar grijpen we in.

[1:37:44] Zichtbaar voor u is uiteindelijk aan het eind, als we publiceren over een sanctie.

[1:37:51] Wat niet zichtbaar is voor u en het publiek zijn juist de gesprekken, de waarschuwingen, de normoverdragende interventies.

[1:38:00] Dat is niet altijd even zichtbaar voor het grote publiek en ook niet voor u.

[1:38:07] Een korte vervolgvraag.

[1:38:09] Hoe kan het dan zo zijn dat Zembla niet vervolgd is door u?

[1:38:13] Daar heeft u niks gedaan, geen boete.

[1:38:15] En daar met hele kwalijke consequenties, namelijk mensen zijn hun beroepsstelsel verloren.

[1:38:18] En Ongoor-Nederland zit u totaal futiel achter de volle aan.

[1:38:23] Dus dat is wat we zien.

[1:38:25] Legt u dat dan eens uit?

[1:38:26] Hoe kan zo'n keuze tot stand komen?

[1:38:28] Dat is niet de ruimte voor nu.

[1:38:30] We zitten in een rondetafelgesprek.

[1:38:34] Mevrouw Bruining.

[1:38:34] Ik heb een vraag voor mevrouw Castro.

[1:38:43] Ik ga het in het Engels proberen.

[1:38:44] Mijn Engels is slecht, maar dat is geen probleem.

[1:38:48] Wat stappen kunnen ouders nemen, of moeten ouders nemen... ...om open te praten met hun kinderen over het gebruik van sociale media?

[1:38:58] Dank u. Oké, dank u. Uw Engels is beter dan mijn Nederlands, moet ik zeggen.

[1:39:08] Wat praten hebben ze?

[1:39:09] Ouders moeten allerlei praten hebben met hun kinderen.

[1:39:12] Mevrouw Koekoek,

[1:39:43] Ik zou graag een vraag stellen aan de heer Hoving.

[1:39:46] U had het over, hoe moet ik het goed zeggen?

[1:39:50] Harmformbald lawful content.

[1:39:53] Daarin vroeg ik me af, wat is de beste manier om dat aan te pakken?

[1:39:58] Ik kan me voorstellen dat je moeilijk kan normeren en moeilijk kan handhaven, toezicht houden.

[1:40:04] Maar dat het wel degelijk iets is waar je met beleid of met andere instrumenten die wij hier in de politiek voor handen hebben, iets mee moet doen.

[1:40:12] Ja, zeker.

[1:40:14] Harmful but lawful content, ik noem het alfol, dat is gewoon die content die online is, maar die niet onze wettelijke norm overgaat, maar waar mensen wel verschrikkelijk veel last van hebben.

[1:40:22] Als je kijkt naar Help Wanted, het gros van de meldingen die daar binnenkomt, uiteindelijk gaan er duizend verwijderverzoeken per jaar uit.

[1:40:29] En we krijgen meer dan twaalfduizend meldingen.

[1:40:31] Dus dan zie je dat we daar al een heleboel van krijgen.

[1:40:33] En ik denk dus dat de grote vraag daarbij is dat je het goed in kaart moet gaan brengen.

[1:40:37] Wat is dat nou?

[1:40:37] Want als je het dus goed in kaart kunt gaan brengen en bijvoorbeeld ziet dat heel veel haat richting bijvoorbeeld een LHBTI plus gemeenschap zo enorm toeneemt en dat dat zulke desastreuze effecten heeft in de offline wereld, niet meer naar school willen, niet meer deelnemen aan het maatschappelijk verkeer, dat je dan misschien met dat soort signalen als toch wel wetgever kan bepalen van joh, misschien moeten wettelijke normen wel opschuiven omdat we dit gewoon niet meer toegestaan.

[1:41:02] vinden.

[1:41:03] Wij vinden dit niet oké.

[1:41:04] Net zoals doxing op een gegeven moment per 1 januari 2024 strafbaar is gesteld.

[1:41:09] Als jij gegevens verzamelt of verspreidt over iemand om iemand te intimideren, dan is dat nu strafbaar.

[1:41:15] Dus daar kunnen we content voor weghalen.

[1:41:18] Ik denk dus daarom dat je die integrale aanpak moet hebben van content op één plek waar mensen naartoe kunnen bellen.

[1:41:23] Ik heb hier last van, want vanuit daar kun je dan ook signaleren en aangeven van joh, nu hebben we bijvoorbeeld, in het nieuws is veel de menno-sfeer.

[1:41:30] ...kunnen er vergif op opnemen, daar gaan heel veel meldingen over binnenkomen... ...waar mensen heel veel last van binnen hebben.

[1:41:35] Daar kun je dan ook actie op ondernemen.

[1:41:37] Behalve dat er nu nog geen verwijderverzoek gestuurd kan worden... ...omdat het niet de wettelijke norm overgaat... ...is wel één ding duidelijk, die mensen hebben hulp nodig.

[1:41:44] En die kun je dan veel beter bieden.

[1:41:46] En dan komen ze niet achteraf terecht bij die hulp of bij die zorg... ...wat uiteindelijk de maatschappij op een later moment veel meer geld gaat kosten.

[1:41:53] Beantwoordt dat uw vraag?

[1:41:56] Vervolgens vraag ik mevrouw Koekoek.

[1:41:58] Heeft u nog advies over op welke manier je dan het beste die informatie kan verzamelen?

[1:42:09] Ja, het voelt een beetje gek om te praten voor eigen parochie.

[1:42:12] Maar we hebben hier supersterren zitten die ook content beoordelen.

[1:42:16] We kunnen in dat klassificeren, kunnen we ook heel mooi optrekken met een organisator als een Nikam, die daar verschrikkelijk veel ervaring in heeft.

[1:42:23] Dus je zou dat op één plek moeten laten binnenkomen.

[1:42:25] En ja, wij draaien nu al rapportages uit.

[1:42:27] Dat moet voor de Digital Services Act, Transparency Reporting.

[1:42:31] Ieder jaar maken wij een heel mooi jaarplan, waarin te zien is wat er precies gebeurt.

[1:42:35] De kanjer van de cijfers zit daar.

[1:42:40] Wij kunnen hele mooie rapporten uitdraaien waarin je heel duidelijk kunt aangeven wat er aan de hand is en welke partij er nog meer bij nodig is.

[1:42:50] Dus op die manier.

[1:42:51] Maar een beetje gek om dat te vereigen.

[1:42:58] Ik wil iedereen bedanken voor de heldere bijdrage die ze geleverd hebben.

[1:43:22] om dat probleem te beheersen.

[1:43:24] Maar als je het door het systeem wilt beheersen, de telefoon of de tablet of wat dan ook, dan moet je een achterdeur genereren.

[1:43:32] En een achterdeur opent een gevaarlijkheid.

[1:43:35] Hoe bepaal je die gevaarlijkheid?

[1:43:38] Oké, de manier waarop ik over onze technologie kan praten en de manier waarop het werkt, is dat het kijkt naar wat op het scherm en op de camera wordt gerenderd.

[1:43:51] Dat zijn de enige twee plekken waar het kan zien en kijken en het kijkt naar kinderseksuele abusmateriaal en pornografie.

[1:43:57] Dat zijn de twee dingen.

[1:43:59] Dus als het door een geëncrypteerd platform komt en dan probeert om op het scherm te worden gerenderd,

[1:44:05] Als een kind geencouragd of gecoerceerd is om een seksuele afbeelding van zichzelf te nemen met zijn camera op zijn telefoon, wanneer de camera herkent wat er gebeurt, dan blokkeert het het en maakt het die afbeeldingen onbruikbaar.

[1:44:25] Dat is hoe onze technologie werkt.

[1:44:26] Het doet niets in de encrypte platform, want het kan er niet in.

[1:44:30] Maar het werkt aan beide kanten.

[1:44:32] Als we een klas met kinderen hadden

[1:44:36] Ja, dank u voorzitter.

[1:44:55] Ik heb een vraag aan de heer Hoving van Off Limits.

[1:45:01] U weet dat ik het vaker heb gezegd, dat ik zo ongelooflijk blij ben en dankbaar dat Off Limits er is.

[1:45:07] Ik heb de afgelopen tijd heel veel gesprekken gevoerd op scholen.

[1:45:10] met heel veel jongeren en over wat zij online meemaken of eigenlijk zelf ervaren mee moeten maken.

[1:45:18] En wat me daar ook opvalt is dat heel veel jongeren eigenlijk al soms een beetje gelaten zijn.

[1:45:24] Dus als ze materiaal zien wat ze liever niet zien of als het gaat over pesten, maar zelfs ook als ze...

[1:45:31] Dickpics krijgen doorgestuurd of seksuele content die echt, nou ja, eigenlijk... Volgens mij heb ik het wel eens met u over gehad.

[1:45:38] Er zou eigenlijk een sticker niet 18PLUS op moeten, maar gewoon voor niemand geschikt.

[1:45:44] Dat ze heel vaak eigenlijk zelf niet eens weten dat ze dat kunnen melden, of dat ze het bijna niet meer melden, omdat ze eigenlijk ook niet weten wat is nou illegaal of niet.

[1:45:53] Wat kunnen we er nou aan doen, wat moeten wij vanuit Den Haag doen om eigenlijk die meldingsbereidheid, en ook dat weten dat dat kan, om dat omhoog te krijgen?

[1:46:02] En misschien is mijn deelvraag daarbij ook wel van, zit daar ook iets in van dat we het melden kinderen of jongeren vriendelijker bijvoorbeeld moeten maken?

[1:46:11] Of zit het ermee in iets heel anders?

[1:46:14] Bedankt.

[1:46:15] We hebben het hier inderdaad veel over.

[1:46:17] Ik herken het zelf ook als ik met kinderen praat.

[1:46:19] Dan zie ik een verschrikkelijke video die ik doorgestuurd krijg in een of andere appgroep waar ik met honderden wildvreemden in zit.

[1:46:26] En ik kijk er maar naar, want anders ben ik niet stoer.

[1:46:28] Ook de gelatenheid, de hoeveelheid uren die ze online spenderen.

[1:46:34] Ik denk dat we daarin een paar stappen terug moeten gaan.

[1:46:38] En echt die kinderen toch wel heel erg moeten gaan meegeven.

[1:46:41] Dat is niet oké.

[1:46:43] Want we weten bij Stop it now, onze preventielijn, dat herhaaldelijk blootstelling aan pornografisch materiaal op een veel te jonge leeftijd kan verschrikkelijk schadelijk zijn.

[1:46:57] Mensen op zoek gaan naar nog heftiger materiaal.

[1:47:01] Dus ik denk echt een paar stappen terug.

[1:47:02] Het zit voor mij heel erg in voorlichting.

[1:47:04] Het stukje AI is verboden, als je daar naakbeelden mee maakt.

[1:47:08] Dat weten heel veel mensen niet.

[1:47:10] Dat het verspreiden van naakbeelden verboden is, weten heel veel mensen niet.

[1:47:15] Als je dan kijkt naar de normen en waarden op scholen.

[1:47:19] Terug naar Amsterdam, waar wij dan voor de gemeente

[1:47:22] naar scholen en daar ook meldingen ontvangen.

[1:47:25] En ook als je daar ziet, he, burgemeester Halsmaat een rondgang gemaakt, maar het, ik noem het maar, traditioneel conservatieve idee wat daar bestaat, he, over het verschil tussen mannen en vrouwen.

[1:47:37] Ik denk echt dat we alle zeilen bij moeten zetten om op die scholen seksuele en relationele vorming goed vorm te geven.

[1:47:43] Goed vorm te geven wat grenzen zijn.

[1:47:46] Goed vorm te geven hoe je met elkaar omgaat.

[1:47:48] Maar ook mensen toch wel mee te geven.

[1:47:49] We leven hier in een rechtsstaat.

[1:47:50] En dingen die in wettelijke norm overgaan, dat doe je gewoon niet.

[1:47:53] Dat doen we niet omdat die strafbaar zijn.

[1:47:55] Ik heb geen toverstokje, maar ik denk dat het echt heel erg betekent ernaartoe gaan.

[1:48:02] Misschien moet je er dus ook wel voor kiezen om het los te trekken van scholen.

[1:48:04] Want je krijgt dan toch weer, nou, school, moeten we dit er ook bij doen?

[1:48:08] Samen met Hackshield werken wij veel samen.

[1:48:11] Ja, hoe mooi is het als je iets hebt wat gewoon altijd voor iedereen beschikbaar is, onafhankelijk waar je naar school gaat?

[1:48:17] Want ik weet ook wel, in Amsterdam ben ik verschillende scholen afgegaan.

[1:48:21] In bepaalde wijken wordt er heel veel aandacht aangegeven en in bepaalde wijken helemaal niet.

[1:48:25] En dat is dan nog alleen maar Amsterdam.

[1:48:27] Dus ik denk dat dat er naartoe gaat.

[1:48:30] Wij hangen flyers op, wij vertellen verhalen.

[1:48:33] Ook het inzetten van positieve rolmodellen daarin, dat dat heel belangrijk is.

[1:48:37] Maar dat het echt gewoon tijd en aandacht vergt en het gewoon doen.

[1:48:43] Dank u wel.

[1:48:44] Mevrouw Trouw.

[1:48:47] Dank u wel.

[1:48:48] Voorzitter, ik had nog een vraag aan de heer Haafman.

[1:48:51] En dat gaat over het feit, volgens mij moet het uitgangspunt zijn dat we die kinderen gewoon veilig op dat internet, op die platforms kunnen zitten.

[1:48:59] En u had het over die teentools.

[1:49:02] Maar ja, kinderen die zitten op hun eigen telefoon, maar ook op de tablet van hun ouders, op het telefoon van ouders.

[1:49:08] Waarom heeft META er niet voor gekozen om dit gewoon als lijn door te trekken?

[1:49:13] Want met alle respect, ik ben veertig en ik hoef al die schadelijke content ook niet te zien.

[1:49:18] Dank voor deze vraag, mevrouw Dral.

[1:49:24] Goed om te melden is dat wij sowieso, en ik noemde het al net in mijn antwoord op mevrouw Katman, dat wij hele strikte community standards hebben.

[1:49:31] Dus richtlijnen voor wat wel en niet allemaal toegestaan is op de platformen van META.

[1:49:38] Die zijn op veel onderwerpen recetief.

[1:49:41] Het gaat over naakt, pesten, hate speech, een waaie van onderwerpen.

[1:49:51] uitgebreid op onze Transparency Center.

[1:49:57] Als het gaat specifiek om geweld, zijn er soms wel situaties, als er misschien sprake is van geweld van een overheid of politie of bepaalde zaken die nieuwswaardigheid hebben, die we wel toestaan.

[1:50:10] Maar daarvan zeggen we dan, dat is nou typisch iets wat we dan wel toestaan voor volwassenen, maar wat je dan volgens mij als tiener niet zou zien.

[1:50:19] Dus ik snap dat u ook dan misschien reactiever zou willen.

[1:50:22] Het goede is, daar is ook een knopje voor, voor volwassenen.

[1:50:26] Die kunnen ook zeggen, ik wil minder sensitive content zien.

[1:50:31] En die keuze heeft u inderdaad.

[1:50:33] Maar voor tieners zetten we dat automatisch aan.

[1:50:37] Een aantal keer werd er personalisatie genoemd.

[1:50:42] Personalisatie is eerder een oplossing dan een probleem.

[1:50:49] Algoritmes bieden oplossingen voor de problemen.

[1:50:54] Met behulp van algoritmes...

[1:50:59] in staat bent om minder geschikte content lager te zetten of juist weg te houden van jeugd.

[1:51:07] En juist als je minder gepersoneerde content hebt, zullen ze minder snel content van hun familie en vrienden zien, want dat komt gewoon lager aan de tijdlijnen

[1:51:16] wordt het weggedrukt door minder relevante content.

[1:51:19] En ook als je het ouders vraagt, we hebben er best wel onderzoek naar gedaan, willen ze juist liever dat ze content zien die voor hen relevant is en dus gepersonaliseerd, in plaats van dingen die toevallig gewoon mainstream zijn, maar niet per se voor hun relevant en ook niet interessant.

[1:51:36] Dus dat vind ik nog wel een belangrijke toevoeging.

[1:51:38] Dank u wel, meneer Stoffer.

[1:51:40] Dank voorzitter.

[1:51:41] Ik heb een vraag van mevrouw van Stormbroek.

[1:51:43] U heeft bij uw position paper ook een bijlage en daar spreekt u onder andere over de digitale kijkwijze.

[1:51:50] En daar staat met de digitale kijkwijze krijgen kinderen in één oogopslag informatie kunnen ze besluiten om niet te kijken.

[1:51:59] Ik vraag me even af, hoe werkt dat dan?

[1:52:03] Als ik nu mezelf al neem, maar zeker als jongetje destijds, dan zou ik juist denken, wat zit erachter?

[1:52:11] Dan ga ik even kijken.

[1:52:11] Maar is dat heel naïef gedacht of zit hier wel iets normerends in?

[1:52:18] Dank u wel voor de vraag.

[1:52:20] Het sluit ook wel een beetje aan op wat meneer Havenman zojuist zei.

[1:52:24] Ik denk dat het heel belangrijk is dat als je de content kunt voorzien van labels, dan kun je dus ook meer doen als platform om te zorgen dat kinderen of gebruikers, of ook u zelf, bepaalde content niet te zien krijgt als u dat zo kunt instellen.

[1:52:42] Dus het is mooi dat dat in zo'n tieneraccount zit, maar het zou nog mooier zijn als je dan als tiener ook zou kunnen instellen, of samen met je ouders, welke content je wel of niet kunt zien.

[1:52:52] Maar daarvoor heb je wel die labeling nodig.

[1:52:54] En dat is waarom ik ook hiervoor pleit.

[1:52:57] We hadden het eerder in het eerste blok, ging het ook over het verkeer.

[1:53:01] In het verkeer hebben we ook verkeersborden om ons de weg te wijzen.

[1:53:05] En die zijn uniform.

[1:53:06] Er is toezicht op.

[1:53:08] En wij kennen allemaal die regels.

[1:53:09] En dat vind ik ook dus vergelijkbaar om dat op social media platforms zo te organiseren.

[1:53:15] Want daarmee kun je ook de autonomie geven bij de gebruiker, bij de gebruiker neerleggen.

[1:53:20] Of een volksvraag van meneer Stoffer.

[1:53:22] In mijn eerste ronde vragen stelde ik natuurlijk de vraag van, hebben we technische oplossingen?

[1:53:26] Maar eigenlijk zou dit dus, als ik het goed begrijp via u voorzitter, de technische oplossingen zijn dat je denkt, nou, we klassiferen iets van tot twaalf of zo, of tot zes, tot twaalf, tot achttien, ik noem wat op.

[1:53:37] En dan kun je het gewoon aan of uitzetten en that's it.

[1:53:44] Die labels heb je nodig om de platform ook te kunnen instellen.

[1:53:48] Dus ja, dat is de eerste stap.

[1:53:50] Ik zeg niet dat het de oplossing is, want je hebt natuurlijk meerdere elementen die mogelijk schadelijk zijn voor kinderen, behalve content.

[1:53:59] Maar ook daar denk ik dat, omdat ik ook heel belangrijk vind dat het goede gesprek gevoerd wordt, maar ook dat kinderen aan de hand van die informatie, je kan hem ook andersom gebruiken uiteraard, zoals u net het voorbeeld geeft, maar ik denk dat het veel eerder kan helpen in het goede gesprek met kinderen.

[1:54:15] Aan de ene kant is het preventie, je kunt voorkomen dat je het ziet, maar je kunt ook het goede gesprek erover voeren als je het per ongeluk wel gezien hebt.

[1:54:23] En daar kun je ook weer mooie systemen aan toevoegen, zodat je daar bewust mee omgaat, want ik denk dat het ook heel belangrijk is om

[1:54:29] en kinderen bewust te maken en weerbaar te maken tegen dit soort beelden.

[1:54:35] Maar dan moet je wel daar het gesprek over kunnen voeren.

[1:54:37] En ik denk juist ook, dat werken we ook bij Kijkwijze met de pictogrammen, dat dat een soort van mechanisme in werking kan stellen.

[1:54:45] Dat heet het stap-and-think-mechanisme.

[1:54:48] Dat is na een model van Esther Roosendaal.

[1:54:51] Daarmee kun je dus ook interventies ontwikkelen voor ouders en kinderen, maar ook specifiek voor kinderen alleen, dat ze aan de slag kunnen met die content.

[1:55:01] Want daar is denk ik ook nog heel veel op te doen.

[1:55:03] En dat geeft zit veel meer in de sfeer van media wijsheid.

[1:55:05] Maar daar moeten we ook daarop samenwerken.

[1:55:08] Dank u wel, meneer Van der Haberlingen.

[1:55:10] Vraag voor de heer Haverman.

[1:55:11] Ik begrijp als ik me niet vergis dat deze week Meta AI heeft aangekondigd dat het content die jongeren plaatst bijvoorbeeld op Instagram gebruikt kan worden, waarschijnlijk om het AI-model te ontwikkelen, tenzij je dat aanvinkt van dat je dat niet wil.

[1:55:21] Maar heel weinig jongeren zullen dat denk ik natuurlijk doen.

[1:55:24] Klopt dat en zou het niet beter zijn om dan jongeren eerst toestemming te vragen en dan pas die content te gebruiken?

[1:55:31] De content van jongeren onder 18 wordt niet meegenomen hiervoor.

[1:55:36] Ik heb een vraag aan mevrouw Assante.

[1:55:41] De komende vijf jaar zijn de jongeren de pijler.

[1:55:45] Hoe worden jongeren zelf daarin betrokken en meegenomen?

[1:55:56] een belangrijke functie in het agenderen en het signaleren van ontwikkelingen.

[1:56:03] En dat doen wij aan de hand van onderzoeken.

[1:56:06] En bij die onderzoeken betrekken wij behalve een hele reeks aan instanties, wetenschappers, maar dus ook jongeren.

[1:56:16] We hebben bijvoorbeeld vorig jaar een onderzoek gedaan naar het nieuwsgebruik onder jongeren.

[1:56:22] En dat hebben we voor een heel groot deel samen gedaan

[1:56:25] met de jeugdige.

[1:56:29] Wat ik nog daaraan zou willen toevoegen, wat van belang is, ook als je kijkt naar de manier waarop jongeren omgaan met media.

[1:56:38] Ik heb het misschien wel eerder gezegd, je hebt twee kamers.

[1:56:41] De kamer van de traditionele media en de sociale media.

[1:56:46] En je ziet dat met name onder jongeren een grote verschuiving is van die Eerste Kamer naar die Tweede Kamer.

[1:56:54] En dat is een ontwikkeling, daar kan je niet tegen gaan.

[1:56:57] Dat gebeurt.

[1:56:58] Dat is de digitaliseringsontwikkeling.

[1:57:01] Wij zeggen ook, en daar hebben we ook voor gepleit vorig jaar, zorg er nou voor dat naast alle andere dingen die je doet, dat op die plek waar die jongeren komen, dat ze daar in aanraking komen met betrouwbare en onafhankelijke mediaaanbod.

[1:57:18] Want ook dat is heel belangrijk.

[1:57:19] Dat helpt namelijk jongeren ook om vanuit verschillende perspectieven naar vraagstukken te kijken, naar het nieuws te kijken.

[1:57:28] Maar daar is wel een wet voor nodig.

[1:57:32] Dat is een verzoek die we al vorig jaar naar aanleiding van ons onderzoek hebben gedaan.

[1:57:38] En daarnaast zou het voor het commissariaat ook heel fijn zijn als er open normen komen in de wetgeving.

[1:57:44] Want dat maakt het voor ons flexibeler om toezicht te kunnen houden.

[1:57:50] Juist die open normen.

[1:57:53] Dank u wel, mevrouw Koekoek.

[1:57:56] Ik zou graag een vraag stellen aan mevrouw van Stormbroek.

[1:58:01] U had het eerder over de medeverantwoordelijkheid van bedrijven.

[1:58:06] Ik vroeg me af of u daar adviezen in heeft.

[1:58:10] Wat is de beste manier om de medeverantwoordelijkheid te stimuleren?

[1:58:13] Ook in relatie tot de all content.

[1:58:16] Omdat je daar geen wet hebt om te handhaven.

[1:58:19] Maar misschien wel die medeverantwoordelijkheid in kan roepen.

[1:58:25] Dank u wel voor deze vraag.

[1:58:27] Het werkt zo dat hoofdstuk 4 van de mediawet is van toepassing op alle mediaaanbieders in Nederland.

[1:58:34] En zij zijn verplicht om, als zij schadelijk content maken, om zich aan te sluiten bij het NICAM.

[1:58:41] En NICAM heeft dus ook een toezichtsfunctie om te kijken of deze partijen dit ook daadwerkelijk naleven.

[1:58:48] Dat gaat dus ook op die manier gepaard.

[1:58:50] De bioscoop en de filmdistributeurs zijn samen verantwoordelijk voor het goed organiseren, zodat de kijker goed geïnformeerd wordt.

[1:59:00] En de kinderen zien in de bioscoop geen schadelijke content als ze die leeftijd nog niet hebben.

[1:59:06] Leeftijdsverificatie werkt daar 100 procent.

[1:59:09] Als het gaat om online media, dan missen we die tandem.

[1:59:13] Want we kunnen wel de makers vragen om hun content te klassificeren.

[1:59:17] En we hebben uiteraard ook de platforms gevraagd om te faciliteren dat die klassificaties dan in beeld komen.

[1:59:21] En dat die labels, waar ik het zojuist over had, ook zorgen voor systemen dat je in kunt stellen dat je bepaalde content niet ziet.

[1:59:28] Maar daar, vanwege het land van oorsprong, hebben we daar geen wettelijke taak.

[1:59:34] Maar we vragen het natuurlijk wel.

[1:59:35] En dat is ook mijn pleidooi hier eigenlijk, omdat die samenwerking nu ontbreekt.

[1:59:40] Dank u wel, meneer Van Liessen.

[1:59:43] Ik heb nog even een korte vraag aan zowel mevrouw Oss en Stormbroek, omdat zij een zeer uitgesproken mening hadden over de platforms, Big Tech.

[1:59:56] Links van u zit de heer Havenman van Big Tech bedrijf.

[2:00:02] Heeft u ook met deze bedrijven om de tafel gezeten om daarover te spreken met betrekking tot die algoritmes?

[2:00:10] Mevrouw Alsten of mevrouw Van Stomboek?

[2:00:13] Ja, zeker.

[2:00:13] We hebben niet zozeer met meneer Havenman, want die ontmoet ik hier vandaag voor het eerst.

[2:00:18] Maar we zijn samen ook met het commissariaat voor de media en het ministerie van OCW naar Ierland gegaan, omdat in Ierland de grootste bedrijven... Dit was in 2023.

[2:00:30] Zaten die ook vanwege het land van oorsprongbeginsel de gedragscodes moesten maken voor de video sharing platforms.

[2:00:38] Dus daar zijn we naartoe gegaan en daar hebben we een rondje gemaakt met de platforms.

[2:00:41] En zijn we ook in gesprek gegaan met de toezichthouder daar.

[2:00:44] En daar hebben we eigenlijk ook dit gevraagd.

[2:00:46] Maar op dit moment is het nog zo dat het hier gaat om zelfregulering.

[2:00:50] Terwijl het systeem waar ik over spreek is co-regulering.

[2:00:53] Omdat het is super belangrijk om het samen te doen met de mediapartijen.

[2:00:56] Omdat die natuurlijk ook de mogelijkheden om dit te doen, ook hun verantwoordelijkheid hierin kunnen nemen.

[2:01:02] De overheid, omdat de wetgeving en de regels worden gemaakt.

[2:01:05] En ouders en kinderen om ons ook te voeden van hoe kunnen we ze daarbij het beste helpen.

[2:01:10] En last but not least, de wetenschappelijke inzichten zijn voor ons superbelangrijk, want dan is het ook onafhankelijk en navolgbaar.

[2:01:19] Dank u wel.

[2:01:21] Afsluitend.

[2:01:25] Ik zei het net in mijn openingswoord.

[2:01:28] Ze strooien ons zand in de ogen door problemen te verdoezelen en af te schuiven.

[2:01:34] Meneer Havenman kan mij vast verbeteren, maar ik geloof dat Bitser Freedom een jaar of tien geleden is gestopt met aan Meta of destijds Facebook te vragen of ze niet zelf wat konden doen.

[2:01:48] Omdat wij niet meer geloofden in dat dat zou gebeuren.

[2:01:53] En dus in zelfregulering.

[2:01:54] Dus dat is al zo'n tien jaar niet meer onze prioriteit.

[2:02:00] Dank u wel.

[2:02:00] Nou, dan sluiten we dit blok af.

[2:02:03] Twee minuten uitgelopen.

[2:02:04] Ik vind het toch nog wel keurig met zoveel gasten.

[2:02:07] Dank u wel.

[2:02:08] Miss Castro, thank you very much to be our guest.

[2:02:13] And maybe until next time.

[2:02:15] Thank you.

[2:02:17] Ik schors even de vergadering voor dadelijk het volgende blok.

[2:02:19] En dan gaan we met ouders spreken.

[2:02:21] Dat is altijd heel interessant.

[2:06:38] Dank je wel.

[2:06:39] Dan heropen ik dit rondetafelgesprek voor blok drie.

[2:06:43] En wij verwelkomen Yvonne Koopman.

[2:06:45] Zij is van gezinsplatform.nl.

[2:06:49] Mevrouw Winsemius van Stichting Voor Werkende Ouders.

[2:06:52] Mevrouw Uildriks van Stichting Smartfoonvrij Opgroeien.

[2:06:58] En mevrouw Van Schalkwijk van Unicef Nederland.

[2:07:03] Welkom.

[2:07:04] En dan wil ik graag als eerste het woord geven aan mevrouw Koopman.

[2:07:11] Ik zal hem even aanzetten, anders hoort u mij niet.

[2:07:13] Excuus, geachte voorzitter, geachte commissieleden.

[2:07:16] Dank dat wij hier mogen zijn.

[2:07:19] Ik zal kort even zeggen dat gezinsplatform.nl opkomt voor de belangen van het gezin.

[2:07:26] De vitaliteit van gezinnen is in hoge mate bepalend voor de gezondheid en de toekomst van de samenleving.

[2:07:33] De deelnemers aan het platform, die ons informeren en adviseren, zijn organisaties die actief zijn in onder meer het onderwijs, de zorg en de beleidsvorming.

[2:07:44] We zijn dus zeer dankbaar dat de brief die we eind 2024 aan de commissie hebben gestuurd, uw commissie, aanleiding is geweest voor dit rondetafelgesprek.

[2:07:56] Het onderwerp staat volop in de belangstelling, zeker de laatste maanden, en dat laat zien hoe urgent het probleem is en hoe groot de uitdaging voor gezinnen inmiddels is.

[2:08:08] Bij de week van het gezin die wij van 11 tot en met 17 mei mochten houden... was het thema dan ook scherm uit gezin aan.

[2:08:15] En we hebben aan uw commissie een tienpuntenplan aangeboden... waarvan ik enkele ook van u heb mogen ontmoeten toen.

[2:08:22] Dat hebben we dus in die week gedaan.

[2:08:24] En dat onderwerp was aanpak over matige schermgebruik.

[2:08:28] Ik spreek hier dan ook echt vanuit het perspectief en de ervaring van het gezin...

[2:08:34] Dat is namelijk de plek waar kinderen opgroeien, waar alles eigenlijk begint.

[2:08:40] Zij groeien daarop vanaf hun kind zijn tot jongeren zijn.

[2:08:44] Het is de basis waar het zelfvertrouwen wordt gelegd, waar kinderen zich motorisch, sociaal en emotioneel moeten kunnen ontwikkelen.

[2:08:53] Tot zelfbewuste jongvolwassenen die vrije keuzes kunnen maken.

[2:08:58] Ik gebruik ook wel bewust het woord gezin, omdat het geheel van relaties en interactie tussen ouders, kinderen, broers, zussen, ooms, tantes, nichten, neven, opa's, oma's, of het nou goed is of minder goed, dat die cruciaal zijn voor die ontwikkeling tot die zelfbewuste jongvolwassenen.

[2:09:20] De sociale media en games ontwrichten die dynamiek en balans binnen het gezin.

[2:09:27] Onder andere door de, wat al vaker genoemd is, de extreem verslavende werking, die niet alleen vraagt voor doorscrollen, maar ook in opvolging zorgt dat er bepaalde content wordt aangeboden.

[2:09:41] Het overmatig of het vele schermgebruik, de vele uren die kinderen al en later ook jongeren achter het scherm zitten, stuurt namelijk aan op stilzwijgende afzondering.

[2:09:52] Ieder met zijn eigen mobieltje,

[2:09:54] in zijn eigen digitale wereldje gevangen dus in die slavende algoritmes.

[2:10:00] Ja, ouders zijn de eerst verantwoordelijken voor de opvoeding van de kinderen.

[2:10:05] Dat klopt.

[2:10:06] En in de fysieke wereld doen ze er ook alles aan om hun kinderen zo goed mogelijk te begeleiden en hun veiligheid te garanderen.

[2:10:14] Maar in de online wereld laten zij hen vaak uit onkunde of uit onmacht

[2:10:21] over aan deze verslavende algoritmes die vooral inspelen op emoties.

[2:10:26] En die emoties kunnen kinderen met name nog niet reguleren.

[2:10:31] Contact maken met hun kinderen is vaak een strijd, omdat deze dus vastgekluisterd zitten aan hun mobieltelefoon.

[2:10:39] Het is het gesprek tussen ouders.

[2:10:41] De zorgen en frustraties over een digitale veilige of vrije omgeving voor hun kinderen zijn er dus volop.

[2:10:49] Ook hoe de online-wereld doorwerkt in de fysieke leefwereld.

[2:10:53] Hoe te handelen of bij wie aan te kloppen, dat weten ouders vaak niet.

[2:10:57] Het maakt het gezinnen uitermate moeilijk om hun opvoedtaak goed uit te oefenen.

[2:11:03] En dat heeft dan weer direct effect op de samenleving.

[2:11:06] Als geheel, meteen als ze zelf nog kind zijn, maar ook waar ze opgroeien en later gaan deelnemen aan die samenleving.

[2:11:14] Ouders kunnen het niet alleen oplossen, omdat de online wereld waar hun kinderen zich in begeven te complex en te onbekend is.

[2:11:23] Gezinnen hebben dus de steun nodig vanuit de samenleving en de overheid.

[2:11:28] Dat hebben wij onder andere in dat 10-puntenplan gepresenteerd.

[2:11:33] zodat zij goed geïnformeerd worden over de verslavende en nadelige effecten op fysiek en mentaal gebied, dat ze goede alternatieven krijgen aangeboden en dat er dus voldoende voorzieningen bijvoorbeeld zijn om meer te bewegen en dergelijke.

[2:11:48] Gezinsplatform staat een duidelijke kadering en ook regulering rondom sociale media platforms voor.

[2:11:56] Maar dat is slechts

[2:11:57] Ik zal het kort houden.

[2:11:58] Maar dat is slechts een deel van een mogelijke aanpak, want de grens van 16 jaar wordt een aantal keer genoemd, maar een 16-jarige zal niet gezellig naast je op de bank kruipen om te gaan luisteren waarom sociale media wel of niet goed zijn en wat ze daar wel of niet mogen doen.

[2:12:15] Wij roepen dus op tot een breedgedragen maatschappelijke beweging waarin ieder op zijn eigen terrein verantwoordelijkheid neemt voor dit probleem.

[2:12:24] En dat geldt dan voor scholen, techbedrijven,

[2:12:27] overheid, wetenschappers en de ouders zelf.

[2:12:31] Dank u wel.

[2:12:31] Mevrouw Winsemius.

[2:12:34] Dank u wel, voorzitter.

[2:12:35] Dank u wel voor de uitnodiging.

[2:12:37] Wij maken één keer per jaar de staat van gezinnen.

[2:12:40] Dit jaar hebben wij dat ook gedaan.

[2:12:42] En dit is een onderzoek die wij dus jaarlijks uitvoeren.

[2:12:44] En dit jaar, even voor het beeld, hebben wij 74 vragen gesteld, waarvan 16 openvragen.

[2:12:49] Er hebben negenduizend ouders bijna gereageerd.

[2:12:53] Wij vragen daarin wat hun zorgen zijn, onder andere.

[2:12:56] En op plek één staat de geopolitieke verhoudingen.

[2:12:59] de spanningen in de wereld.

[2:13:01] Maar op plek 2, op 48 procent, 1 procent daaronder, staat social media en de consequenties van social media.

[2:13:10] Ouders maken zich hier grote zorgen over.

[2:13:13] Overigens is er in die 57.000 open reacties geen een keer het woord verbod genoemd.

[2:13:19] Maar wat ouders wel duidelijk aangeven, is dat ze handelingsverlegen zijn.

[2:13:22] Ze willen hun kind niet achterstellen.

[2:13:24] Ze willen ook dat het mee kan doen op social media, zodat ze niet buitengesloten worden.

[2:13:30] Maar ze zien ook alle consequenties ervan, zowel fysiek als mentaal.

[2:13:34] En ze weten zelf niet goed hoe ze daarmee om moeten gaan.

[2:13:37] Ze zijn handelingsverlegen en kijken daarvoor naar u, naar de omgeving, naar scholen, naar de maatschappij, naar andere rolmodellen.

[2:13:45] Wat wel genoemd werd overigens, waren u als Kamerleden, want u bent vaak in beeld op televisie en de hoeveelheid dat u zelf op een telefoon zit als u in beeld zit, zien zij ook.

[2:13:56] Dus wij hebben menig discussie thuis hierover gevoerd.

[2:14:01] Het vraagt om een gezamenlijke verantwoordelijkheid en een gezamenlijke aanpak.

[2:14:05] Een integrale aanpak werd vandaag al eerder genoemd.

[2:14:08] Er zijn ook mooie voorbeelden genoemd.

[2:14:10] De variant kijkwijzer was mij nog niet bekend, maar die vond ik een hele mooie aanvulling.

[2:14:15] Maar er zijn meerdere dingen die we kunnen doen en dat doen we samen.

[2:14:18] Ook ouders moeten thuis aan de bak, daar ben ik ook stellig van overtuigd.

[2:14:23] Maar daarvoor moeten we ze wel informeren over de gevolgen.

[2:14:25] Informeer ouders bijvoorbeeld over de 2022-regeling, over de gevolgen van bijziendheid op het moment dat je te veel op een scherm zit.

[2:14:32] Als je het niet weet, kan je er ook niet naar handelen.

[2:14:35] Dus eigenlijk is onze oproep vrij duidelijk.

[2:14:39] We hebben in deze wereld veel dingen om onze kinderen te beschermen, maar bijna niets als het gaat om de digitale wereld.

[2:14:46] En als u mij toestaat, voorzitter, ik heb nu de microfoon, maar ik zou via u heel graag nog eventjes mij tot meneer Stoffer richten, want ik ken geen kinderopvangorganisatie die sociale media aanbiedt of media aanbiedt tot de leeftijd van vier.

[2:14:59] Als die er wel is, dan ga ik daar hoogst persoonlijk naartoe.

[2:15:02] Dat kan nooit de bedoeling zijn van kinderopvang.

[2:15:08] Ik denk dat hij er dus niet is.

[2:15:10] Maar als hij er is, dan ga ik daar hoogst persoonlijke titel heen.

[2:15:22] Goedemiddag.

[2:15:24] Fijn dat wij zijn uitgenodigd en dat het initiatief kwam van het gezinsplatform.

[2:15:31] Ik spreek namens de oude beweging Smartphone vrij opgroeien.

[2:15:36] Wij pleiten voor een duidelijke ondergrens.

[2:15:39] Smartphone vanaf 14 jaar, sociale media vanaf 16 jaar.

[2:15:45] Ouders van bijna 40.000 kinderen en inmiddels 3.000 artsen vragen u, volksvertegenwoordigers, stel deze duidelijke ondergrens die de gezondheid en de veiligheid van kinderen moet beschermen.

[2:16:02] Ook kinderen willen een ondergrens, dat hadden wij al gehoord, maar dat weten we inmiddels ook uit onderzoeken zoals het gezenteonderzoek van Unicef.

[2:16:12] Dus als ouders, kinderen en artsen het vragen, waar wachten we dan op?

[2:16:16] Voor u ligt een enorme kans.

[2:16:18] Een enorme kans om kinderen een gezonde en veilige kindertijd terug te geven.

[2:16:23] Ouders in alle regio's van het land steken momenteel hun nek uit.

[2:16:28] Ze bevragen de huidige norm.

[2:16:30] Op twee derde van de basisscholen in Nederland is smartphonevrij opgroeien actief.

[2:16:38] Is ons ouderpact voor uitstel tot minstens 14 jaar getekend.

[2:16:45] Ouders weten niet wat hun voorland is als ze hun kind een smartphone geven.

[2:16:51] Dat kinderen in Nederland gemiddeld 5,5 tot 6 uur per dag op hun smartphone zitten.

[2:16:58] dat deze tijd kostbaar is, want kindertijd is anders.

[2:17:02] Iets anders dan de tijd van u en van mij.

[2:17:05] Een kind heeft namelijk ontwikkelingsstaken te doen.

[2:17:09] Dat het kinderbrein geen impulscontrole heeft en dus niet is opgewassen, per definitie, bij voorbaat, tegen de slavende algoritmes en mechanieken, vergelijkbaar met fruitautomaten.

[2:17:24] Dat de techindustrie verdient aan aandacht trekken en aandacht houden en dat de aandacht van kinderen het product is waarmee wordt gehandeld en waar veel geld mee wordt verdiend.

[2:17:35] Dat we inmiddels weten wat de fysieke schade is dat te veel dichtbij scherm gebruik bijziendheid veroorzaakt en dat de helft van de kinderen in Nederland volgens het oogfonds inmiddels bijziend is.

[2:17:49] dat kinderen veel minder bewegen, veel minder slapen en, last but not least, dat er een groot risico is op mentale problemen en dat hun veiligheid op de platforms niet wordt gewaarborgd.

[2:18:05] Ouders, maar ook kinderen, willen dit weten, hebben wij gemerkt, en hebben ook het recht om dit te weten.

[2:18:13] Want wij horen van ouders die al een smartphone hebben gegeven, hadden we dit maar geweten.

[2:18:18] Zij zien hun kinderen verdwijnen.

[2:18:21] Zij voelen zich volkomen machteloos.

[2:18:24] Zij zien zichzelf staan tegenover hun kinderen.

[2:18:28] Schermstrijd is een nationale frustratie en een groot verdriet in de Nederlandse huiskamers.

[2:18:37] De lachende derden zijn de techbedrijven, die miljarden verdienen aan de aandacht van onze kinderen.

[2:18:43] Wij zijn niet tegen technologie.

[2:18:46] Maar technologie moet in dienst staan van onze kinderen... en onze kinderen niet in dienst staan van technologie.

[2:18:53] Wij zijn de oude beweging begonnen om samen iets te kunnen doen.

[2:18:56] Naast de ouders, naast de kinderen.

[2:18:59] Maar wij kunnen dit niet zonder u. Want dit is een systeemprobleem.

[2:19:04] Ouders kunnen veel, maar we kunnen geen filter zijn... voor een industrie die winst maakt op verslaving.

[2:19:12] Zonder norm is opvoeden dweilen met de kraan open.

[2:19:17] Wij pleiten voor een duidelijke ondergrens voor een smartphone vanaf 14 jaar en sociale media vanaf 16 jaar.

[2:19:23] Deze getallen geven ouders duidelijkheid en dat geldt dus ook voor ouders in kwetsbare situaties.

[2:19:30] Duidelijkheid ook voor kinderen.

[2:19:32] We hebben namelijk met z'n allen besloten dat er zoiets is als te jong.

[2:19:37] Een advies met deze ondergrens kan vervolgens consistent worden uitgedragen op scholen.

[2:19:47] Hoe mooi kan het zijn als scholen in hun laatste nieuwsbrief de komende weken voor de zomervakantie dit advies kunnen opnemen.

[2:19:55] Duidelijkheid voor ouder- en kindcentra en andere maatschappelijke organisaties.

[2:19:59] Er ligt een enorme kans om kinderen hun kindertijd terug te geven.

[2:20:03] Ouders willen dit, kinderen willen dit.

[2:20:06] Een grens van 13 jaar voor sociale media zou een sigaar zijn uit eigen doos voor techbedrijven.

[2:20:14] Die hanteren die nu zelf al.

[2:20:16] Het is gebaseerd op privacywetgeving en niet vanuit gezondheidsperspectief en geschiktheid.

[2:20:23] De problemen zijn massaal.

[2:20:25] Ouders vinden dit absoluut niet ambitieus genoeg.

[2:20:29] Laten we vanuit gezondheidsperspectief en veiligheidsperspectief een nieuwe norm stellen.

[2:20:35] Ouders, kinderen en nu ook artsen.

[2:20:37] 3000 artsen in Nederland schreeuwen hierom.

[2:20:40] Luid en duidelijk.

[2:20:41] 14 jaar smartphone, 16 jaar sociale media.

[2:20:46] Dank u wel, mevrouw van Schalkwijk.

[2:20:49] Voorzitter, dank.

[2:20:50] En ook namens UNICEF veel dank voor de kans om hier vandaag te mogen spreken.

[2:20:55] Hoewel het vandaag specifiek gaat over het onderwerp jongeren en social media, is het probleem en het vraagstuk dat we met elkaar hebben natuurlijk een stuk breder.

[2:21:02] Hoe beschermen we kinderen en jongeren online?

[2:21:05] En vanuit UNICEF pleiten we voor een brede aanpak waarin kinderrechten centraal staan.

[2:21:09] Het zal u vast niet verbazen als kinderrechtenorganisatie.

[2:21:12] Dat betekent niet alleen dat kinderrechten centraal staan in het kindvriendelijk maken van platforms, maar ook dat in de besluitvorming rondom dit onderwerp altijd getoetst wordt aan het VN-Kinderrechtenverdrag.

[2:21:23] En denk dus aan het recht op bescherming, daar is het hier vandaag al een aantal keer over gegaan, maar ook aan andere rechten, zoals het recht op informatie, op meningsvorming, op meningsuiting en het recht op spel.

[2:21:33] Sociale media bieden namelijk ook wel positieve kanten in de levens van kinderen.

[2:21:39] Om tot veilige sociale media voor jongeren en kinderen te komen, is het nodig dat regulering, handhaving en preventie hand in hand gaan.

[2:21:46] En dat iedereen daarin een rol pakt.

[2:21:48] En vanuit uw rol als wetgever vinden we het belangrijk dat u blijft werken aan stevige wettelijke kaders rondom die platforms.

[2:21:55] En we zien heel graag dat de Nederlandse overheid een voortrekkersrol gaat spelen in Europa en dat we samen met bondgenoten van andere lidstaten echt met elkaar vorm gaan geven aan de doorontwikkeling van die Europese wetgeving om te zorgen dat we met elkaar tot kindvriendelijke platforms komen.

[2:22:11] Een silver bullet die in één keer alle problemen rondom jongeren en sociale media oplost, die zien wij niet zo.

[2:22:17] Daar geloven we niet in.

[2:22:18] Een sociale media verbod op zichzelf maakt de online wereld namelijk niet veiliger.

[2:22:22] Het beperkt alleen maar de toegang tot een onveilige wereld.

[2:22:26] Een verbod zou daarom wat ons betreft altijd onderdeel moeten zijn van een veel bredere aanpak en niet als een eigenstandige oplossing moeten worden ingevoerd.

[2:22:34] En heel belangrijk, ik heb het gelukkig vandaag ook al een paar keer gehoord, maar betrek kinderen actief bij dit soort discussies, ook die van vandaag.

[2:22:42] Maar ook bij het opstellen van beleid en wetgeving.

[2:22:45] Daar hebben ze niet alleen recht op, het maakt het beleid ook echt een heel stuk beter.

[2:22:50] Want wij merken gewoon die stem van jongeren die ontbreekt nog te vaak in dit maatschappelijke debat.

[2:22:54] Het wordt echt wel een beetje overheerst, terecht hoor, maar door bezorgde ouders, maar ook door organisaties als die van ons, door de wetenschap.

[2:23:01] En eigenlijk horen we de jongeren gewoon veel te weinig.

[2:23:04] We hebben een tijd geleden ook met een aantal van nu een ronde tafel georganiseerd voor jongeren.

[2:23:12] Ik denk dat dat soort dingen heel belangrijk zijn om te blijven doen.

[2:23:16] Als voorzet heeft hij van ons vandaag een jongerenpeiling.

[2:23:19] Die hebben we heel recent uitgevoerd, omdat wij zelf ook zagen dat het debat alle kanten gaat op.

[2:23:23] Wat vinden de jongeren nou echt?

[2:23:25] Die peiling heeft hij van ons ontvangen in de voorbereiding op dit gesprek.

[2:23:29] Onder andere hebben wij hen daarin gevraagd wat zij zelf vinden van een verbod.

[2:23:33] 69 procent van de jongeren in die peiling geeft aan dat zij wel een verbod willen.

[2:23:39] De leeftijdsgrenzen verschillen wel.

[2:23:41] Binnen die 69 procent zegt een groot deel tot 12, 14, 16 en 18.

[2:23:46] Het is goed om naar die cijfers te kijken.

[2:23:51] Maar om af te sluiten, neem hun mening, de mening van kinderen, hun zorgen en ideeën serieus, zodat we met elkaar kunnen werken aan een veilige online omgeving voor elk kind.

[2:24:00] Dank u wel.

[2:24:02] Dank u wel.

[2:24:03] Mevrouw Katman.

[2:24:05] Ja, dank u wel, voorzitter.

[2:24:08] En heel fijn dat u er bent.

[2:24:14] Want u bent allemaal organisaties die eigenlijk namens zoveel ouders in Nederland spreken die al heel lang met hun handen in het haar zitten.

[2:24:24] Het werd net al even genoemd, schermstrijd.

[2:24:27] Mensen die eigenlijk inderdaad gewoon

[2:24:29] Het idee hebben dat een kind verdwijnt achter een schermpje en dat ze alleen nog maar ruzie kunnen maken.

[2:24:40] Ik wil mijn vraag richten aan mevrouw Ulrichs van Smartphone Vrij Opgroeien.

[2:24:45] U bent actief op twee derde van de scholen in Nederland.

[2:24:50] U heeft ook een hele actieve afdeling in Berge-Eik in de Kempen.

[2:24:55] Ik ben een paar maanden terug op bezoek bij ons in de Tweede Kamer, want die hebben een praatplaat gelanceerd.

[2:25:03] Een van de initiatieven die ik ongelooflijk goed vind van u, is dat u zegt dat je niet alleen bent.

[2:25:12] Ik heb zelf drie kinderen, ze verschelen heel weinig van leeftijd, maar bij de oudste was groep acht nog een beetje de norm voor een smartphone.

[2:25:20] En bij de jongste was het al ongeveer groep vijf, zes.

[2:25:22] Ja, maar mama, ik ben anders echt de enige in de appgroep.

[2:25:26] En die schaal naar beneden, waarvan iedereen denkt, ik wil mijn kind niet sociaal uitsluiten.

[2:25:31] Ik wil niet die enige ouder zijn die die smartphone niet geeft.

[2:25:34] Dat gevoel hebben we dus eigenlijk allemaal.

[2:25:36] En u geeft gehoor aan dat gevoel.

[2:25:37] Sorry voor mijn lange introductie.

[2:25:41] En mijn vraag is eigenlijk ook met die praatplaat, maar ook andere initiatieven die u neemt, behalve van die norm, wat kunnen wij nog meer doen vanuit Den Haag om zulke soort initiatieven te steunen?

[2:25:55] Wat ouders enorm zou helpen is dat we met z'n allen bepalen wat te jong is.

[2:26:00] Voor de smartphone en voor sociale media.

[2:26:03] Want dan kunnen niet alleen ouders daarop varen, hebben ze een goed verhaal richting kinderen.

[2:26:09] Hebben ook ouders in kwetsbare situaties die niet de tijd hebben op de mogelijkheden om continu naast hun kind te zitten en uit te leggen wat wel en niet mag.

[2:26:20] Maar ook is het heel belangrijk, zo'n advies, een dringend advies vanuit jullie, voor scholen.

[2:26:27] Dat scholen kunnen varen op zo'n advies.

[2:26:30] Dat zij ook actief kunnen uitdragen aan Ouders Luister.

[2:26:33] Wij vonden het eigenlijk al, maar nu ligt er ook een advies in Den Haag.

[2:26:37] Die smartphone op de basisschool is per definitie geen goed idee.

[2:26:41] Want die scholen willen dat eigenlijk al jaren zeggen, want zij zien de gevolgen van die smartphone en sociale media aanwezigheid van die kinderen.

[2:26:50] Dat zien zij terug op school.

[2:26:51] In de ochtend moeten ze eerst de pesterijtjes oplossen die online hebben afgespeeld.

[2:26:57] Zij zien dat de leesvaardigheid onder kinderen gigantisch is gedaald, omdat al die kinderen thuis op hun smartphone zitten en niet aan het lezen zijn.

[2:27:06] Ze zien kinderen die zich niet meer kunnen concentreren op langere teksten op school.

[2:27:12] Ze zien kinderen die niet meer over alle gespreksonderwerpen kunnen praten, omdat ze op sociale media-platforms in echo-kamers belanden al heel vroeg.

[2:27:22] En niet openstaan voor alle gespreksonderwerpen die graag een school wil bespreken in het kader van goed burgerschap.

[2:27:31] Dank u wel.

[2:27:31] Mevrouw Toral.

[2:27:33] Ja, dank u wel.

[2:27:35] Dank ook voor jullie komst.

[2:27:37] Ik hoor verschillende geluiden.

[2:27:40] In de eerste ronde werd er ook iets gezegd door het Rimbos Instituut.

[2:27:44] Juist geen verbod.

[2:27:45] Er wordt ook iets gezegd door de NJI.

[2:27:49] Er zitten hier ook ouders aan tafel die zeggen, het heb ik niet hier over een verbod.

[2:27:52] Ik hoor mensen heel stellig zeggen, we moeten wel een verbod.

[2:27:55] Kun je daar zelf een beetje op reflecteren?

[2:27:57] Want uiteindelijk gaat het er volgens mij om dat we...

[2:28:00] een veilige omgeving creëren voor de kinderen.

[2:28:06] Dat ze hun informatie wel kunnen vergaren.

[2:28:07] Ze zijn natuurlijk ook echt opgegroeid, deze generatie, met die smartphone.

[2:28:12] Dus het is natuurlijk ook heel raar om dat te ontzeggen.

[2:28:14] Ja, persoonlijk ben ik van mening... Nogmaals, er heeft ook een motie voor ingediend.

[2:28:18] Haal die schadelijke content eraf en die verslavende algoritmes.

[2:28:21] Volgens mij zijn we dan al een heel eind.

[2:28:23] Kun je daar iets over zeggen?

[2:28:26] Want wetenschappelijk wordt er tegenovergesteld wat hier aan tafel wordt gezegd.

[2:28:41] Wij zeggen, ga uit van dit kinderbrein.

[2:28:43] Dat kinderbrein ontwikkelt zich maar traag.

[2:28:46] Dat zie ik er anders uit dan jij en ik.

[2:28:48] Ik ben geen hersenexpert, maar nodig die vooral uit.

[2:28:52] Dat kinderbrein staat tegenover een verdienmodel dat aandacht

[2:28:59] trekt en aandacht wil houden.

[2:29:00] Dat is het verdienmodel van veel sociale media-platforms.

[2:29:06] Wij zien dus dat het voor kinderen ongelooflijk ingewikkeld is om daar weerstand tegen te bieden.

[2:29:11] Dat blijkt uit de cijfers, uit onderzoeken.

[2:29:14] Wat ik net al noemde, die zes uur per dag gemiddeld schermtijd.

[2:29:18] Maar ook de fysieke schade, de bijziendheid, gigantisch probleem.

[2:29:24] Om die reden zou je hier echt heel erg goed over na moeten denken, want bijziendheid betekent niet alleen een brilletje op jongere leeftijd, maar dat betekent op latere leeftijd, als je dat op jongere leeftijd ontwikkelt, dat je een groot risico hebt op slechtziendheid.

[2:29:39] Dat weten heel veel ouders, weten het ook niet.

[2:29:41] Dat is de ombesitasproblemen.

[2:29:44] Kinderen bewegen natuurlijk veel minder als zij zes uur per dag gemiddeld op een telefoon zitten.

[2:29:50] tekort aan slaap, dat is allemaal gemeten en dat is een groot probleem voor kinderen.

[2:29:59] Mag ik daarop reageren?

[2:30:01] Ja.

[2:30:03] Waarom?

[2:30:03] Want alle risico's die worden omschreven zijn bekend.

[2:30:08] Er zijn inderdaad ook genoeg voordelen.

[2:30:12] Kinderen leren sneller Engels, want op al die platforms praten ze Engels.

[2:30:17] Mijn dochter heeft leren make-uppen van Nikkie Tutorials.

[2:30:19] Dat is een stuk beter dan dat ze het van mij zou hebben geleerd.

[2:30:23] Dit is even de andere zijde van het verhaal.

[2:30:27] Het brengt ons ook veel.

[2:30:29] Het brengt ons ook met Google Maps naar waar we nu vandaag zijn, want anders weten we de weg niet te vinden.

[2:30:34] Waarom wij tegen een verbod zijn, is omdat wij constateren dat er verschillende verboden al zijn geweest.

[2:30:42] Bijvoorbeeld op alcohol.

[2:30:43] De leeftijdsgrens is van 16 naar 18 gegaan in 2014.

[2:30:46] De discussies die daar thuis op plaatsvinden, zorgt...

[2:30:51] Misschien nog wel voor meer strijd dan de schermtijdstrijd.

[2:30:56] Ze bellen heel simpelweg een vodkacourier en de alcohol wordt geleverd.

[2:31:03] Dus het oplossen met een verbod is een soort van tien stappen te ver wat ons betreft.

[2:31:08] Ik denk dat er al vandaag verschillende voorbeelden zijn genoemd en die moeten we aanpakken.

[2:31:12] Dus er moet een integrale aanpak komen, maar wat ons betreft is dat

[2:31:16] een verbod erop zetten, zorgt er ook voor dat het aantrekkelijker wordt.

[2:31:20] Dus op het moment dat we het hebben over ronseling, is het heel makkelijk om dan aan een twaalfjarige een telefoon te geven en te zeggen, hier, dit is voor jou, leg jij even twee boemetjes daar neer.

[2:31:31] Zo werk je ook criminaliteit in de hand.

[2:31:33] Dus het vraagt, denk ik, als ik reflecteer, want dat was even de vraag, om een gedegen afweging tussen alle voor- en alle nadelen.

[2:31:41] En daar ben ik het helemaal eens dat we dit ook moeten vragen aan de jongeren zelf.

[2:31:44] Hoe gaan wij er met elkaar mee om?

[2:31:46] Het is een gezamenlijke verantwoordelijkheid en niet alleen die van ouders, waarbij we de gevolgen en de nadelen niet uit het oog moeten verliezen.

[2:31:53] Want daar moeten we een antwoord op verzinnen.

[2:31:56] Meneer Stokver.

[2:31:57] Daar wil ik nog wel even op reageren.

[2:31:59] Er is geen discussie hier volgens mij.

[2:32:02] Maar ik wil toch nog even reageren.

[2:32:05] De voordelen die u noemt zijn voordelen van het internet.

[2:32:09] Laten we dat even voorop stellen.

[2:32:11] En wij ontzeggen kinderen niet de toegang tot het internet.

[2:32:16] Dat is nogal belangrijk.

[2:32:17] En ik geloof wat betreft het alcoholverbod dat er niemand spijt heeft van het feit dat we die grens op 18 jaar hebben gezet.

[2:32:26] Meneer Stoffer.

[2:32:28] Dan toch.

[2:32:29] Voorzitter, mevrouw Koopman had een mooie slocon, van mij niet onbekend.

[2:32:34] Pas onlangs in de week van het gezin was de slocon scherm uit gezin aan.

[2:32:39] Als je thuis een beetje oefent, valt dat nog niet zo mee.

[2:32:42] Mijn vraag is, kunnen andere ouders die uitdaging wel aan, met behulp van een aantal extra instrumenten, of is er ook misschien iets vanuit de overheid nodig om daar echt wel toe te komen, zeg maar?

[2:32:56] Want dat is nogal een opdracht.

[2:32:59] Heel graag een reflectie van mevrouw Koopman.

[2:33:01] En mocht mevrouw Winsemius denken van, nu heeft die meneer Stoffer weer iets genoemd waar ik toch even wil reageren, dan zou het van mij ook mogen als van u mag, voorzitter.

[2:33:10] Dank u wel voor de vraag.

[2:33:12] Ja, we hebben inderdaad in ons 10-punt-plan wat we hebben aangeboden in de week van het gezin een aantal concrete voorbeelden gegeven waar de overheid in zou kunnen

[2:33:22] ondersteunen, zodat ouders nog beter die taak, die opvoedtaak en dus scherm uit gezin aan kunnen uitvoeren.

[2:33:32] Wij denken dat het heel belangrijk is dat er echt een maatschappelijke beweging op hangt, dat er landelijke campagnes komen om ouders, maar ook kinderen en jongeren zelf te informeren wat inderdaad de gevolgen kunnen zijn, zodat ze daar meer begrip voor krijgen en meer aandacht

[2:33:50] Dat het duidelijker wordt wat de impact kan zijn.

[2:33:54] De 2020-2 regeling is ook al genoemd.

[2:33:58] Ook dat zou breed gepromoot kunnen worden.

[2:34:01] Want dat helpt bij de bewustwording.

[2:34:03] En dat helpt dan ouders weer als handvat om daaraan vast te houden.

[2:34:08] Wat ook heel goed zou zijn als in gemeentes bijvoorbeeld...

[2:34:13] een buitenspeelbeleid komt, zodat dat meer bewegen, wat nu tekort wordt gedaan.

[2:34:21] dat dat op de agenda wordt gezet.

[2:34:24] Zodat kinderen daartoe worden uitgenodigd en ook ouders.

[2:34:27] Dat ze weten dat er plekken zijn waar we naartoe kunnen.

[2:34:29] Zodat we onze motorische en sociale vaardigheden kunnen ontwikkelen.

[2:34:35] Want dat is heel belangrijk, dat kinderen dat doen.

[2:34:38] Anders komen ze op een achterstand te staan.

[2:34:40] En die achterstand neem je mee de samenleving in.

[2:34:43] Ook als je als jongere of als volwassene op een gegeven moment...

[2:34:47] Ja, een beroep of een gezin wil stichten.

[2:34:50] Een beroep wil doen of een gezin wil stichten.

[2:34:53] Dus ik denk dat het bijvoorbeeld ook in het, ook een van de punten in de onderwijsprogramma's zou ook de digitale geletheid bijvoorbeeld nog meer naar voren kunnen komen zodat daar, het is al genoemd in een ander blok ook, dat daar ook echt wel aandacht voor komt.

[2:35:09] En dat betekent dat ouders handvatten krijgen om nog beter ook thuis die, nou ja, dat scherm uit om dat werkelijk te doen.

[2:35:21] Dank u wel.

[2:35:22] Ja, mevrouw Koopman heeft het al heel goed gedaan, dus ik heb daar verder niet zoveel aan toe te voegen, meneer Stoffer, het spijt me.

[2:35:28] Mevrouw Bruining.

[2:35:30] Dank, voorzitter.

[2:35:32] Ik heb zelf twee kinderen van 15 en 12, dus ook de smartphone gevecht thuis.

[2:35:37] Ik heb gewoon een app op mijn telefoon die heet Family Link en daarmee kan ik heel goed tijden instellen, apps uitzetten, telefoon compleet uitgooien.

[2:35:46] Hoe staan jullie daar tegenover?

[2:35:53] Zou dat niet meer gestimuleerd moeten worden?

[2:35:56] Zo'n app bevindt zich vaak op het hellingsvlak van privacy.

[2:36:01] Hoeveel ruimte krijgt mijn kind om zelf te beslissen?

[2:36:04] En aan de andere kant, hoe hou ik het in toom?

[2:36:08] Dat is de vraag.

[2:36:11] Heel goed.

[2:36:11] Ook een van de punten was de technologische tools.

[2:36:14] Er zijn er gelukkig al heel veel.

[2:36:17] Ik denk dat het heel belangrijk is dat je dat gesprek met je kinderen aangaat.

[2:36:22] Waarom doe je dat dan?

[2:36:24] En waarom worden ze gekort in hun tijd?

[2:36:27] En dat ligt heel erg aan de leeftijd die ze hebben.

[2:36:30] Maar dat is zeker een belangrijk onderdeel.

[2:36:33] En dat is allemaal mogelijk, hebben we ook gehoord.

[2:36:38] Zeker achter.

[2:36:46] Dank u wel.

[2:36:52] Voorzitter, dank voor het woord.

[2:36:54] Toevallig dat er ook game consoles zijn die dezelfde technologie gebruiken.

[2:37:00] Dat hebben we toevallig nog kunnen zien met een werkbezoek onlangs.

[2:37:04] Ik heb een vraag aan... Nou ja, ik heb eigenlijk meerdere vragen.

[2:37:07] Maar de eerste vraag zal ik richten aan Mevrouw van Schoonwijk van Unicef.

[2:37:13] En dat is namelijk met betrekking tot de selectie van de kinderen die dan in zo'n kinderraad deelnemen.

[2:37:19] Hoe komt deze selectie tot stand?

[2:37:24] Ik denk dat u de Jonge Raad Digitalisering bedoelt.

[2:37:29] Dat is een raad die UNICEF in samenwerking met het ministerie van Binnenlandse Zaken opgesteld heeft.

[2:37:37] Zij adviseren het ministerie over het beleid.

[2:37:40] Ze hebben bijvoorbeeld recent met elkaar een sessie gehad over de campagne die BZK in het najaar gaat lanceren.

[2:37:46] En die selectie dat gaat... Kinderen kunnen zich daarvoor aanmelden.

[2:37:49] Dat is net als hoe we bijvoorbeeld het jongerenpanel doen.

[2:37:52] Dus kinderen kunnen zich daarvoor aanmelden.

[2:37:53] En we proberen natuurlijk dan zo breed mogelijk kinderen daarvoor te selecteren.

[2:37:59] Nou, wat ik zei, we gaan een derde jaar in.

[2:38:01] Dus ook bij deze weer een oproep voor alle kinderen die dat heel interessant vinden.

[2:38:05] Kinderen en jongeren, het is best wel een diverse leeftijdsgroep om zich vooral hiervoor aan te melden.

[2:38:11] Korte vervolgvraag.

[2:38:14] Ze kunnen zich aanmelden, maar vervolgens maakt u een selectie.

[2:38:18] Maar op basis waarvan bepaalt u wie wel of niet een aanmerking komt voor zo'n functie?

[2:38:27] Dat is een hele goede vraag.

[2:38:28] Hoe doen we dat?

[2:38:28] We gaan met de jongeren in gesprek.

[2:38:30] Net als dat je bijvoorbeeld zou solliciteren op een stage.

[2:38:33] Ik noem het sollicitatiegesprekken.

[2:38:36] We kijken of de jongeren er interesse in hebben.

[2:38:39] Wat ze leuk vinden.

[2:38:40] We proberen ook een goede spreiding tot stand te brengen.

[2:38:43] Dus dat we uit verschillende delen van Nederland kinderen en jongeren hebben.

[2:38:48] Dus we kijken eigenlijk naar allerlei soorten criteria.

[2:38:53] Dank u wel.

[2:38:54] Mevrouw Katman.

[2:38:55] Ja, dank u, voorzitter.

[2:38:57] Ook een vraag aan mevrouw van Schalkwijk, want inderdaad, het was al eerder genoemd.

[2:39:01] We moeten vaker met kinderen en jongeren praten en niet alleen over.

[2:39:05] Het is alleen helaas zo dat bijvoorbeeld voor zo'n ronde tafel mogen we ze niet uitnodigen.

[2:39:10] Dat is op zich ook wel weer een beetje logisch.

[2:39:12] En we hebben vorige keer ook al toegezegd dat we als commissie anders moeten kijken of we minimaal jaarlijks met, net als dat BZK doet, met de Digitale Kinderraad kunnen spreken.

[2:39:25] En u zei het net al wel als voorbeeld van, ze hebben bijvoorbeeld geadviseerd bij het maken van een campagne die gericht is op social media gebruik onder jongeren.

[2:39:36] Maar hoe komen we nou, heeft u daar voorbeelden van, dat je kinderen echt beter en jongeren kan betrekken bij beleidsvorming?

[2:39:46] Want dat is nog wel echt een zoektocht.

[2:39:51] Dat is een belangrijke vraag.

[2:39:53] Als je jongerenparticipatie gaat doen, moet je waardevolle jongerenparticipatie doen.

[2:39:58] We werken met zo'n jongerenraad.

[2:40:04] Zodat ze langdurig betrokken zijn.

[2:40:07] Dat we ze trainingen kunnen geven.

[2:40:10] Hoe doe je dat?

[2:40:10] Hoe geef je goede adviezen?

[2:40:13] En dat ze langdurig betrokken zijn.

[2:40:17] Soms hebben we de neiging om te vragen wat we ervan vinden.

[2:40:22] Dat is lastig op zo'n moment.

[2:40:25] Ik zou kijken naar een manier om dat structureel in te bedden.

[2:40:31] Dat kan inderdaad zijn dat je een aantal keer per jaar bij elkaar komt.

[2:40:38] Het is niet zo dat zij met elkaar één advies geven.

[2:40:41] Dus het is echt zo dat of de staatssecretaris of de afgelopen keer was de DG van het ministerie bijvoorbeeld erbij, dat hij echt die verschillende perspectieven van de kinderen en de jongeren hoort.

[2:40:51] Dus het is niet dat ze met elkaar tot één advies komen, maar dat de ene zegt, nou, ik vind dit en de ander vindt dat.

[2:40:56] En door al die verschillende perspectieven, dan maak je het denk ik waardevol.

[2:41:00] En dan kun je ook echt op dat niveau meedenken.

[2:41:03] En wat ik zelf altijd ook heel belangrijk vind om te benadrukken, kinderen kunnen echt heel goed hun mening geven, kunnen heel goed meedenken, maar we moeten dat wel op een manier doen die toegankelijk voor hen is.

[2:41:12] En dat betekent dus ook dat je erover na moet denken, hoe brengen we de informatie kindvriendelijk?

[2:41:18] Dus dat zijn dingen die je aan de voorkant goed moet inrichten.

[2:41:20] En dan zou ik vooral zeggen, kies voor een methode waarbij je langer met dezelfde groep aan de slag gaat, misschien jaarlijks wisselt.

[2:41:28] om zo echt met elkaar tot wat diepere inzichten te komen dan even één keer een kort gesprek.

[2:41:36] Dank u wel, mevrouw Dral.

[2:41:37] Geen vragen meer.

[2:41:38] Meneer Stoffer.

[2:41:40] Ja, voorzitter.

[2:41:42] Nog wel een vraag aan mevrouw Winsemius.

[2:41:44] Ik denk dat hij daar wat thuis zou kunnen horen als ik zo de omschrijvingen zie.

[2:41:50] We zijn natuurlijk hier de Rijksoverheid.

[2:41:52] We kunnen hier naar aanleiding van vanmiddag misschien het beste het een of ander nog oppakken om al dat gemiddeld vanmiddagbespraken weer een stap verder te helpen.

[2:42:00] We hebben ook andere overheidslagen, zeker ook een overheidslagengemeente die veel dichter bij inwoners staat en ook dichter bij ouders en kinderen staat dan wij.

[2:42:09] En als je kijkt naar het leven van mensen, als je het hebt over scholen, over jeugd, werk, over sport, ga ze maar door, dan zit daar vaak een bepaalde rol.

[2:42:18] En misschien laat ik het wat verlengen, voor een bepaald deel van de samenleving zijn kerken misschien nog wel interessant om daar ook iets in te vinden.

[2:42:26] of moskeeën of andere levensbeschouwelijke organisaties.

[2:42:32] En mijn vraag is eigenlijk, ziet mevrouw Encemius daar ook een rol weggelegd?

[2:42:36] En kunnen wij als overheid, als rijksoverheid, iets te doen om daar de stimulans misschien nog neer te leggen?

[2:42:42] Die laatste vraag is misschien heel ingewikkeld, maar die eerste, daar zou wellicht iets over te vinden zijn.

[2:42:48] Dank u wel voor uw vraag.

[2:42:51] Dat is absoluut noodzakelijk.

[2:42:54] Want wat ik al zei, het is niet alleen maar een verantwoordelijkheid van ouders en zeker ook niet alleen maar van de overheid.

[2:43:00] Het is een gezamenlijke verantwoordelijkheid.

[2:43:03] En die begint ook al bij medeopvoeders.

[2:43:04] En dan bedoel ik vrienden van ouders, familie eromheen.

[2:43:08] Bijvoorbeeld ook scholen, zoals mevrouw Koopman mooi toevoegt.

[2:43:15] Mijn collega, even een praktisch voorbeeld.

[2:43:16] Mijn collega is zijn stroomjuf in een school in een aandachtswijk in Haarlem.

[2:43:22] En zij gaf aan bij mij, Mariette, we hebben echt een groot probleem in de klas, want er wordt enorm gepest.

[2:43:29] En er ontstond daardoor ook een probleem tussen de ouders onderling, want die begonnen zich ermee te bemoeien.

[2:43:34] En niet op een geheel positieve manier.

[2:43:36] Zij heeft dus de hele klas, alle ouders bij elkaar geroepen en gezegd hier moeten we wat mee en uitgelegd wat het idee was.

[2:43:44] Ze hebben afspraken onderling gemaakt en ze hebben de groepschat van de kinderen gestopt.

[2:43:49] Dus die hebben ze met alle ouders bedacht, we stoppen die groepschat, want er wordt daar gepest in die groepschat.

[2:43:55] Dus dat moeten we niet.

[2:43:56] En dus is afgesproken, die groepschat is gewoon beëindigd.

[2:43:59] Dit is groep 7.

[2:44:01] Dus dit is relatief vroeg, kan je bedenken, voor jongeren om een telefoon te hebben.

[2:44:05] Daar ben ik het mee eens.

[2:44:07] Maar dit hebben dus ouders onderling samen met school geregeld.

[2:44:10] Dit soort voorbeelden zijn er breed.

[2:44:12] Het werd al even aangegeven buiten speelbeleid.

[2:44:14] Lijkt mij een uitstekend idee.

[2:44:16] Dat geven heel veel ouders bij ons ook aan.

[2:44:18] Ja, er is ook niks waar ze naartoe kunnen.

[2:44:21] Er is geen leuke speeltuin.

[2:44:22] En even voor het beeld, een wipkip is geen speeltuin.

[2:44:25] Dat is een wit kip.

[2:44:28] Dus als je als gemeente aan de slag wil, dan kan je dat ook een rol in spelen.

[2:44:33] Door dus de leefomgeving van kinderen, zorg ervoor dat ze lekker naar buiten kunnen.

[2:44:37] En dan denk ik als ouder, dat is prettig, want dat is veilig.

[2:44:40] Maar nu zijn er staalslakken die in de speeltuinen liggen.

[2:44:43] En ik weet dat het niet uw taak is van deze commissie om over de staalslakken te praten.

[2:44:48] Maar u nou toevallig, meneer Stoffer wel,

[2:44:51] Maar dit zijn allemaal dingen die dus in het bredere gezins spelen.

[2:44:57] Want ik laat mijn kind dus niet naar een speeltuin gaan, want daar is het gevaarlijk.

[2:45:01] Daar kunnen ook naalden liggen.

[2:45:04] Dus het is veel breder dan alleen maar die digitale wereld.

[2:45:08] Het speelt ook in de echte wereld af.

[2:45:10] En daar moeten we rekening mee houden.

[2:45:11] Scholen kunnen echt veel meer doen in samenspraak met de ouders.

[2:45:15] Ieder jaar, aan het begin van het schooljaar al zeggen... luister, wij gaan het erover hebben hoe wij omgaan met social media.

[2:45:20] Wij maken daar afspraken over.

[2:45:22] En als je die afspraken overtreedt, dan zijn dit en dit de consequenties.

[2:45:26] Zullen we dit afspreken met elkaar?

[2:45:28] Ouders, zijn jullie het daar ook mee eens?

[2:45:29] Handtekeningetje eronder en ervoor gaan.

[2:45:31] Ik vind het initiatief van mevrouw naast mij fantastisch, omdat dat ook uitgaat van het idee dat we dit dus samen doen.

[2:45:39] Dat we samen zeggen, wij willen dit niet.

[2:45:42] En dat kan ik niet alleen aan mijn keukentafel, daar heb ik ook mijn omgeving voor nodig, de overheid voor nodig met voorwaarden, maar ook de gemeente dus met een buitenspeelbeleid, maar ook de sportverenigingen.

[2:45:54] Wat doen wij met zo'n telefoon?

[2:45:58] Er wordt vaak door scholen gezegd, alles wat buiten schooltijd gebeurt, is niet onze verantwoordelijkheid.

[2:46:07] Dat is het makkelijkste wat je kan zeggen, want dan trek je je handen eraf.

[2:46:11] Maar die telefoon is iets waar heel veel schooldingen op gebeuren.

[2:46:15] Hetzelfde geldt voor magister.

[2:46:17] Wordt ook heel vaak gezegd, dat is prestatiedruk van ouders.

[2:46:20] Het zorgt er ook voor dat ik het gesprek met mijn kind kan voeren en kan zeggen...

[2:46:24] Dat was een rotcijfer.

[2:46:26] Hoe is het?

[2:46:27] En wat kan ik doen om je te helpen?

[2:46:28] Maar ook zeggen, datzelfde schouderklopje.

[2:46:31] Hé, dan heb je supergoed gedaan.

[2:46:33] Dus geef nou niet elke keer die ouders de schuld.

[2:46:35] Leg het niet elke keer bij die ouders neer.

[2:46:36] Maar laten we met elkaar kijken wat we daaraan kunnen doen.

[2:46:39] En daar zijn dus heel veel oplossingen voor.

[2:46:42] Dank u wel.

[2:46:43] Maar mevrouw Bruining, heeft u nog een vraag?

[2:46:45] Ja, gewoon een interessevraag.

[2:46:47] Deze vraag stel ik aan...

[2:46:54] Mevrouw Aaldriks, vindt u of bent u van mening dat eigenlijk alle scholen, basisscholen, middelbare scholen, gewoon sowieso een mobiele telefoonverbod zouden moeten instellen?

[2:47:06] Dank voor deze vraag.

[2:47:08] Ik hoor telkens verbod.

[2:47:10] Wij zouden echt al ongelofelijk gebaat zijn.

[2:47:13] Deze ouders hebben dat ook hardop uitgesproken.

[2:47:15] Ouders van 40.000 kinderen.

[2:47:17] Ik wil het nog even herhalen.

[2:47:18] In hele korte tijd hebben zij dit allemaal opgetuigd en aangegeven.

[2:47:22] Artsen ook.

[2:47:24] Die willen een dringend advies voor een ondergrens.

[2:47:28] Wij zijn ook ontstaan omdat die ondergrens er niet is.

[2:47:32] En we gaan het niet oplossen met alleen dit ouderpact.

[2:47:36] Dit ouderpact wat wij op onze website hebben staan, dat gaan wij niet tot in lengte van dagen volhouden.

[2:47:41] Het idee is dat wij een ondergrens krijgen waar iedere uilkind zich aan kan houden.

[2:47:47] Wat was uw vraag ook alweer?

[2:47:51] Smartphonevrije scholen.

[2:47:56] Dat is eigenlijk geen smartphoneverbod.

[2:47:59] Smartphonevrije scholen zou fantastisch zijn.

[2:48:02] En ik denk dat zo'n advies scholen enorm zal helpen om hun smartphonebeleid aan te scherpen en ook actief te zeggen tegen ouders, luister, het is veel verstandiger om die smartphone uit te stellen.

[2:48:15] Het is veel verstandiger om die kinderen niet op sociale media te zetten, want de huidige grens is 13 jaar.

[2:48:20] Ze mogen nog geen WhatsApp-groep maken.

[2:48:23] Dat is de realiteit van nu.

[2:48:26] De reden waarom er makkelijk naar het woord verbod wordt gegeven, is omdat je eigenlijk iets wilt handhaven.

[2:48:33] Als je zegt verbod, dan maak je het handhaafbaar in de realiteit.

[2:48:36] Als je zegt we gaan geen smartphones meer toestaan op school, maar je zou dat vrij laten, wat we nu doen, want de school van Wijnzoon moet het in de kluizen en mocht het in de klas niet hebben, maar de school er tegenover, daar mogen ze hem wel hebben.

[2:48:48] Dat is waarom ik dan kies voor het gebruik van het woord verbod, zodat het ook handhaafbaar is.

[2:48:54] Wij zijn in eerste instantie ontzettend blij met de advies, omdat het een leidraad geeft, dus niet alleen voor ouders, maar ook voor al die maatschappelijke instanties die het eigenlijk nu normaliseren dat die smartphone er al is.

[2:49:10] En dat geeft bijvoorbeeld ouders geen ruimte om anders te beslissen.

[2:49:15] En dat gaat om GGD's die informatie geven op bibliotheken over apps, ervan uitgaan dat al die kinderen onder de twaalf jaar op apps zitten.

[2:49:25] Maar dat geldt ook voor een jeugdjournaal.

[2:49:27] Ik vind het een fantastisch programma, daar niet van.

[2:49:29] Maar die heeft volkomen genormaliseerd dat hun doelgroep van negen tot en met twaalf, negen tot en met dertien, op TikTok zit, omdat zij een TikTok-account hebben.

[2:49:41] Dat is niet begrijpen en daarmee normaliseer je iets, maar van ouders denken van oké, er wordt iets genormaliseerd en dan zal het wel goed zijn.

[2:49:50] Dus wij zijn al enorm gebaat bij een advies.

[2:49:54] En op Europees niveau uiteindelijk zo.

[2:49:57] Uiteraard als de regelgeving komt, dan zullen wij er toe juichen als het gaat om sociale media.

[2:50:02] Dank u wel.

[2:50:02] Meneer van Lies heeft u nog een vraag.

[2:50:06] Dank voor het woord.

[2:50:09] Ook een vraag aan mevrouw Eldriks.

[2:50:13] Hoe ziet u het voor zich als kinderen niet meer weerbaar gemaakt kunnen worden in het digitale tijdperk, doordat zij worden buitengesloten van participatie op social media of smartphone gebruik, terwijl in andere landen de kinderen dat wel gewoon kunnen, die dus ook veelvaardiger zijn op deze apparaten, die veelvaardiger zijn in hun communicatie, die veelvaardiger zijn... Dus al die positieve aspecten die even weggewerven worden.

[2:50:39] Hoe ziet u het dat de kinderen daar toch nog weerbaar in gemaakt worden en daarin meekomen?

[2:50:43] Wij zijn helemaal eens voor online opvoeden.

[2:50:48] En laten we dat absoluut intensiveren.

[2:50:50] Maar voorbereiden op betekent niet deelnemen aan.

[2:50:54] Dat is het simpele antwoord dat wij u grepen.

[2:51:02] Nog een aanvullende vraag, meneer Verlies.

[2:51:03] Ik dacht het.

[2:51:04] Ja, het was een beetje cryptisch, maar ik heb geen verder aanvullende vraag.

[2:51:08] Ik kijk even rond.

[2:51:10] Heel goed.

[2:51:12] Nou, na deze intensieve middag sluiten we af.

[2:51:16] U ook hartstikke bedankt voor uw position papers en voor uw voerige betogen.

[2:51:21] En ik bedankt ook iedereen hier op de tribune.

[2:51:25] U heeft het goed volgehouden vandaag.

[2:51:27] En natuurlijk ook alle inbreng van de Kamerleden en de ondersteuning.

[2:51:32] Dank u wel.