Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Misleidende influencers

[0:00:00] Goedenavond allemaal. Welkom op deze woensdagavond 11 december.

[0:00:06] Vandaag hebben wij voor de vaste commissie Digitale Zaken rond de tafel gesprek op de planning staan

[0:00:11] gaande over misleidende influencers.

[0:00:14] En dat hebben wij verdeeld over een tweetal blokken.

[0:00:17] Het eerste blok gaat over het verdienmodel van influencers.

[0:00:20] Dat duurt zo'n drie kwartier.

[0:00:22] En vervolgens hebben we een tweede blok.

[0:00:24] Dat gaat over handhaving en regelgeving.

[0:00:26] Ik dank alle aanwezigen en alle kijkers thuis.

[0:00:31] En dan wil ik graag aan mijn rechterzijde voorstellen voor de kijkers thuis en vanaf de tribune de linkerzijde.

[0:00:36] Allereerst mevrouw van Rijmersdal, universitair hofdocent van Persuasieve Communicatie.

[0:00:43] Dan hebben we vervolgens de heer Thierry Marchand, Senior Manager Public Policy Benelux van TikTok.

[0:00:50] Dan hebben we de heer Adrian Ter Braak, wetenschapsjournalist en last but not least,

[0:00:55] Lodjebeek, beleidsadviseur bij Bits of Freedom.

[0:00:58] Aan de linkerzijde zijn aangeschoven mevrouw Van der Werf van D66,

[0:01:03] de heer Sieks-Dijkstra van Nieuw Sociaal Contract en mevrouw Drouw van de VVD.

[0:01:08] En ik mag Heden het toonemen als voorzitter.

[0:01:14] En dan loods ik u door deze avond heen.

[0:01:16] Ik zou graag willen verzoeken aan mijn rechterzijde om een korte introductie te geven.

[0:01:20] De position papers zijn wel ingelezen.

[0:01:22] En dan kunnen we beginnen bij mevrouw van Rijmersdal.

[0:01:28] Dank u wel.

[0:01:31] Ik werk aan de Universiteit van Amsterdam.

[0:01:33] Ik doe al vele jaren onderzoek naar influencermarketing

[0:01:37] en transparantie van influencermarketing.

[0:01:40] En ik wil in deze twee minuten even kort ingaan op de vraag

[0:01:43] hoe het kan dat mensen misleid worden door influencers.

[0:01:49] Misleidende influencers laten vaak een zeer aantrekkelijk leven zien.

[0:01:53] Ze presenteren een eenzijdig beeld vol successen.

[0:01:57] En wie wil dat nou niet ook? En ook dan nog op een eenvoudige manier.

[0:02:01] Misleidende influencers doen hun volgers vaak geloven dat ze bijvoorbeeld makkelijk rijk kunnen worden, snel, slank of fit kunnen zijn.

[0:02:08] Door de producten te kopen die zij laten zien en gebruiken.

[0:02:12] En waarom zou je het niet proberen, want er wordt vaak gepresenteerd als iets als een

[0:02:16] kleine investering.

[0:02:19] Uit onderzoek blijkt ook dat de informatie op sociale media heel lastig, dat de betrouwbaarheid

[0:02:24] van informatie heel lastig is vast te stellen.

[0:02:26] Dus hoe weet je nou of een influencer meent wat hij zegt, of dat hij daarvoor betaald

[0:02:32] is of dat hij echt een expert is.

[0:02:37] En ik denk dat ook voor vandaag een belangrijke vraag is, kan iedereen misleid worden?

[0:02:41] En het korte antwoord daarop is ja.

[0:02:45] En het is geen kwestie van dom of naïef zijn.

[0:02:48] Iedereen kan misleid worden, maar ik wil wel speciaal de aandacht vestigen op één speciale

[0:02:53] groep en dat zijn minderjarigen.

[0:02:55] Want er wordt weleens gezegd dat minderjarigen digital native zijn, ze kunnen beter dan

[0:03:00] wij scrollen, ze kunnen beter dan wij omgaan met apps en internet, ze weten waar ze moeten

[0:03:05] swipen en klikken, maar dat is niet hetzelfde als de kennis hebben die veel volwassenen

[0:03:10] wel hebben. Ze begrijpen bijvoorbeeld nog niet dat je een euro maar één keer uit kunt geven.

[0:03:15] Ze kennen de gevaren van het delen van informatie niet. En vooral tieners zijn geneigd om risico's

[0:03:20] te nemen en te gaan voor korte behoeftebevredigingen op de korte termijn. En dat maakt hen extra

[0:03:26] gevoelig voor misleiding door influencers. Tot slot, hoe zouden we consumenten kunnen

[0:03:32] beschermen? Ten eerste is het heel belangrijk dat er educatie is. Jongeren, kinderen, maar

[0:03:38] Ook volwassenen moeten geleerd worden hoe ze om moeten gaan met informatie op internet.

[0:03:42] Ten tweede blijkt uit wetenschappelijk onderzoek dat kennis alleen niet genoeg is.

[0:03:48] We moeten kinderen en jongeren motiveren om kritisch te zijn en daar ligt een grote uitdaging.

[0:03:53] En tot slot denk ik dat het goed is om toe te zien op naleving van allerlei wetten en regels die er al zijn.

[0:04:01] zoals de reclamecodes, maar ook onheerlijke handelspraktijk of de voedsel- en waardewetten.

[0:04:09] Tot zover.

[0:04:12] Hartelijk dank voor uw bijdrage.

[0:04:14] Mag ik u verzoeken om even de microfoon uit te zetten?

[0:04:16] En dan kan het woord gegeven worden aan de heer Marchant.

[0:04:19] Dank u wel, voorzitter.

[0:04:21] Allereerst, leden van de Commissie voor Digitale Zaken, dank u wel voor de uitnodiging.

[0:04:26] En ik wil beginnen met dat het voor TikTok heel belangrijk is dat mensen plezier hebben online.

[0:04:30] en dat kan niet zonder dat je daarvoor een veilige omgeving hebt.

[0:04:36] Dus hoe doen wij dat en hoe denken we dat in de toekomst nog beter te kunnen doen als platform?

[0:04:41] En ik heb position paper al gedeeld en er zijn twee elementen die ik nu wil uitlichten.

[0:04:45] Ten eerste, hoe ondersteunen wij onze gebruikers en dus burgers?

[0:04:50] En het beginnen van een veilige omgeving zijn duidelijke regels en deze ook handhaven.

[0:04:55] En dat doen we via moderatie, zowel geautomatiseerd als aangevuld met menselijke moderatoren.

[0:05:00] Zo hebben we voor de EU 6.000 moderatoren in dienst,

[0:05:04] waarvan 160 die Nederlands spreken.

[0:05:06] En daarmee hebben we tussen april en juni van dit jaar

[0:05:10] in Nederland bijna 600.000 stukken content verwijderd.

[0:05:14] Maar niet alleen veiligheidsmaatregelen en moderatie

[0:05:17] zorgen voor een betrouwbare omgeving.

[0:05:20] Het is ook belangrijk om mensen actief te informeren,

[0:05:23] ze een handelingsperspectief te geven,

[0:05:25] zodat ze informatie ook beter kunnen begrijpen.

[0:05:29] Een voorbeeld van hoe we dat doen is betrouwbare bronnen geven

[0:05:32] als het gaat om gezondheid.

[0:05:34] Ik denk ten tijde van COVID, informatie van de World Health Organization

[0:05:37] of van het World Jewish Congress als het gaat om content van de Holocaust bijvoorbeeld.

[0:05:43] Dat doen we ook door gebruikers te wijzen op hoe ze betrouwbare informatie kunnen herkennen

[0:05:47] in aanloop naar verkiezingen.

[0:05:49] Dus in Nederland, vorig jaar in 2023 de verkiezingen,

[0:05:52] hebben we samengewerkt met newscheckers om betrouwbare informatie te geven

[0:05:56] over hoe kun je nou cijfers lezen in het nieuws.

[0:06:01] Maar dat doen we ook door het verzamelen van betacontent...

[0:06:04] in onze Science, Technology, Engineering en Math-feed op TikTok.

[0:06:07] Het tweede punt wat ik wil uitlichten, is de noodzaak om samen te werken.

[0:06:13] Dat doen we zelf door op eigen initiatief...

[0:06:15] door met experts en NGO's samen te werken in onze Safety Advisory Council...

[0:06:20] maar ook met jongeren in een jeugdadviesraad.

[0:06:22] Maar we doen het ook met overheden.

[0:06:25] Overheden, zoals de NVWA, kunnen bijvoorbeeld via een apart kanaal content melden

[0:06:29] waarvan zij zeggen, dit is niet in de haak.

[0:06:32] Maar het gaat veel verder dan illegale content.

[0:06:35] Juist in signalering van trends online, wat zien overheden en wat zien wij als platform,

[0:06:40] daar zit juist ook heel veel meerwaarde in.

[0:06:43] En als laatste, een mooi voorbeeld wat ik wil uitlichten,

[0:06:45] is de influencer-certificering in Nederland.

[0:06:49] Daarin komen adverteerders, maar ook agencies van creators samen.

[0:06:52] de Stichting Reclame Codecommissie, die straks ook nog spreekt,

[0:06:55] en wij als platforms om creators te helpen om de regels te begrijpen

[0:06:59] en daar ook aan te voldoen.

[0:07:01] We zijn ook blij dat we dit hebben kunnen ondersteunen vanaf de lancering eigenlijk

[0:07:05] en dat er zoveel influencers slash creators daar onderdeel van zijn.

[0:07:11] Als er verdere vragen zijn, dan beantwoord ik die natuurlijk graag.

[0:07:14] Dank u wel.

[0:07:17] En ook u hartelijk dank voor uw bijdrage.

[0:07:19] Dan kunnen we door naar de heer Trevor Braak.

[0:07:22] Hallo.

[0:07:23] Mijn naam is Adriaan Ter Braak, bedankt voor de uitnodiging.

[0:07:25] Ik ben wetenschapsjournalist en sinds twee jaar ben ik zelf actief online

[0:07:31] om de vooral medische desinformatie die ik van influencers,

[0:07:35] maar ook van bedrijven vandaan kom te weerleggen.

[0:07:38] En ik denk dat ik redelijk bak aan kennis heb inmiddels als het gaat om

[0:07:43] waarom mensen specifiek voor een bepaalde bewering vallen,

[0:07:49] wat er aantrekkelijk is aan met name medische desinformatie en hoe deze bedrijven...

[0:07:55] want uiteindelijk is het altijd een verdienmodel.

[0:07:57] Hoe bedrijven heel slinks eigenlijk door allerlei mazen van de wet heen fietsen

[0:08:00] om zo allerlei desinfo aan de man te brengen en hier zelf aan te verdienen.

[0:08:06] Als je het bijvoorbeeld hebt over anticonceptie, wat heel erg nu in het nieuws is.

[0:08:11] We kunnen daar heel boos over doen, maar we moeten op een gegeven moment ook gaan beseffen, denk ik,

[0:08:15] dat er aan de andere kant bedrijven zijn, vooral supplementenbedrijven,

[0:08:18] die aan de andere kant verdienen aan het verspreiden van desinformatie

[0:08:21] door bijvoorbeeld influencers te betalen die zeggen

[0:08:23] dat de pil hartstikke schadelijk is of wat niet zo is.

[0:08:27] Diezelfde influencers, die promoten vervolgens met kortingscodes

[0:08:30] supplementen waar je zogenaamd vruchtbaar van zou worden.

[0:08:33] En zo zijn er nog wel heel veel andere voorbeelden.

[0:08:35] En ik ben heel erg... Ik geloof heel erg in dat er het aanlokkelijke

[0:08:41] van desinformatie of van pseudowetenschappen

[0:08:43] of hoe je het ook wil noemen, is heel multifactorieel.

[0:08:46] Net zoals het vallen voor complotten dat is.

[0:08:48] Dus ik denk dat het heel onverstandig is om direct dingen te gaan verbieden.

[0:08:51] Vooral omdat er ook al vrij veel wantrouwen is naar bijvoorbeeld iedereen in dit gebouw.

[0:08:56] Maar dat er heel veel winst is te behalen met bijvoorbeeld het handhaven van de regels die er al zijn.

[0:09:02] En specifiek dan als je het hebt over supplementen, daar mag je helemaal geen medische claims over maken.

[0:09:07] Maar het web staat er vol mee omdat er gewoon niet genoeg geld en mankracht is om dit te handhaven.

[0:09:12] Het is een beetje alsof je met één agent een snelweg waar duizend auto's per minuut langs razen...

[0:09:19] die de snelheid, tot maximale snelheid overtreden.

[0:09:23] Ja, wie ga je bekeuren? Dat weet je niet.

[0:09:25] Er moet, denk ik, een gerichtere strategie komen om mensen met heel veel bereik...

[0:09:30] maar ook bedrijven en ook misschien wel media-outlets...

[0:09:32] die continu aantoonbaar onjuist en schadelijke informatie rondpopen...

[0:09:36] om die gewoon te beboeten met de gereedschappen die er in principe al zijn.

[0:09:42] Dat is ongeveer mijn standpunt.

[0:09:47] Heel hartelijk dank voor uw bijdrage.

[0:09:49] En dan komen we bij de laatste spreker aan deze zijde van de tafel.

[0:09:51] Dat is mevrouw Beek van Bits of Freedom.

[0:09:55] Bedankt weer voor de uitnodiging.

[0:09:57] Ik werk bij Bits of Freedom en de expertise van Bits of Freedom en dus ook van mij

[0:10:01] ligt bij de werking van hele dominante online platformen

[0:10:05] en wat voor impact dat heeft op mensenrechten en gebruikers

[0:10:08] en dus ook op influencers en hun volgers.

[0:10:11] Dus vanuit drie bril wil ik vandaag een beetje het hebben

[0:10:13] over de content die influencers online plaatsen.

[0:10:17] Een deel van die content komt denk ik in het tweede blok van deze rondetafel...

[0:10:20] aan de orde dat het commerciële deel...

[0:10:21] dus wanneer een influencer zelf een cursus wil verkopen...

[0:10:24] of wanneer ze gesponsord worden door een merk om iets te verkopen.

[0:10:28] Daar gaat vast van alles mis, maar daar zijn regels over...

[0:10:34] en ik neem aan dat de mensen in het tweede blokje daar heel veel zicht op hebben.

[0:10:39] Waar ik het eigenlijk graag over wil hebben, is content die niet commercieel is.

[0:10:42] dus berichten van influencers die helemaal niks willen verkopen, maar gewoon een dagelijkse gang

[0:10:47] van zaak en denkbeelden delen. Die vorm van content wordt niet gereguleerd, niet onder het

[0:10:52] consumentenrecht. En ja, je mag het ook niet censureren, want influencers hebben net als

[0:10:57] gewone mensen gewoon vrijheid van meningsuiting. Dat lijkt me heel fijn, dus dat mag van mij zo

[0:11:02] blijven. Maar die soort van organische content kan toch best wel wat impact hebben. Dat komt omdat

[0:11:08] Dat volgers influencers vaak zien als een soort vrienden of voorbeelden...

[0:11:13] en daardoor hun oordeel vertrouwen.

[0:11:15] Daarom zetten al die merken natuurlijk ook in op influencermarketing.

[0:11:18] Denk aan TikTok-rijen, opgespoten lippen en de compoes.

[0:11:22] Dat zijn allemaal dingen die zo populair worden omdat die influencers ermee beginnen.

[0:11:27] En als je een vriend van je een film tipt, dan wil je er misschien wel heen.

[0:11:30] Hetzelfde geldt eigenlijk voor een influencer.

[0:11:32] En dat geldt eigenlijk misschien wel meer wanneer de influencer daar niet voor betaald wordt...

[0:11:36] want dan voelt die boodschap natuurlijk veel oprechter.

[0:11:39] Maar het verschil tussen echte vrienden en influencers...

[0:11:42] is dat die influencers eigenlijk heel veel vrienden hebben.

[0:11:45] En misschien wel belangrijker nog...

[0:11:46] is dat ze voor het verspreiden van hun boodschap afhankelijk zijn van sociale media.

[0:11:51] En dat wordt allemaal een beetje gevaarlijk...

[0:11:53] wanneer influencers misleidende of schadelijke boodschappen gaan verspreiden.

[0:11:58] En het zal jullie niet verbazen...

[0:11:59] maar volgens ons stimuleert de manier waarop sociale media is ingericht...

[0:12:03] het verspreiden van misleidende boodschappen door influencers.

[0:12:07] Volgens mij is dat tweeledig.

[0:12:09] Enerzijds door die algoritme die hele heftige content maar laten bovendrijven

[0:12:14] om de timespent en engagement van mensen op internet te verhogen.

[0:12:21] En dat die extreme dingen het zo goed doen,

[0:12:24] dat betekent dus dat de extreme meningen van de influencers boven komen drijven

[0:12:27] of dat ze daar zelf op inspelen.

[0:12:29] Denk aan van die clickbait titels die super heftig zijn,

[0:12:33] Maar ook als je als influencer merkt...

[0:12:35] mijn heftige mening doet het een stuk beter dan die genuanceerde...

[0:12:37] nou, kan je wel raden waar ze mee doorgaan.

[0:12:40] En anderzijds omdat influencers afhankelijk zijn...

[0:12:43] van het format dat sociale media hebben bedacht.

[0:12:46] En ik denk dat X daar een heel goed voorbeeld voor is...

[0:12:48] waar je maar 280 tekens hebt om een positie te delen...

[0:12:52] en geen enkele nuance past in die 280 tekens...

[0:12:55] waardoor al die meningen ontzettend worden platgeslagen.

[0:12:59] Goed, de oplossing voor dit alles ligt volgens mij ook in die oorzaak...

[0:13:03] namelijk de mechanismen achter die viraliteit van die misleidende content.

[0:13:08] Dus eigenlijk de designs van de platformen...

[0:13:10] waardoor die misleidende content makkelijker viraal gaat.

[0:13:13] Dat vraagt om strengere regulering van social media-platformen.

[0:13:17] Dat is eigenlijk de oplossing voor alles, zoals jullie inmiddels weten van mij.

[0:13:22] Ik denk dat het verbieden van algoritmen die sensatie belonen...

[0:13:25] een hele goede eerste stap zou zijn.

[0:13:28] Een mooie plek daarvoor zou zijn...

[0:13:30] of binnen de DSA of binnen de Digital Fairness Act,

[0:13:33] waar de commissie hopelijk volgend jaar mee komt.

[0:13:36] Bedankt.

[0:13:38] Dan dank ik u zeer voor uw inbreng.

[0:13:40] Dank de rechterzijde allen voor uw inbreng.

[0:13:42] En dan kunnen we overgaan naar het tweede deel van deze sessie,

[0:13:44] namelijk het stellen van vragen.

[0:13:47] Ik stel voor dat wij u laten op de tijd de mogelijkheid

[0:13:49] om hier eens een vervraag te stellen

[0:13:50] en vervolgens dan naar de beantwoording nog een vervolgvraag,

[0:13:53] alvorens we doorgaan naar de volgende spreker.

[0:13:56] En dan beginnen we bij mevrouw Van der Werff, D66.

[0:14:00] Voorzitter, dank. En ook vooral veel dank aan de gasten die vanmiddag de tijd hebben genomen om hier te komen voor dit belangrijke onderwerp.

[0:14:08] Wij hebben als D66 dit initiatief genomen omdat ik als woordvoerder digitale zaken, maar ook als veiligheidswoordvoerder zie dat we hier in het parlement heel erg bezig zijn met dingen die strafbaar zijn of die fout zijn en hoe je dat af moet kaderen.

[0:14:22] maar dat je met name online ziet dat er ook een steeds groter, grijzer gebied is waar eigenlijk iedereen wel wat van vindt,

[0:14:29] maar waarvan niet helemaal duidelijk is wat zijn nou de regels, wat zijn de normen en moet je hier als politiek iets mee of niet.

[0:14:36] Nou, dat ter introductie en ik zou een eerste vraag willen stellen aan Adriaan ter Braak.

[0:14:44] Je zei aan het begin net al dat je inmiddels heel veel informatie hebt waarop je kan aantonen

[0:14:51] dat mensen ergens snel intuinen, met name als het over medische zaken gaat.

[0:14:57] Wat zou je kunnen doen om dat onderscheid tussen feit en fictie...

[0:15:02] beter te regelen op social media?

[0:15:05] Dus eigenlijk de ruimte voor oplichterijen, om het maar even zo te noemen, in te perken.

[0:15:11] Dat woord is aan de heer Tabraak.

[0:15:12] Dank je wel.

[0:15:15] Het lastige hieraan is, denk ik, dat misleiding ook vaak kan plaatsvinden...

[0:15:20] op basis van feiten. Je kan bijvoorbeeld heel goed zeggen dat er in zonnebrandcrem kankerverwekkende

[0:15:27] stoffen zitten en dan verspreid je in principe, technisch gezien, geen desinformatie omdat

[0:15:32] bijvoorbeeld in zonnebrandcrem benzijn zit en benzijn staat op een lijst met kankerverwekkende

[0:15:37] middelen, maar wel met een hele andere reden, namelijk dat het in uitlaatgassen zit. Dus als

[0:15:41] je echt wil dat het risico op kanker verhoogt, dan zou je per dag vijftien flessen zonnebrandcrem

[0:15:47] leeg moeten drinken, wat volgens mij niemand doet.

[0:15:50] Dus het is heel lastig om te zeggen van ik wil een feit en fictie onderscheiden,

[0:15:56] want heel vaak wordt er juist geschermd met hele contextloze

[0:16:01] gebbetjes die niet als desinfo kunnen worden gekenmerkt,

[0:16:06] ook niet door Instagram zelf. Dus om heel eerlijk te zijn, vind ik dat heel lastig.

[0:16:11] Ik denk dus dat je eigenlijk een beetje ver weg moet blijven van het

[0:16:15] daadwerkelijk claims gaan beoordelen als wat voor een organisatie dan ook.

[0:16:21] En inderdaad beter op de algoritmes kan zitten die dit soort onzin,

[0:16:25] of in ieder geval dit soort polariserende, misleidende onzin, versterken.

[0:16:29] En tegelijkertijd moeten we proberen te zorgen dat de mensen die dit roepen,

[0:16:34] dat die geen financiële prikkel meer hebben om dit daadwerkelijk te roepen.

[0:16:37] Voor de rest vind ik wel dat je het moet kunnen roepen,

[0:16:40] hoe onzinnig en achtelijk ik het ook vind.

[0:16:43] Dat is geen bevredigend antwoord, snap ik, maar ik ben helaas geen influencer die met een hapklaar

[0:16:49] antwoord op de proppel komt of product, dus ja, het is gewoon heel lastig. Sorry.

[0:16:54] Dan dank ik u voor uw beantwoorden, mag u heel even de microfoon uitzetten.

[0:16:57] En dan vraag ik me vooral van de wervels zij nog een vervolgvraag heeft.

[0:17:03] Nou, ik kan me voorstellen, dan mag ik de vervolgvraag in de volgende ronde stellen,

[0:17:09] want dan gaat mijn collega eerst even, ja.

[0:17:13] Helemaal prima. Dan is het woord aan de heer Jesse Sixtextra, Nieuws Sociaal Contract.

[0:17:17] Dank u wel, voorzitter. En ook namens mij veel dank voor uw komst.

[0:17:20] Veel dank voor uw position papers en de toelichting daarvan.

[0:17:22] En goed dat we dit gesprek hebben.

[0:17:25] Mijn eerste vraag is aan de heer Marchand.

[0:17:27] Ook naar aanleiding van uitspraken die door de personen naast u gedaan zijn

[0:17:30] als het gaat om algoritmes en de rol daarvan.

[0:17:33] Door eerder gesprekspartners ook aangehaald.

[0:17:36] Natuurlijk vrij recent heb ik de verkiezingen in Roemenië gehad,

[0:17:39] waarbij de rechter ook geoordeeld heeft dat TikTok en ook andere platforms

[0:17:44] als instrument ingezet zijn voor grote buitenlandse desinformatiecampagnes

[0:17:49] ontwrichtende statelijke beïnvloeding.

[0:17:52] En u heeft het natuurlijk over moderatie,

[0:17:54] maar een groot gedeelte zit hem natuurlijk ook in de manier

[0:17:56] waarop algoritmes werken en versterken en bepaalde content naar boven halen.

[0:18:02] En ik was benieuwd, welke lessen heeft u nou getrokken

[0:18:05] uit alles wat de afgelopen tijd gebeurd is?

[0:18:07] en wat wil TikTok nou doen om echt even effectieve moderatie neer te zetten

[0:18:12] en ervoor te zorgen dat de algoritmes niet alleen werken

[0:18:14] om de meest ontwrichtende content naar boven te laten drijven?

[0:18:19] Dan geef ik de woord aan de heer Marzant.

[0:18:22] Ja, dank u wel voor deze vraag.

[0:18:26] Ik denk dat het belangrijk is, zeker als het gaat om,

[0:18:29] nou, hoe zeg je dat, hoogrisico-events inderdaad,

[0:18:31] want dan heb je het met name over verkiezingen,

[0:18:34] dat het daar extra belangrijk is om daar aandacht aan te geven

[0:18:38] en daar ook voor tijdig bezig te gaan met welke informatie er wordt verspreid op het platform.

[0:18:45] En dat kan ook legitieme informatie zijn.

[0:18:47] Twee categorieën, denk ik, die ik hier zou willen onderscheiden.

[0:18:50] Aan de ene kant heb je dus eventuele pogingen

[0:18:53] om gecoördineerde informatie te verspreiden.

[0:18:56] Dan heb je meer over groepen, organisaties, staten die dat eventueel zouden willen doen.

[0:19:02] En ik denk content die gewoon door mensen geplaatst wordt

[0:19:06] en die dan veel bekeken wordt, al dan niet.

[0:19:09] Dus ik denk dat dat twee verschillende zaken zijn.

[0:19:12] Als je specifiek kijkt naar Roemenië,

[0:19:16] ik denk dat we daar in alle transparantie met de overheden

[0:19:19] sinds begin dit jaar samengewerkt hebben.

[0:19:22] We zijn bijvoorbeeld ook meerdere malen bij ons kantoor geweest.

[0:19:25] We hebben met alle politieke partijen daar gesproken.

[0:19:28] We hebben daar ook netwerken gedetecteerd en verwijderd

[0:19:31] voor de verkiezingen die uneigenlijke of onauthentieke gedrag hebben gedaan.

[0:19:39] Overigens voor verschillende soorten kandidaten ook.

[0:19:43] Dus ik denk dat dat laat zien dat op dat vlak dat dat zeker werkt,

[0:19:48] die maatregelen die we daar nemen.

[0:19:51] En als het dan gaat over dat tweede gedeelte, de content.

[0:19:54] Ik denk dat er rondom verkiezingen natuurlijk hele duidelijke regels zijn

[0:19:57] over wat politieke partijen wel of niet mogen in verschillende landen.

[0:20:01] Dat verschilt per land.

[0:20:03] En wij werken daar met de verkiezingsautoriteiten samen...

[0:20:07] om dat dan ook te controleren en te handhaven.

[0:20:11] We hebben bijvoorbeeld ook dat kanaal waar ik het over had.

[0:20:13] Het bestaat ook in Roemenië...

[0:20:15] en daar maken Roemeense autoriteiten ook gebruik van om content te verwijderen.

[0:20:21] Dus ja, op die manier gaan wij om om die content op die manier ook te modereren.

[0:20:29] Dan dank ik u voor uw antwoord. Kijkt even naar de heer Siks-Dijkstra of hij nog een vervolgvraag heeft.

[0:20:34] Misschien wel een korte vervolgvraag. Ik dank u allereerst voor uw antwoord natuurlijk.

[0:20:39] Het is wel een vrij procedureel antwoord.

[0:20:41] Mijn vraag is wel, is TikTok nou tevreden over de manier waarop moderatie is uitgevoerd?

[0:20:45] Zeker rondom dit soort grote verkiezingen waarbij de rechter toch een hele presidentsverkiezingsronde ongeldig heeft verklaard.

[0:20:54] Is dit nou het niveau waarop het platform wil zijn?

[0:20:58] Kunnen we het beste even wachten tot de bel voorbij is.

[0:21:01] Het duurt ongeveer nog een halve minuut.

[0:21:40] Het woord is aan de heer Marchant.

[0:21:44] Ik ga geen uitspraak over de uitslag van de verkiezingen doen,

[0:21:47] maar ik ben wel tevreden over onze inspanningen die wij daarin geleverd hebben.

[0:21:52] Ik denk er zijn heel veel verkiezingen geweest het afgelopen jaar over de hele wereld.

[0:21:57] En ik denk eigenlijk als je kijkt naar wat we daar als TikTok in samenwerking met overheden hebben gedaan,

[0:22:02] de transparantie vooral, die we daarin hebben laten zien,

[0:22:06] zeker ook in de respons naar wat er gebeurd is.

[0:22:09] Ik denk dat geen platform zo uitgebreid uitleg heeft gegeven

[0:22:13] over welke maatregelen we genomen hebben,

[0:22:16] ook hoeveel we verwijderd hebben, als het gaat over fake likes bijvoorbeeld.

[0:22:21] Ik denk dat geen enkel ander platform die transparantie heeft laten zien.

[0:22:25] Dus ja, over onze reactie daarop en onze handelswijze zeker.

[0:22:32] Hartelijk dank voor de beantwoording. Dan ga ik door naar mevrouw Dral van de VVD.

[0:22:36] Dank voorzitter en dank alle voor jullie position papers en het feit dat jullie hier zijn.

[0:22:41] Ik had aan mevrouw Rijmersdal nog een vraag.

[0:22:45] U had het op een gegeven moment over het motiveren om kritisch te zijn, dat de kinderen kritisch moeten zijn.

[0:22:51] Heeft u ook een idee hoe wij dat het beste kunnen doen om die kinderen op die manier te motiveren?

[0:22:57] Het woord is aan mevrouw Rijmersdal.

[0:22:58] Ja, dank u wel voor de vraag.

[0:23:03] Er zijn door collega's van mij programma's ontwikkeld om kinderen te helpen op scholen

[0:23:08] om hen te leren om kritisch te zijn, maar daarnaast dus ook om hen te motiveren om kritisch te zijn.

[0:23:15] En daarbij gaat het heel erg om ervaren dat je kwetsbaar bent.

[0:23:20] Veel kinderen denken dat hen zoiets niet zal overkomen, dat ze nergens niet intrappen.

[0:23:25] En het gaat ook om ze aan te leren om bijvoorbeeld te stoppen en na te denken voordat ze iets doen.

[0:23:32] Dus verschillende technieken zijn daarvoor geschikt, zodat kinderen of jongeren zich realiseren

[0:23:38] dat het ook belangrijk is voor hen zelf om kritisch te zijn.

[0:23:43] Dus eigenlijk zien we in onderzoek dat je kan weten dat iets reclame is of kan weten dat iets misleidend is,

[0:23:49] maar dat veel mensen en jongeren niet gemotiveerd zijn om daar iets mee te doen.

[0:23:55] Dus je moet mensen eigenlijk leren ervaren dat het voor hen ook belangrijk is om kritisch

[0:24:02] te zijn.

[0:24:02] Dat ze er iets aan hebben.

[0:24:03] Zeker bij sociale media, die worden natuurlijk heel erg gebruikt om bepaalde behoeftes te

[0:24:09] bevredigen, om informatie te krijgen, om vermaakt te worden.

[0:24:14] Dus waarom zou je kritisch zijn als je gewoon lekker kan scrollen en kan kijken?

[0:24:18] Waarom zou je daarmee stoppen?

[0:24:19] Dus je moet eigenlijk laten zien waarom het belangrijk is om iets te doen

[0:24:25] wat je eigenlijk helemaal niet zou willen doen.

[0:24:29] En daar zijn verschillende programma's voor

[0:24:31] die je bijvoorbeeld op scholen zou in kunnen zetten,

[0:24:34] zodat kinderen zich realiseren dat het zin heeft om kritisch te zijn,

[0:24:38] want het kost natuurlijk moeite en energie.

[0:24:41] Dus je moet daarvoor gemotiveerd zijn en worden.

[0:24:47] Dan dank ik u voor uw beantwoording. Mag ik even de microfoon uitzetten?

[0:24:50] Dank u wel. En dan vraag ik mevrouw Dralisser nog een vervolgvraag.

[0:24:56] U heeft het dus onder andere over een oplossing, dat de scholen daar iets in kunnen betekenen door middel van een programma.

[0:25:02] Maar hoe kijkt u hier naar de rol van de ouders?

[0:25:07] Het woord is aan mevrouw Van Remos dan.

[0:25:09] Ja, nou wat daar lastig is, is dat veel ouders ook niet meer weten dan kinderen als het gaat om sociale media.

[0:25:18] Ja, dat gaat misschien een beetje in tegen wat ik eerder zei,

[0:25:21] dat juist dat je als ouder heel veel weet, maar je kan niet van alle ouders verwachten

[0:25:29] dat zij hun kinderen kunnen motiveren om niet, of om kritisch te zijn.

[0:25:34] Het is al heel lastig om schermtijd te beperken, iets wat vrij technisch is.

[0:25:39] Laat staan om kinderen ook nog te bewegen, om dan ook nog gemotiveerd te zijn

[0:25:43] om iets te doen wat ze eigenlijk niet willen.

[0:25:45] Dus ik denk dat er zeker een rol weg is gelegd voor ouders,

[0:25:48] maar dat er ook gewoon experts nodig zijn die daarbij helpen.

[0:25:52] Die uitleggen hoe je dat zou kunnen doen.

[0:25:54] Hoe motiveer je een kind om iets te doen wat hij eigenlijk helemaal niet zou willen doen.

[0:25:59] Dus ik denk dat het een rol is voor ouders, maar dat scholen, experts, ook influencers zelf.

[0:26:07] Wij zien ook in onderzoek dat als influencers zelf dingen uitleggen over hoe het werkt op sociale media.

[0:26:12] Dat kinderen dat overnemen en dat ze dat herhalen.

[0:26:15] Dus de influencers zijn natuurlijk een hele belangrijke rolmodel

[0:26:19] en die kunnen we ook voor het goede juist inzetten.

[0:26:22] En je ziet ook dat bijvoorbeeld items op het jeugdjournaal

[0:26:25] veel impact hebben op kinderen.

[0:26:29] Dus daar...

[0:26:30] Die kunnen ook helpen om kinderen te motiveren om kritisch te zijn.

[0:26:38] Hartelijk dank voor uw beantwoording.

[0:26:39] Dan ben ik zelf ook nog even een keer aan de beurt.

[0:26:41] Ik heb ook een vraag en die vraag die heb ik aan de heer Marchand

[0:26:46] Met betrekking tot de moderatie.

[0:26:50] Er zijn 160 Nederlands sprekende moderatoren, had ik vernomen uit uw verhaal.

[0:26:55] En die 160 Nederlands sprekende moderatoren, zitten die ook al in Nederland of zitten die elders?

[0:27:02] Ik ben heel blij dat u dat vraagt.

[0:27:04] Omdat er ook enige misverstande is geweest in de berichtgeving van de zomer.

[0:27:11] We hebben 160 Nederlandstalige moderatoren inderdaad in dienst.

[0:27:14] En die zijn niet werkzaam in Nederland.

[0:27:16] Daar waren een aantal van wel werkzaam in Nederland, maar inmiddels niet meer.

[0:27:21] We hebben natuurlijk dekking voor het Nederlands over de hele wereld nodig.

[0:27:24] 24-7, om het zo maar te zeggen.

[0:27:27] Die Nederlandse taal zit niet in Nederland, maar die hebben we zeker wel.

[0:27:34] Hartelijk dank voor de beantwoording. Ik heb daar geen vervolgvraag over.

[0:27:36] Dan gaan we door naar mevrouw Van der Werff.

[0:27:38] Ik had begrepen dat zij twee vragen wilde stellen.

[0:27:41] Of in ieder geval geen vervolgvraag had, maar gewoon twee afzonderlijke vragen.

[0:27:44] Voorzitter, dat geeft helemaal niks. Volgens mij was het even een misverstand.

[0:27:47] want ik heb heel veel vragen en nog meer vragen

[0:27:49] naar aanleiding van de volgende ronde, dus dat wordt kiezen genoeg.

[0:27:53] Naar aanleiding van het antwoord van de heer De Braak,

[0:27:56] dat sloot eigenlijk heel erg aan bij het paper

[0:27:57] dat ook Bits of Freedom had gestuurd,

[0:27:59] van ja, als je op vrijheid van meningsuiting gaat reguleren,

[0:28:03] dan kom je eigenlijk in een soort morastrecht

[0:28:05] waarbij het en onduidelijk is waar de grens ligt

[0:28:07] en je wellicht nog meer wantrouwen aanwakkert of problemen krijgt.

[0:28:12] Maar wat zou je dan wel kunnen reguleren?

[0:28:13] Want als het bijvoorbeeld om onzinsupplementen gaat

[0:28:17] of om adviezen gaat waarbij je eigenlijk af kan vragen...

[0:28:21] hé, ligt hier niet wel een rol voor een toezichthouder...

[0:28:24] of enige handhaving die nu niet wordt ingezet?

[0:28:29] Hoe zou je dat dan strakker kunnen oppakken...

[0:28:32] of wat zouden wij als commissie kunnen doen...

[0:28:34] om ervoor te zorgen dat in ieder geval wordt gehandhaafd...

[0:28:38] wat er nu al is afgesproken?

[0:28:39] Want ook dat zie je vaak gebeuren, dat meldingen niet eens opvolging krijgen.

[0:28:44] Hebben jullie dan concrete adviezen of acties die wij zouden kunnen ondernemen?

[0:28:49] En ik zou de vraag dus graag aan zowel de heer Ter Braak als mevrouw Beek willen stellen.

[0:28:55] Dan kijk ik wie ik eerst het antwoord mag geven.

[0:28:57] De heer Ter Braak.

[0:29:00] Ja, ik bel wel eens met de NVWA over dit soort zaken.

[0:29:06] En wat mijn indruk is, is dat zij veel en veel te weinig mankracht en tijd hebben om niet

[0:29:12] niet alleen te monitoren, maar ook daadwerkelijk te beboeten.

[0:29:16] Want het kost ook, als je een claim ziet die je niet mag doen,

[0:29:19] duurt het nog heel lang voordat je dat daadwerkelijk kan omzetten in een boete.

[0:29:22] Dan moet je nog door allerlei hoepels blijkbaar heen springen.

[0:29:25] Dus ik zou enerzijds zeggen, maak het makkelijker door bijvoorbeeld meer budget te geven.

[0:29:30] Ik weet niet, dat is heel makkelijk praten nu natuurlijk vanuit mij,

[0:29:31] maar dat zou je kunnen doen.

[0:29:33] Anderzijds misschien iets aan de regelgeving doen,

[0:29:36] dat het bijvoorbeeld makkelijker wordt om omzet...

[0:29:41] hoe noem je dat, omzetgerelateerde boetes te geven.

[0:29:44] Want tegenwoordig als je iets fout doet als influencer,

[0:29:46] dan krijg je misschien een boete van 500 euro.

[0:29:48] Maar als je een ton verdient per maand aan de verkoop van onzin,

[0:29:51] dan is 600 euro of 500 euro natuurlijk helemaal niks.

[0:29:54] Maar als je dat afhankelijk maakt van de omzet die je draait,

[0:29:57] om het wat te noemen, dat is misschien heel lastig.

[0:29:59] Dat zou je makkelijker kunnen maken.

[0:30:01] Dan kun je veel meer doen als NVWA.

[0:30:03] En dan schikt het denk ik ook meer af voor influencers.

[0:30:07] Want ik weet ook dat er...

[0:30:10] Volgens mij een maand geleden was er ook een influencer dag bij de N-VWA.

[0:30:13] Toen hebben ze het ook hierover gehad.

[0:30:14] En het blijkt gewoon dat heel veel van deze influencers zich niks aantrekken van deze regelgeving.

[0:30:19] Omdat ze weten dat het bereik dat ze kweken met die claims...

[0:30:22] en de geld dat ze kunnen verdienen met die claims...

[0:30:24] gewoon veel groter is dan de eventuele boete die ze krijgen.

[0:30:27] Dus het heeft eigenlijk helemaal geen zin dat die regelgeving er nu is.

[0:30:31] tenzij je dus, tenzij het makkelijker kan worden gehandhaafd en tenzij er dus meer mensen zijn

[0:30:37] die meer tijd hebben om zowel te handhaven als te monitoren. Dat lijkt mij de meest

[0:30:42] voor de hand liggende oplossing. En dan geef ik het woord aan mevrouw Beck. Ik denk dat er eigenlijk

[0:30:50] twee soorten content zijn, dus enerzijds de content die dus verboden is, dus die wel

[0:30:58] gesensoreerd mag worden. En daar zijn al autoriteiten voor die dat in de gaten kunnen houden.

[0:31:07] Die slagkacht mag wat mij betreft ook wel wat omhoog. Maar ik denk ook aan dingen die gewoon

[0:31:14] illegaal zijn. Het promoten van challenges waarbij je zolang mogelijk je adem moet inademen,

[0:31:19] dat soort dingen. Nou, volgens mij zijn dat soort zaken wettelijk geregeld, maar kennelijk

[0:31:25] nog niet sterk genoeg gehandhaafd.

[0:31:27] En dan heb je natuurlijk dat andere gebied

[0:31:29] waar die vrijheid van meningsuiting geldt.

[0:31:32] Dus we hadden het vandaag op kantoor over

[0:31:35] dat heel veel diëten een appeldag promoten.

[0:31:38] Dus dat is dat je een dag lang alleen maar appels eet,

[0:31:40] omdat je dan heel snel afvalt.

[0:31:41] Nou ja, dat is natuurlijk wel waar, als je de hele dag appels eet.

[0:31:45] En dat mag je ook gewoon zeggen, hè.

[0:31:47] Dat mogen wij ook gewoon tegen elkaar zeggen,

[0:31:49] maar bij een influencer is het wel wat schadelijker als die dat zegt,

[0:31:53] Want als allemaal mensen de hele dag appels gaan eten,

[0:31:56] dat lijkt me niet heel gezond.

[0:31:58] Dus, als het alleen appels zijn, hoor.

[0:32:01] Een appeltje op z'n tijd is natuurlijk heel goed.

[0:32:04] Maar, dus ik denk dat die categorie van content

[0:32:10] die gewoon gezegd mag worden, maar toch schadelijk is,

[0:32:14] dat we daar niet op moeten gaan handhaven.

[0:32:16] We moeten niet als overheid of als platform gaan zeggen

[0:32:18] wat wel en wat niet mag.

[0:32:20] Dat lijkt me veel te ingewikkeld.

[0:32:22] en dat ook best wel een beetje richting censuur gaan.

[0:32:28] Dus, nou ja, wederom, de oplossing is dan, denk ik,

[0:32:32] toch het aanpassen van die algoritme en het ontwerpen van die platformen

[0:32:35] zodat een Appeldagbericht wat minder viraal gaat dan een bericht

[0:32:39] als je veel sport, word je sterker.

[0:32:45] Hartelijk dank voor de beantwoording.

[0:32:47] Dus geen censuur en vooral, mensen thuis, geen Appeldag.

[0:32:50] Mevrouw van der Werf.

[0:32:55] Ja, heel veel dank voor de antwoorden.

[0:32:58] Ik kan een vervolgvraag stellen, maar ik had eigenlijk ook nog twee andere vragen voor de heer Marchand.

[0:33:02] Dus ik kijk dan de voorzitter aan of we dat in de volgende ronde gaan doen of dat ik nu gewoon twee vragen mag stellen.

[0:33:08] Oké, dan was mijn eerste vraag aan de heer Marchand.

[0:33:12] Hij had het in zijn introductie over contentmoderatie en de mensen die dat bij TikTok doen,

[0:33:20] maar ook de hoeveelheid die bijvoorbeeld aan troep verwijderd is richting die verkiezingen in Roemenië.

[0:33:26] Dat is natuurlijk prachtig, maar aan de andere kant kan je ook betogen...

[0:33:29] dat dat een druppel op de gloeiende plaat is.

[0:33:32] En wat ik mij dus oprecht afvraag, en die vraag stelde mijn buurman net ook al...

[0:33:37] zeggen jullie nu, nou, dit is echt een top geregeld bij ons...

[0:33:43] en dat hoeft absoluut niet verdubbeld of verhonderdvoudigd te worden om echt effectief te worden.

[0:33:49] Wat gaan jullie nou doen om dit te laten werken?

[0:33:52] Want het klinken hele grote cijfers, 600.000 stuks content.

[0:33:57] Maar als je het vergelijkt met het geheel, is het natuurlijk maar een heel klein beetje.

[0:34:01] En als je naar het verdienmodel van TikTok kijkt, dan zou je ook kunnen betogen...

[0:34:06] er moet nog veel meer van die winst gestoken worden in die veilige omgeving...

[0:34:10] die jullie hier zelf ook promoten.

[0:34:12] Dus ik zou daar wel graag een eerlijke reflectie over willen horen.

[0:34:16] De andere vraag die ik voor de heer Marchand ook had, is op dit moment zie je dat de regulering

[0:34:24] van influencers, bijvoorbeeld het gebruik van de hashtag ad, door veel mensen braaf wordt

[0:34:30] gevolgd, maar die zeggen ook mijn content wordt minder bekeken.

[0:34:34] Dus dat is eigenlijk gek.

[0:34:35] Ik hou me aan de regels die er van mij worden gevraagd, maar vervolgens wordt dat niet beloond.

[0:34:39] En de mensen die denken, ja, hier heb ik geen boodschap aan,

[0:34:44] die krijgen wel een push of een duw van het algoritme,

[0:34:49] hoe je het ook zou willen zeggen.

[0:34:51] Dus werkt het nou goed genoeg op het moment dat wij ook iets van influencers vragen,

[0:34:57] dat dat in de praktijk ook gaat leiden tot een eerlijkere weergave

[0:35:01] van wat je zou willen zien?

[0:35:04] Dus daar ben ik ook heel erg benieuwd naar, voorzitter.

[0:35:08] Dan is het woord aan de heer Marchand, zodra hij uitgeschreven is.

[0:35:14] Ja, dankjewel voor deze vragen.

[0:35:17] Om te beginnen met de moderatie.

[0:35:21] Qua moderatie, het frustrerende aan Trust and Safety voor platformen, denk ik,

[0:35:26] is dat er altijd wat zal zijn op de platform wat onmenselijk is en illegaal is.

[0:35:34] Dat is, denk ik, het uitgangspunt.

[0:35:37] We zeggen ook wel eens intern als schrap, er is geen finishlijn als het gaat om trust and safety.

[0:35:42] Dat klinkt heel cliché, maar dat is wel waar.

[0:35:46] En als je kijkt naar het platform en je ziet dat daar, we hebben 6 miljoen gebruikers in Nederland,

[0:35:52] 175 miljoen in de EU, en dat blijft groeien, en die content blijft ook groeien,

[0:35:57] dan denk ik ook dat wij er geloven dat je moet gaan kijken naar hoe kunnen we dit schaalbaar maken inderdaad.

[0:36:02] En waar zit die schaalbaarheid in?

[0:36:04] Die schaalbaarheid zit in het bijvoorbeeld beter herkennen van illegale content door middel van geautomatiseerde technologie.

[0:36:12] En die technologie die helpt moderatoren vervolgens om bijvoorbeeld sneller besluiten te nemen.

[0:36:17] Bijvoorbeeld bij het herkennen van djihadistische vlaggen of messen bijvoorbeeld.

[0:36:22] En dan kan vervolgens een menselijke moderator kijken, oké, wat moet hiermee gebeuren?

[0:36:27] En het verbeteren van dat soort technologieën en ook bijvoorbeeld het verbeteren van het herkennen van geluiden,

[0:36:32] het herkennen van beelden, het herkennen van woorden.

[0:36:35] Dat is, denk ik, daar echt een sleutel in.

[0:36:38] Wat je daar ook voor nodig hebt, en dat kunnen wij niet alleen als platform,

[0:36:43] is dat je daar ook de input nodig hebt van NGO's, van experts,

[0:36:48] om echt daadwerkelijk te kunnen zien...

[0:36:51] Kijk, wij zijn niet in elk onderwerp dat gepost wordt op ons platform...

[0:36:55] zijn wij geen expert, en dat kunnen we ook niet zijn.

[0:36:57] Dus kunnen we die experts erbij betrekken

[0:36:59] om je eigenlijk aan te geven, als je het hebt over mentale gezondheid in Nederland,

[0:37:05] kunnen we dan samenwerken met partijen zoals Mindus om in gesprek te gaan over wat zien jullie online gebeuren

[0:37:11] en hoe kunnen we daar als platform op inspelen.

[0:37:14] Nou, dat soort samenwerkingen en dat soort wisselwerking, ook met de academici trouwens,

[0:37:20] ja, dat is gewoon cruciaal om je moderatie te kunnen verbeteren.

[0:37:26] En ja, dat is de manier waarop we dat proberen te doen.

[0:37:29] Dan de tweede vraag.

[0:37:32] Hoe behandel je content die als ad gelabeld is versus die gewoon gepost wordt als mensen zich niet aan de regels houden?

[0:37:43] Ik denk dat, ook wederom, hier zijn twee verschillende aspecten van.

[0:37:47] Je kan natuurlijk ook advertentieruimtebehebbers inkopen.

[0:37:50] En dan koop je dus eigenlijk bereik de facto op het platform.

[0:37:56] Dat is één manier en dan heb je dus een vaste vorm van bereik.

[0:37:59] Mocht de mensen dat nou leuk vinden en liken, dan kan dat ook positief uitpakken voor advertenties.

[0:38:05] Dat is één kant.

[0:38:06] En aan de andere kant heb je dus inderdaad betaalde partnerships die mensen kunnen aangaan.

[0:38:11] En die kun je dus via een label laten zien op het platform.

[0:38:16] In principe zou daar geen verschil moeten zijn tussen content die gewoon door een gebruiker gepost wordt.

[0:38:23] Het gaat echt om relevantie.

[0:38:24] Dus als je content relevant is en mensen vinden het entertaining of interessant,

[0:38:30] ja, dan wordt het verder aanbevolen.

[0:38:34] Ik denk wel dat mensen ook vaak authentieke content,

[0:38:37] als je kijkt van, oké, ik vind poties omdat ik dat interessant vind,

[0:38:41] ik vind het leuk, ik versla mijn dag, noem maar op,

[0:38:44] vinden mensen leuker om naar te kijken dan als ze iets proberen te verkopen.

[0:38:47] Ik denk dat dat ook gewoon een hele praktische realiteit is.

[0:38:53] Dank voor de beantwoording.

[0:38:55] Ik zie een prangende korte vervolgvraag.

[0:38:57] Een hele korte vraag, voorzitter.

[0:38:58] Dan zegt de heer Marchand dus, het is niet zo dat het algoritme content met de hashtag

[0:39:06] ad anders benadert of anders waardeert dan content die dat niet heeft.

[0:39:13] Daarvan zegt u dus, dat klopt niet, die claim.

[0:39:16] De heer Marchand.

[0:39:18] Nee, dat klopt niet.

[0:39:19] Dus het spuurde gebruiker, niet uw algoritme.

[0:39:26] Oké, voor mijn begrip.

[0:39:30] Als het dus adgelabeld is, dan maakt het dat verder niet uit voor de zichtbaarheid, inderdaad, nee.

[0:39:35] Dus dan gaat het om de interactie met de video.

[0:39:40] Heel hartelijk dank voor de heldere beantwoording.

[0:39:42] En dan ga ik door naar de heer Siks-Dijkstra, een nieuw sociaal contract voor zijn tweede ronde.

[0:39:46] Dank u wel, voorzitter.

[0:39:47] Ik had nog een vraag aan mevrouw Van Rijmersdal.

[0:39:51] Dank u wel voor uw verhaal.

[0:39:54] Duidelijk en ook een interessante invalshoek.

[0:39:56] Wat u zegt dat kennis alleen niet genoeg is, maar het ook echt gaat om die motivatie.

[0:40:00] Kinderen motiveren om kritisch te zijn.

[0:40:03] Ik was benieuwd, kunt u dat misschien nog nader illustreren?

[0:40:06] Van momenten dat zo'n kwartje viel of methodieken die dan helpen om toch die knop om te zetten.

[0:40:11] En die weerbaarheid te bevorderen bij minderjarigen.

[0:40:14] Dat ze ook zelf op zoek gaan naar wat is waar, wat is onwaar, wat is schadelijk, wat is goed, etcetera.

[0:40:21] Het woord is aan mevrouw van Rijnmondstal.

[0:40:25] Ja, bedankt voor uw vraag.

[0:40:28] Wat we bijvoorbeeld ook in interviews met jongeren zagen,

[0:40:32] is dat jongeren die zelf actief zijn op sociale media,

[0:40:35] die bijvoorbeeld ook influencer willen worden,

[0:40:39] dat die ook veel beter weten wat er gebeurt

[0:40:42] en ook veel meer gemotiveerd zijn om uit te vinden wat voor content er bijvoorbeeld is.

[0:40:46] Dus dan is het een bepaalde betrokkenheid,

[0:40:51] waardoor zij zich meer verdiepen in die wereld, meer van willen weten en ook gemotiveerder zijn om kritisch te zijn.

[0:40:57] Je kan natuurlijk niet verwachten van alle kinderen, hoewel het wel het meest favoriete beroep is inmiddels om influencer te worden,

[0:41:03] maar je kan niet verwachten van alle kinderen dat ze heel actief zijn.

[0:41:09] Wat wilde ik daar nog meer over zeggen?

[0:41:14] Wat ook blijkt is dat als je dus zelf ervaart dat je een risico loopt, dat je ergens intrapt,

[0:41:20] dat je daarna ook veel gemotiveerder bent om kritisch te zijn.

[0:41:25] Er zijn ook sommige campagnes opgericht om mensen door te laten klikken

[0:41:29] en dan vervolgens uit te komen bij bijvoorbeeld de politie of bij de overheid

[0:41:34] om te laten zien dat je in deze nep-webshop bijvoorbeeld getrapt.

[0:41:38] Nou, dat soort tactieken die werken om jongeren te motiveren.

[0:41:43] En daarnaast moeten we dus eigenlijk duidelijk maken

[0:41:47] dat het zin heeft om, ja, waarom moet je kritisch zijn?

[0:41:54] Wat is het gevaar? En kan dat jou raken?

[0:41:57] Dus je moet ook het gevoel hebben dat het jou raakt.

[0:42:00] Dat het jou kan raken.

[0:42:02] En ervan overtuigd zijn dat het de moeite waard is om daar iets mee te doen.

[0:42:12] Hartelijk dank voor de beantwoording.

[0:42:14] Mag de microfoon weer uit.

[0:42:14] Dan zullen we in het volgende blok daar nog even iets van horen, iets moois.

[0:42:17] De heer Seestijckstra zit...

[0:42:20] Oké, dan is het woord aan mevrouw Drouw, VVD.

[0:42:23] Dank u wel, voorzitter.

[0:42:24] Ja, ik kan deze vraag eigenlijk aan iedereen wel stellen, want ik ben eigenlijk heel erg benieuwd.

[0:42:27] Het gaat over, wat u ook zegt, vooral minderjarige kinderen die goed beschermd moeten worden.

[0:42:33] Op dit moment is het zo dat één op de zeven kinderen onder de twaalf al in aanmerking komt met...

[0:42:38] voor hun twaalfde jaar, sorry, in aanmerking komt met schadelijke content.

[0:42:45] Hoe kijkt u tegen het feit aan dat op Europees niveau leeftijdverificatie zou geregeld worden

[0:42:53] vanuit het besturingssysteem?

[0:42:55] Hoe kijkt u daartegen aan?

[0:42:58] Dan kijk ik even naar allemaal.

[0:42:59] Wie wil het eerst het woord voeren daarover?

[0:43:01] Mevrouw Beck.

[0:43:05] Ik ben zelf geen voorstander van leeftijdsgrenzen, deels omdat leeftijdsverificatie als het betrouwbaar

[0:43:11] is, volgens mij altijd een inperking zal zijn van privacy.

[0:43:17] En deels omdat ik denk dat we daarmee het probleem alleen maar uitstellen.

[0:43:22] Dus als we social media verbieden tot 16 jaar,

[0:43:27] dan zijn al die schadelijke dingen er nog steeds nadat mensen 16 worden.

[0:43:31] En die zijn er nu ook. Dus op dit moment zijn het niet alleen jongeren,

[0:43:35] maar ook volwassenen die last hebben van al die schadelijke content.

[0:43:38] En als je dus mensen daar niet toe blootstelt voor bijvoorbeeld hun zestiende,

[0:43:44] dat is eigenlijk alsof je kinderen binnenhoudt omdat je buitenoverheden kan worden.

[0:43:49] Terwijl je kan ook zebrapaden en vangrails neerzetten en speeltuinen met hekjes eromheen.

[0:43:54] Dus wederom denk ik dat het verstandig is om de social media te reguleren,

[0:44:00] zodat dat een veel fijnere en veiligere plek is waar engigheid niet de hele tijd boven komt drijven.

[0:44:05] Ik denk dat dat een veel wijzigere oplossing is dan zo'n leeftijdsgrens

[0:44:09] waarmee we het probleem alleen maar uitstellen.

[0:44:14] Hartelijk dank voor de opvoeding.

[0:44:16] En dan heeft ze nog een vervolgvraag van bevolking.

[0:44:17] Ja, en dan voor even duidelijkheid.

[0:44:19] Het gaat mij niet om dat we het naar 16 jaar terug moeten brengen,

[0:44:21] want persoonlijk geloof ik daar niet zo in.

[0:44:24] Het ging mij meer om het feit dat de 13-jarigen,

[0:44:27] dat de platforms nu zeggen we moeten tot 13 jaar zijn ze pas welkom.

[0:44:31] Maar dat gaat gewoon ook heel vaak niet goed,

[0:44:33] omdat ze dat, en dat wordt ook gezegd,

[0:44:36] Dat zeggen ze, dat kunnen we niet goed regelen, omdat het wettelijk niet goed geregeld is.

[0:44:40] Dus vandaar mijn vraag, dat je op dertienjarig leeftijd, als je dan een mobiel hebt,

[0:44:45] dat je dan een leeftijdverificatie moet doen voor het besturingssysteem,

[0:44:48] zodat er andere apps, die misschien ook schadelijk kunnen zijn,

[0:44:51] dat meteen beschermd wordt. Dat was eigenlijk mijn vraag.

[0:44:55] Mevrouw Beck.

[0:44:58] De leeftijd van dertien jaar is nu gekozen door de platformen zelf,

[0:45:02] niet door ons, of door jullie eigenlijk.

[0:45:05] Dus die staat wettelijk niet vast en als die wettelijk wel vast zou staan, geldt eigenlijk

[0:45:11] hetzelfde als wat ik zo net zei.

[0:45:14] Ik denk dat er veel effectievere manieren zijn om social media veiliger te maken voor

[0:45:23] zowel minderjarigen als volwassenen, of die nou onder de dertien of de zestien zijn.

[0:45:30] Nog een aanvulling door mevrouw Van Rijmelsdal.

[0:45:33] Ik ben het gedeeltelijk mee eens, maar gedeeltelijk ook niet.

[0:45:38] Sowieso zitten er inderdaad heel veel goede kanten aan sociale media.

[0:45:41] Het is ook een hele leerzame wereld.

[0:45:45] Kinderen doen er sociale contacten op.

[0:45:47] Maar om te zeggen dat je het niet hoeft te verbieden, want je moet zebrapaden, ja, graag.

[0:45:53] Maar als dat niet lukt … Kijk, je laat kinderen ook geen alcohol drinken onder de 18, dus dat verbied je ook.

[0:45:58] En je zou hierbij ook kunnen beargumenteren dat er gewoon bepaalde kenmerken zijn van kinderen

[0:46:04] in hun ontwikkeling, waardoor zij gewoon nog niet de vaardigheden en de kennis hebben om

[0:46:08] onder de dertien of, nou ja, de leeftijd staat wat mij betreft ter discussie, maar onder

[0:46:15] een bepaalde leeftijd gewoon voor hen te veel schadelijke effecten heeft om het toe te laten

[0:46:21] en we kunnen proberen om het veilig te maken.

[0:46:23] Nou, daar zijn we denk ik ook al best wel een tijdje mee bezig, maar ik vind dat het

[0:46:27] welke afweging moet kunnen zijn om te zeggen dat de nadelen wegen op tegen de voordelen.

[0:46:33] Kinderen gaan er ervaring mee opdoen op de leeftijd waarop ze eraan toe zijn.

[0:46:41] Hartelijk dank voor de beantwoording.

[0:46:42] Dan heeft de heer Magsan nog een aanvulling.

[0:46:45] Ik reageer er ook graag op.

[0:46:49] Onze platform wordt gevraagd om een leeftijds toepasselijke omgeving te bieden.

[0:46:53] Wij bieden die voor jongeren vanaf dertien in dit geval.

[0:46:56] En ik denk dat er dan ook, als je kijkt naar de online wereld,

[0:47:02] dat er dan ook een goede manier moet zijn om dat te kunnen afdwingen.

[0:47:06] Daar moet heel veel oog voor privacy zijn en dat op een privacy-vriendelijke manier doen.

[0:47:10] En ik denk dat er ook oog moet zijn voor beschikbaarheid,

[0:47:15] zeker binnen Europa op een Europees niveau.

[0:47:17] Dat het toegankelijk moet zijn voor allerlei soorten mensen

[0:47:21] die toegang hebben tot digitale apps, telefoons, platformen.

[0:47:27] En dat er ook zeker meer waarde zit, omdat we het dus niet voor elke app individueel zouden moeten doen.

[0:47:33] En ik denk dat er in de samenleving een behoefte is aan dat regelen.

[0:47:39] En wij zien die ook als platform.

[0:47:42] Wij faciliteren ook, we doen mee aan discussies werkgroep over hoe kun je dat privacyvriendelijk doen en hoe kun je dat dan doen.

[0:47:48] Maar we vinden wel dat dat dan op Europees niveau inderdaad geregeld moet worden.

[0:47:52] en op een plek, zeg maar, in de keten, waar je meteen effect sorteert voor alles, zeg maar.

[0:47:59] In plaats van dat je van mensen gaat vragen om dat op honderdduizend plekken opnieuw te uit te vinden, zeg maar.

[0:48:07] Hartelijk dank voor uw beantwoording.

[0:48:08] Dan schors ik even kort.

[0:48:10] Ik zie zelf af van mijn tweede termijn, dus dan schors ik even kort de vergadering,

[0:48:13] want we zijn al een klein beetje over tijd en kunnen we even wisselen naar het volgende blokje.

[0:48:18] En dan zien we ons zo.

[0:52:40] Een heel hartelijk welkom terug bij dit rond de tafel gesprek van de vaste commissie voor digitale zaken.

[0:52:46] Aan de orde is nu blok twee van rond de tafel gesprek misleidende influencers.

[0:52:51] En hier gaat het om de handhaving en regelgeving.

[0:52:54] Inmiddels zijn aangeschoven aan mijn rechterzijde voor de kijkers thuis en op de tribune links de heer Joost Bouhoff.

[0:53:01] Hij is influencer en creative marketeer.

[0:53:03] Daarnaast zit de heer Wes van Os, manager Nikkie Tutorials.

[0:53:07] Dan hebben we van Risk Factory de heer Nick Boersma, programmamanager,

[0:53:13] excuseer, die heeft gewisseld met de heer Boerboom,

[0:53:17] van Autoriteit Financiële Markten.

[0:53:19] De heer Boerboom, excuseer,

[0:53:22] hoofd Marketing Integriteit en Handhaving van de Autoriteit Financiële Markten.

[0:53:27] Daarnaast de heer Boersma van Risk Factory, programmamanager.

[0:53:32] Daarnaast is aangeschoven de heer Kuipers,

[0:53:34] als coördinator digitaal bij de directie Consumenten.

[0:53:38] Langs de heer Kuipers zien we de heer Van der Harst.

[0:53:42] De heer Van der Harst is directeur van Stichting Reclamecode

[0:53:47] en last but not least mevrouw Houthoff.

[0:53:49] Mevrouw Houthoff is hoofdtoezicht van het commissariaat voor de media.

[0:53:53] Dan wil ik u allen graag vragen voor een korte introductie van uzelf,

[0:53:57] max twee minuutjes.

[0:53:58] We hebben alle de positionpapers van u ontvangen en kunnen het doornemen.

[0:54:01] en dan gaan we daarna door naar de zijde van de Kamer.

[0:54:04] Dan beginnen we bij de heer Bouhoff.

[0:54:08] Nou, bedankt.

[0:54:08] Allereerst naar iedereen bedankt dat ik hier überhaupt mag zijn

[0:54:11] en dat er serieus wordt geluisterd, ook naar influencers.

[0:54:13] Er zijn natuurlijk een hoop mensen in de sector die wat vinden

[0:54:16] over influencers en content creators,

[0:54:17] dus ik vind het een hele mooie stap om daadwerkelijk iemand hier te zitten

[0:54:21] die het vak doet.

[0:54:22] En zo doe ik dit vak ook al meer dan tien jaar, twaalf jaar, denk ik wel.

[0:54:26] Dus ik heb de hele evolutie van een influencer meegemaakt,

[0:54:29] om het zo maar te noemen.

[0:54:30] Ik noem mezelf liever een content creator,

[0:54:31] maar laat het woord influencer houden, want dat kent iedereen.

[0:54:35] Dus van het wilde westen van influencermarketing tot wat het nu is...

[0:54:39] heb ik eigenlijk alles een beetje gedaan.

[0:54:41] En heb ik ook de evolutie een beetje meegemaakt.

[0:54:44] En kan ik daar ook wel wat mooi over zeggen...

[0:54:47] en een goede inkijk geven in het werk van een influencer.

[0:54:52] Maar ook van hoe andere influencers reageren op wetgeving...

[0:54:56] en wat de gedachten zijn als er dingen worden verplicht of verboden.

[0:55:00] En hoe om te gaan met bepaalde dingen als een voorbeeldfunctie.

[0:55:07] En het weten dat bijvoorbeeld jonge kinderen kijken naar je content.

[0:55:11] En of je daar bewustwording voor moet creëren en dat soort zaken.

[0:55:14] Dus nogmaals bedankt dat ik hier mag zijn.

[0:55:16] En ik sta open voor jullie vragen.

[0:55:19] Heel hartelijk dank voor de kleine introductie en welkom.

[0:55:22] En dan geef ik het woord aan de heer Van Oss.

[0:55:24] Hai, mijn naam is Wes.

[0:55:26] Ik heb een achtergrond in traditionele media.

[0:55:28] Ja, en ik heb ook veel met influencers gewerkt en ik werk nog met influencers.

[0:55:32] Ik vind het woord influencer en het beroep influencer heel erg leuk.

[0:55:37] En het is ook een iets moois. Er zit ook een verdienmodel achter.

[0:55:40] Het vraagt natuurlijk wel om regulering.

[0:55:43] Maar ik denk dat er nu soms wordt gesproken over nieuwigheid.

[0:55:48] Maar vroeger keken we niet anders naar grote sterren op tv.

[0:55:50] Of het nou Michael Jordan was met zijn Jordans.

[0:55:53] Of je op tv je voorbeelden zag wat betreft...

[0:55:56] producten die je aankocht en dat soort dingen.

[0:55:59] Er zijn een paar dingen waar wat ik wel zou willen bespreken.

[0:56:02] Het is eerder in blok 1 ook aangehaald,

[0:56:04] maar het werken met influencers vraagt ook transparantie en dat is heel belangrijk.

[0:56:08] Maar wat je nog wel merkt is dat ook het vermelden van een hashtag-ad

[0:56:12] of het labelen van content als zijnde commercieel

[0:56:17] heeft toch wel invloed in het algoritme.

[0:56:19] En dan mag ik geloven van TikTok dat het niet door TikTok zelf wordt bepaald,

[0:56:23] maar het zit in de gebruiker.

[0:56:25] Want we kijken met z'n allen liever een tv-programma

[0:56:28] dan naar het commercialblok.

[0:56:29] En toch is het commercialblok wat de zender betaalt.

[0:56:32] En ik denk dat we daar nog steeds naar een balans moeten gaan kijken

[0:56:34] hoe die content, als het eerlijk wordt gelabeld,

[0:56:36] want dat willen we met z'n allen, hoe dat wordt beoordeeld.

[0:56:40] En twee, wat ik een beetje mis in deze discussie is, of in dit gesprek,

[0:56:44] is eigenlijk de verantwoordelijkheid van de gebruiker en van de ontvanger.

[0:56:48] Veelal opereren we in de anonimiteit.

[0:56:50] en ik zit hier en ik heb verantwoordelijkheid voor mijn eigen woorden,

[0:56:53] maar de algoritmes worden gedragen door shares, comments en likes

[0:56:57] en daar zitten mensen achter.

[0:56:59] Dus ik zou heel graag willen voorstellen om ook identificatie

[0:57:02] aan de achterkant te verplichten, zodat je verantwoordelijkheid neemt

[0:57:05] voor de content die je verspreidt, punt.

[0:57:09] Hartelijk dank voor uw inbreng en welkom.

[0:57:11] Mag u even de microfoon uitzetten, de hartelijk dank.

[0:57:13] En dan geef ik het woord aan de heer Boerboom.

[0:57:17] Ja, dank. Jan Boerboom, hoofdtoezicht bij de AFM.

[0:57:20] We zijn gedragsdrukthouder op de financiële markt.

[0:57:24] Dat gedrag als het geeft van advies of het verstrekt van informatie.

[0:57:30] Wanneer influencers zich uitspreken over financiële producten...

[0:57:34] ...dan noemen we ze finfluencers.

[0:57:36] Maar er is geen definitie van, ook niet wettelijk.

[0:57:40] Er zijn ook geen specifieke regels voor finfluencers.

[0:57:43] Gewoon regels die voor alle partijen gelden op de markt.

[0:57:49] Een finfluencer mag geen beleggingsadvies geven.

[0:57:53] Hij kan ook een beleggingsaanbeveling doen.

[0:57:57] Bij een advies moet u denken dat het persoonlijk is over een specifiek product.

[0:58:02] Bij een beleggingsaanbeveling is het vaak voor een breder publiek, bijvoorbeeld over de waarde

[0:58:06] van een aandeel of een koers.

[0:58:08] Dan zijn er in marktmisbruikregels specifieke zaken geregeld, zoals dat je moet laten zien wie je bent,

[0:58:16] je moet transparant zijn, je moet neutraal en objectief de feiten weergeven.

[0:58:22] Dan hebben we een provisieword, dat is ook een belangrijke regel.

[0:58:26] Dat betekent zoveel als dat beleggingsondernemingen geen provisie mogen betalen aan finfluencers

[0:58:32] als zij een bepaald advies geven of anderszins.

[0:58:36] Er zijn meer regels van toepassing.

[0:58:38] Het meest bijzondere is mogelijk wel de MICAR, de crypto-wetgeving die eind dit jaar van

[0:58:43] toepassing is, ook op de markt van finfluencers.

[0:58:49] Als je dan hebt over ons toezicht, nou, daar doen we risico gestuurd, zoals zoveel overheidsorganisaties

[0:58:56] of ZBO's hebben, maar een beperkte capaciteit, dus wij kijken waar zijn de risico's het grootst

[0:59:00] of waar kunnen we de meest impact maken met de capaciteit.

[0:59:06] Toen het fenomeen vinfluencers opkwam, voor ons ergens rond 2021, als nieuw fenomeen, wat

[0:59:13] Wat we dan vaker doen, is marktverkenning en inventarisatie doen.

[0:59:18] Wij hebben dat best redelijk uitgebreid gedaan.

[0:59:21] Ongeveer 150 FinFluencers hebben we in kaart gebracht.

[0:59:25] Daar zijn we in gesprek gegaan, daar hebben we oriëntatie gegeven...

[0:59:29] ...seminars voor georganiseerd.

[0:59:30] Maar uiteindelijk waren er ook een aantal dingen die niet klopten.

[0:59:33] Bijvoorbeeld het overtreden van bepaalde wetgeving.

[0:59:36] Dan zijn we daar... Dan gaan we erachteraan.

[0:59:39] Inmiddels zijn er een drietal boetes dit jaar gepubliceerd...

[0:59:42] over influencers in de vorm waarin ze zich niet aan de regels houden.

[0:59:48] Dus ja, we pakken dus wel door,

[0:59:50] maar we kunnen niet altijd alles laten zien wat we doen,

[0:59:54] omdat we natuurlijk ook gehouden zijn

[0:59:56] aan de regels van rechtspraak en rechtsbescherming.

[1:00:00] En daarnaast maken we ons nog sterk ook voor andere dingen

[1:00:03] zoals financiële educatie in de week van het geld,

[1:00:06] dat heel veel collega's van mij op school de les geven.

[1:00:10] Dus, we zijn er zeker niet tegen, want we zitten heel veel goede kant aan.

[1:00:15] En onze rol is om vooral te kijken waar het misgaat en daarvoor te waarschuwen.

[1:00:19] Dank u wel.

[1:00:21] Heel hartelijk dank voor uw inbreng.

[1:00:24] En dan gaat het woord aan de heer Boersma van Risk Factory.

[1:00:27] Dank u wel. Ik ben Nick Boersma, programmanager van de Risk Factory in Limburg

[1:00:31] en zit hier vandaag namens alle Risk Factories in Nederland.

[1:00:35] De leefwereld van jongeren, zowel online als offline,

[1:00:37] zit vol uitdagingen en risico's.

[1:00:39] Dus naast wet en regelgeving, waar het hier vandaag ook veel over gaat,

[1:00:43] is het minstens zo belangrijk, daar werd ook net al aan gerefereerd,

[1:00:46] om jongeren zelf preventief de regie te geven.

[1:00:49] Als RISVector zetten we ons dagelijks in om jongeren in hun kracht te zetten

[1:00:53] en handelingsperspectief te bieden voor allerlei uitdagingen

[1:00:55] op het gied van gezondheid en veiligheid.

[1:00:57] En daar waar veel preventieve projecten de focus lagen op informeren,

[1:01:00] gaat de RISVector in een belangrijke stap verder.

[1:01:03] Leren door beleven.

[1:01:05] Dit doen we door leerlingen in groep acht en daarna nogmaals voor tweede klassers.

[1:01:09] En de kracht van preventie zit hem in dit geval ook dus in de kracht van herhaling.

[1:01:14] Bij levens-echte en interactieve scenario's, zoals over de invloed van influencers,

[1:01:18] maar ook groepsdruk, brandveiligheid en ondermijning,

[1:01:20] ervaren jongeren risico's en leren ze hoe te handelen.

[1:01:24] En dat geeft zelfvertrouwen om, als het er echt op aankomt, de juiste beslissingen te nemen.

[1:01:29] Binnen de Risk Factory zijn verschillende scenario's ontwikkeld in relatie tot influencers.

[1:01:34] Het gaat onder andere over kritisch nadenken over producten die aangeprezen worden

[1:01:37] en de impact van een online werkelijkheid

[1:01:39] op het zelfbeeld van jongeren.

[1:01:41] Ook gaat het over diverse vormen van desinformatie

[1:01:44] en hoe jongeren zich hier tegen kunnen wapenen.

[1:01:47] De belevende preventieve aanpak werkt en is ook effectief.

[1:01:52] We hebben wetenschappelijk promotieonderzoek uitgevoerd,

[1:01:54] mogelijk gemaakt door de provincie Limburg.

[1:01:56] En dat heeft aangetoond dat bezoekers aan de Risk Factory

[1:01:57] zich daadwerkelijker, gezonder en veiliger gaan gedragen.

[1:02:01] De Risk Factory is een van de weinige plekken

[1:02:03] waar doelgroepen op één centrale plek, op één dagdeel,

[1:02:06] meerdere thema's tegelijkertijd kunnen beleven.

[1:02:09] En dat slaat aan, vooral bij het onderwijs.

[1:02:11] Want het onderwijs wordt overspoeld met projecten,

[1:02:14] over dit thema, maar ook over tal van andere thema's,

[1:02:17] die allemaal even waardevol zijn.

[1:02:19] Dus het belevingsaspect, de wetenschappelijke onderbouwing

[1:02:22] en het integrale aanbod zorgen ervoor dat ruim 90 procent

[1:02:24] van de leerlingen in onze regio's elk jaar opnieuw de RISFactory bezoeken.

[1:02:29] Dat betekent dat we dus bijna iedereen zien,

[1:02:32] dus maken we ook serieus impact, ook over dit thema en dit onderwerp.

[1:02:36] Zoals al eerder gerefereerd, veranderen de uitdagingen voor jongeren razendsnel.

[1:02:40] En als RIS-factory hebben we een structuur neergezet

[1:02:41] waarbinnen we snel kunnen inspelen op deze ontwikkelingen.

[1:02:45] We doen dit gelukkig niet alleen.

[1:02:47] We doen dit door structureel samen te werken met inhoudelijke partners,

[1:02:50] met het onderwijs zelf en ook met gedragsexperts.

[1:02:53] En gelukkig neemt ook het aantal RIS-factories in Nederland steeds sneller toe.

[1:02:57] Mijn aanbevelingen die ik graag zou willen overbrengen,

[1:03:00] zijn investeer naast wet- en regelgeving ook in preventie.

[1:03:03] die geeft jongeren, gebruikers in algemene zin,

[1:03:06] handelingsperspectief om zelf om te gaan met uitdagingen,

[1:03:09] ook rondom dit thema.

[1:03:11] En kiest daarbij voor wetenschappelijk bewezen en langdurige initiatieven.

[1:03:15] Weersta de verleiding om steeds opnieuw iets te ontwikkelen,

[1:03:18] want continuïteit en focus helpt voor organisaties,

[1:03:22] maar ook voor het onderwijs.

[1:03:24] Een integrale aanpak werkt en onlast daarbij het onderwijs,

[1:03:27] dus breng vooral organisaties en beleidsdoelen bij elkaar.

[1:03:31] En betrekt de Risk Factory is de uitnodiging

[1:03:33] in de vertaling van beleidsdoelen naar praktijk.

[1:03:35] Die oproep geldt voor u, voor ministeries,

[1:03:38] maar ook voor organisaties die willen inspelen op maatschappelijke ontwikkelingen.

[1:03:42] Zodat straks alle jongeren in Nederland de kans krijgen om zich voor te bereiden

[1:03:45] op hoe ze om kunnen gaan met misleidende influencers,

[1:03:48] maar ook nog met veel meer. Dank u wel.

[1:03:52] Heel hartelijk dank voor uw inbreng.

[1:03:54] En dan is de volgende spreker aan de beurt, Dirk Kuipers

[1:03:56] van Autoriteit, Consumentenmarkt.

[1:04:00] Dank u wel, voorzitter.

[1:04:01] Dank u wel voor de uitnodiging om bij deze ronde tafel aanwezig te zijn.

[1:04:04] Dit blok heet Regelgeving en Toezicht en ik zou in mijn twee minuten graag beide onderwerpen kort aanstippen.

[1:04:11] De Autoriteit Consument en Markt is, zoals u ongetwijfeld weet,

[1:04:15] een toezichthouder met een grote hoeveelheid aan taken en bevoegdheden.

[1:04:20] De taken en bevoegdheden waar we het vandaag met name over hebben

[1:04:23] en die relevant zijn voor influencermarketing, zijn taken vanuit het consumentenrecht, het generieke consumentenrecht.

[1:04:29] En dan kennen we allemaal, het werd in de eerste blok ook al genoemd, de regelgeving in zaken

[1:04:34] oneerlijke handelspraktijken en ook de regelgeving, die vrij nieuw is, in zaken de digital services

[1:04:40] act.

[1:04:41] Ik wil even kort toespitsen in welke manier die twee regels dan van toepassing zijn.

[1:04:47] Ten eerste, en daar gaat het uitgebreid natuurlijk over, de vraag wat moet een influencer nou

[1:04:53] vertellen over de commerciële belangen die hij heeft?

[1:04:55] Daar zijn regels over in het consumentenrecht en zoals u gezien hebt hebben de gezamenlijke

[1:05:00] toezichthouders daar ook een rapportage over uitgebracht.

[1:05:04] Daarnaast kan het gaan over misleiding, dus het kan, het komt voor dat influencers vertellen

[1:05:11] over producten of diensten op een manier die niet waar is of belangrijke informatie achterwege

[1:05:16] laten.

[1:05:17] Ook dat valt onder het generieke consumentenrecht en daarnaast hebben wij in het verleden ook

[1:05:21] een boete of een lasten-onder-dwangsom voor opgelegd aan een influencer.

[1:05:24] Er zijn er ook influencers, helaas, die hun eigen zichtbaarheid vergroten

[1:05:29] door het aankopen van nep-likes, nep-reviews, nep-volgers.

[1:05:33] En er zijn andere mogelijkheden.

[1:05:35] Ook dat kan vallen onder ons generieke consumententoezicht.

[1:05:39] En dan nieuw en daarom misschien extra goed om even te noemen.

[1:05:43] Er is zoiets als de Digital Services Act.

[1:05:46] Die Digital Services Act stelt eisen aan platformen zoals Instagram,

[1:05:51] zoals TikTok hier aanwezig, waarop influencers zich begeven.

[1:05:55] Die regelgeving is nieuw, en die is zelfs zo nieuw...

[1:05:58] dat uw Kamer zinnig beraadt over de vraag of wij daarvoor de toezichthouder mogen worden.

[1:06:02] Maar die stelt ook eisen aan die platformen...

[1:06:07] om hun infrastructuur zodanig in te regelen...

[1:06:10] dat bepaalde risico's, bijvoorbeeld misinformatie, minder of niet kunnen voorkomen.

[1:06:14] Daaronder vallen ook problemen die voort kunnen komen uit influencermarketing.

[1:06:23] Ten slotte wil ik dan nog even iets zeggen over het toezicht.

[1:06:27] Want wij zitten hier met een aantal toezichthouders om tafel en dat heeft een reden.

[1:06:31] Er zijn verschillende wetten van toepassing op influencers.

[1:06:36] Trouwens geldt dat ook voor de meeste andere bedrijven.

[1:06:41] En omdat wij dat ook weten en wij het belang zien van de afstemming op dat vlak,

[1:06:46] werken wij samen.

[1:06:48] Dat doen we individueel met een aantal toezichthouders, ook een aantal die hier niet aan tafel zitten,

[1:06:51] die ook vanmorgen al genoemd werden, maar zeker ook een aantal die hier wel aan tafel zitten

[1:06:56] in het kader van de samenwerkende digitale toezichthouders.

[1:07:01] Ik denk dat ik het daarbij wil laten.

[1:07:04] Dank u wel.

[1:07:07] Dan dank ik u hartelijk voor uw inbreng.

[1:07:08] mag u heel even de microfoon weer uitzetten.

[1:07:10] En dan is de volgende spreker aan de beurt, de heer Van der Harst,

[1:07:13] van de Stichting Reclamecode.

[1:07:16] Ja, de Stichting Reclamecode, de Reclamecodecommissie,

[1:07:18] misschien wel bekend, is geen overheidsorgaan,

[1:07:21] maar is een vorm van zelfregulering.

[1:07:23] Dus wij zijn opgestaan vanuit het adverteer- en bedrijfsleven in Nederland

[1:07:27] zestig jaar geleden.

[1:07:29] En wij hebben zelf, zeg maar, boven wettelijke beperkingen,

[1:07:32] regels gemaakt die preciseren wat nou goede reclame is,

[1:07:36] wat verstandig is enzovoorts.

[1:07:39] Het staat allemaal in een heel mooi dik boek, dat heb ik voor u meegenomen.

[1:07:42] Er zijn wat minder Kamerleden dan verwacht,

[1:07:44] maar toch fijn dat ik u straks een exemplaar mag overhandigen

[1:07:47] van de Nederlandse reclamecode.

[1:07:50] Die Nederlandse reclamecode kent sinds 2014

[1:07:53] al een bijzondere reclamecode over influencermarketing.

[1:07:55] Dus al tien jaar geleden waren we hiermee bezig.

[1:07:58] En dat gaat met name over dat reclame als reclame herkenbaar moet zijn.

[1:08:02] Want als er één grijs gebied is, dan is het wel zij die iets aanprijzen

[1:08:05] zonder te vermelden dat dat reclame is.

[1:08:07] Dan denk je van, oh, die vindt gewoon de koffie lekker.

[1:08:10] Nou, dat is een authentiek statement, hartstikke fijn,

[1:08:13] maar eigenlijk wordt die persoon dan betaald of krijgt gratis

[1:08:16] de kupjes van de espresso aangereikt en daarmee wordt er reclame gemaakt.

[1:08:21] Dat bevinden wij een relevante relatie.

[1:08:24] Als iemand iets gratis krijgt, dan is dat ook een vorm van betaling.

[1:08:28] Dus de reclamecode is daar heel streng over en heel duidelijk in

[1:08:30] en probeert ook adverteerders aan hun zorgplicht te houden.

[1:08:34] Die adverteerders die daar een rol spelen in het bedienen van deze influencers

[1:08:38] hebben ook wel degelijk een zorgplicht.

[1:08:40] En daar hebben wij het ook over in onze reclamecode.

[1:08:43] Nou, verder is er heel veel te zeggen over influencers

[1:08:45] en er is al heel veel gepasseerd.

[1:08:47] Het enige wat ik nog wil vermelden, is dat wij als Stichting Reclamecode

[1:08:50] bezig zijn met een groot monitoringsonderzoek.

[1:08:52] Dus op Instagram, YouTube en TikTok volgen wij al meer dan 1900 influencers

[1:08:57] in Nederland die zich gecertificeerd hebben.

[1:08:59] Die certificering hebben wij opgezet afgelopen april.

[1:09:02] En het werkt als een dolle. Waarom certificeert iedereen zich?

[1:09:06] Omdat adverteerders hebben gezegd

[1:09:07] wij werken alleen nog maar met gecertificeerde influencers.

[1:09:10] En dan is dus de verdienstroom die zo'n influencer kan bereiken,

[1:09:14] ja, die droogt op als hij zich niet certificeert.

[1:09:16] Dus dat is een zeer effectief middel gebleken.

[1:09:19] Geheel in de vrije markt tot stand gekomen zonder enige overheidsingrijpen.

[1:09:24] Dat wil niet zeggen dat wij tegenregels zijn van de overheid,

[1:09:26] want we denken dat het heel goed parallel kan zijn

[1:09:28] en dat je een goed stel en duidelijk helder regelkader hebt in de wet

[1:09:32] en vervolgens met zelfregulering de zaken nog een keer extra goed benoemd.

[1:09:36] Vooral de open normen in de wet nog eens een keer verduidelijkt met reclamecodes.

[1:09:41] Daar wil ik het even bij laten.

[1:09:43] Dan dank ik u van harte voor uw inbreng.

[1:09:46] Mag u ook even de microfoon weer uitschakelen.

[1:09:48] En dan geef ik als laatste het woord aan mevrouw Houthoff,

[1:09:51] hoofdtoezicht commissariaat voor de media.

[1:09:54] Ja, dank u wel. Dank voor de uitnodiging ook.

[1:09:57] Nou, ik denk in dit kader goed noemen, wij zijn als commissariat voor de media,

[1:10:03] hebben wij een toezichtstaat voor een deel van de influencers en het gaat dan met name dus over video-uploaders.

[1:10:09] Het gaat in ons toezicht dus voornamelijk om filmpjes.

[1:10:13] Ons mandaat vloeit ook voort uit de Mediawet en uit de Europese richtlijn audiovisuele mediadiensten.

[1:10:20] Dat is de richtlijn die ooit is opgetuigd voor één traditionele televisiemarkt in Europa.

[1:10:29] Later kwam daarbij regulering voor on-demand-diensten, dus de streamers.

[1:10:36] En meest recentelijk ook video-uploaders die op die platforms actief zijn...

[1:10:43] en ook de video-platformdiensten zelf, die zijn gereguleerd.

[1:10:47] Dus dat is een beetje de achtergrond van ons toezicht.

[1:10:50] Daarbij geldt ook, net als we net hoorden bij de finfluencers,

[1:10:55] dat ook voor de video-uploaders geen apart regime geldt,

[1:10:57] geen wettelijke regels die echt op hen zijn geënt.

[1:11:00] Voor hen geldt gewoon precies dezelfde regels als bijvoorbeeld voor een Netflix.

[1:11:05] En dat sluit in de praktijk natuurlijk niet altijd heel erg mooi aan,

[1:11:09] want er zijn wel grote verschillen tussen die partijen.

[1:11:13] Nou ja, het gaat dan met name over regels die zien over transparantie,

[1:11:18] over commerciële communicatie, aansluiten bij de Stichting Reclamecode als er reclame wordt gemaakt,

[1:11:24] aansluiten bij het NICAM, die bekende van de kijkwijzer,

[1:11:28] dus voor contentclassificatie.

[1:11:33] Nou ja, voor influencers gelden, dat hebben we hier al gehoord met iedereen die hier zit,

[1:11:38] nog veel meer regels, consumentenwetgeving,

[1:11:41] we hoorden net van influencers, zelfregulering,

[1:11:43] allerlei regels die ook voor het platform gelden.

[1:11:47] We hoorden ook al de Europese initiatieven, zoals de Digital Services Act.

[1:11:52] Dus, nou ja, dat maakt dat er ontzettend veel is

[1:11:56] en daarmee ook al heel veel gecoverd is.

[1:11:58] Wat heel belangrijk is, is in de uitvoering en de executie

[1:12:01] dat iedereen heel goed samenwerkt,

[1:12:04] zodat we weten dat we effectief zijn, efficiënt,

[1:12:09] alles mooi, zo goed mogelijk op elkaar aansluit

[1:12:13] en we dingen niet dubbel doen zelf of dubbel laten doen.

[1:12:18] Dus heel belangrijk, denk ik, om samenwerking te faciliteren.

[1:12:23] Wat ik nog zou willen noemen, puur vanuit de media-wettelijk perspectief,

[1:12:27] zeg maar in het kader van wat er nodig is,

[1:12:29] ook een beetje aansluitend met wat in het vorige blokje werd gedeeld,

[1:12:32] met name ook door Bits of Freedom.

[1:12:37] Nou ja, is het, weet je, recente rapport van de Wetenschappelijke Raad

[1:12:40] voor het regeringsbeleid, aandacht voor de media, waarin ze eigenlijk zeggen de democratische functie

[1:12:47] van media en de betrouwbaarheid en de veiligheid daarvan zou eigenlijk in mediaregulering centraal

[1:12:56] moeten staan. En nu zie je dat de regels die gelden zeg maar voor publieke media, ben je publiek,

[1:13:03] Ben je privaat, heb je een andere set van regels?

[1:13:08] Is op die manier nog wel alles gecoverd?

[1:13:12] Zou je daar toch ook anders naar moeten kijken?

[1:13:15] Dus dat leek me in dit verband nog nuttig om te melden.

[1:13:19] Daar wou ik het bij laten.

[1:13:21] Ook u, heel hartelijk dank voor uw inbreng.

[1:13:24] En dan kijk ik naar de zijde van de Kamer.

[1:13:26] Mevrouw Van der Werff, D66.

[1:13:28] U mag twee vragen stellen.

[1:13:31] Voorzitter, heel veel dank.

[1:13:32] Dan ga ik mijn eerste twee vragen stellen aan de heer Van Os.

[1:13:37] Het ging in de vorige ronde al even over het belonen, of al dan niet belonen eigenlijk,

[1:13:43] van influencers die zich aan de regels houden en hoe je dat nou op een effectieve manier kan doen.

[1:13:49] Want dat is toch een beetje reguleren waarvan iedereen wel iets verwacht had,

[1:13:53] maar waarvan we dus tegelijkertijd terug horen het werkt averrechts.

[1:13:57] Hoe zou dat dan wel kunnen en op welke manier werkt het systeem nu tegen mensen

[1:14:01] die zich wel houden aan de regels.

[1:14:05] En een kleine sidestep als het toch over reguleren gaat.

[1:14:09] U gaf net ook aan, ik zie ook nog een ander probleem...

[1:14:12] en dat is eigenlijk de anonimiteit van accounts.

[1:14:15] En wat zouden daar nou, los van dat wetgeving en toezicht en handhaving...

[1:14:21] altijd lang duren en veel capaciteit kosten, daar horen wij vaker iets over.

[1:14:25] Maar hoe zou je daar nu eigenlijk al op wat meer laaghangend fruitschaal...

[1:14:30] in een kortere termijn stappen op kunnen zetten.

[1:14:33] Heeft u daar ideeën over?

[1:14:35] Het woord is aan de heer Van Oss.

[1:14:37] Dank u wel voor de vragen.

[1:14:40] Nou, hoe het tegen je werkt,

[1:14:42] dat is wat eigenlijk een praktijkvoorbeeld wat ik bedoel.

[1:14:45] We kijken met z'n allen het liefst naar tv-programma's

[1:14:47] in plaats van naar het reclameblok.

[1:14:49] Maar het reclameblok is wel datgene wat de tv-programma's betaalt.

[1:14:53] En dat merk je ook met het verspreiden van content.

[1:14:56] Of het nou aan de achterkant in een algoritme tegen wordt gehouden

[1:14:59] als de hashtag ad wordt gemaakt.

[1:15:01] De consument aan zich scrollt misschien minder snel,

[1:15:05] lijkt het bericht minder of dat soort dingen,

[1:15:07] terwijl het vaak wel kwalitatief goede content is

[1:15:09] en ook het verdienmodel van de influencer.

[1:15:14] En ja, hoe je dat tegen kan gaan?

[1:15:17] Ik kan me voorstellen dat als er een positie is

[1:15:19] waarbij de platformen zo afhankelijk zijn van influencers

[1:15:22] om gebruikers aan hun platform te koppelen,

[1:15:26] dat zij ook erkennen dat er een verdienmodel in is

[1:15:29] en dat je misschien in je algoritme gaat kijken van...

[1:15:31] oké, maar dit is een gesponsorde post, die is goed bevonden.

[1:15:34] Dus het is buiten even alle negatieve dingen, een voorbeeld die we hebben genoemd...

[1:15:38] maar gewoon commerciële content.

[1:15:41] Ja, die gaan we misschien wel beter beoordelen in het consument...

[1:15:45] of we nemen er aan een factor in mee dat het gesponsorde content is...

[1:15:48] die tussendoor vertoond moet worden.

[1:15:50] Dus daar zou algoritme technisch misschien naar gekeken moeten worden...

[1:15:54] want wellicht dat dat dan andere influencers ook motiveert...

[1:15:58] om transparanter te zijn, want dat is waar we allemaal bij gebaat zijn, denk ik.

[1:16:02] En uw tweede vraag, de anonimiteit.

[1:16:05] Nou ja, er werd net op rechts genoemd dat het vaak helpt

[1:16:07] om met bestaande concepten en zo te werken.

[1:16:10] Ik denk dat de verspreiding van misinformatie niet voor niks verspreiding heet.

[1:16:13] En dat komt omdat wij met z'n allen naar een bericht kijken, liken,

[1:16:18] daarover spreken, daarmee interacten.

[1:16:20] Dat is hoe die algoritmes werken.

[1:16:22] Dus aan de ene kant ligt de verantwoordelijkheid

[1:16:24] om niet van die desinformatie te maken, of die desinformatie niet te maken.

[1:16:29] Maar het ligt ook bij de gebruiker.

[1:16:31] Je moet je misschien meer verantwoordelijk voelen voor wat je deelt,

[1:16:34] wat je bespreekt, waar je je comment achterlaat en hoe je eraan bijdraagt.

[1:16:39] Want als ik hier nu, vandaag, een verhaal ga vertellen wat niet waar is,

[1:16:44] dan kunnen jullie met z'n allen mij daarop beoordelen.

[1:16:46] En ik denk dat die sociale controle online ook moet gebeuren.

[1:16:50] En dat betekent niet dat er profielen allemaal publiekelijk moeten zijn,

[1:16:53] want ik vind dat je anoniem nog steeds een profiel moet hebben,

[1:16:55] maar je moet wel verantwoordelijkheid voelen dat aan de achterkant

[1:16:58] je een identificatieplicht hebt, waarbij je hopelijk ook meer verantwoordelijkheid voelt

[1:17:03] voor de acties die je met het account uitvoert.

[1:17:05] GESPREKSLEIDER. Ik dank u voor uw beantwoording.

[1:17:11] Dan ga ik door naar de heer Sixtekstra, Nieuw Sociaal Contract.

[1:17:15] GESPREKSLEIDER. Dank voorzitter. Ik begin met één vraag en die is aan de heer Boersma.

[1:17:20] Erg interessant initiatief, Risk Factory, en dank ook voor uw toelichting.

[1:17:24] Dank overigens iedereen voor uw komst en uw toelichting.

[1:17:28] Interessant om hier zo het een en ander over te horen.

[1:17:30] U doet ook een pleidooi aan het einde om juist te kijken naar initiatieven die wetenschappelijk gestaafd zijn,

[1:17:40] die onderbouwd en bewezen zijn.

[1:17:42] En dat heeft natuurlijk ook met uw Risk Factory duidelijk als insteek.

[1:17:46] Mijn vraag is, het online landschap is best wel een aan verandering onderhevig landschap,

[1:17:52] waar veel gebeurt, veel nieuwe initiatieven snel opkomen,

[1:17:55] sneller dan wij ze ons zelf kunnen bevatten.

[1:17:58] Hoe combineert u die twee?

[1:17:59] Dan enerzijds wel zorgen dat alles gestaafd is in de wetenschap

[1:18:02] en duidelijk die kaders volgt

[1:18:04] en anderzijds ook kunnen inspelen op nieuwe ontwikkelingen.

[1:18:08] Het woord is aan de heer Boersma.

[1:18:10] Dank u wel. Wat we binnen de RIS-factory met name hebben gedaan,

[1:18:13] is wetenschappelijk onderbouwd hoe het concept RIS-factory in elkaar zit,

[1:18:17] hoe de scenario's die we aanbieden aan onze doelgroepen,

[1:18:20] door die op een goede manier vorm te geven en in te richten,

[1:18:22] hoe dat bijdraagt aan het handelingsperspectief

[1:18:24] dat de doelgroepen die bij ons op bezoek komen, krijgen.

[1:18:27] Dat hebben we dus op scenario niveau onderzocht

[1:18:29] en dat maakt dat als we de scenario op een bepaalde manier inrichten,

[1:18:32] onafhankelijk van welk onderwerp of thema,

[1:18:34] dat we er vertrouwen in hebben dat dat voor dat thema ook leidt

[1:18:37] tot verandering van gedrag.

[1:18:38] Als het gaat over de ontwikkelingen rondom misleidende influencers

[1:18:41] of alles wat er online gebeurt,

[1:18:43] hebben we als RISP Factory zelf niet die expertise.

[1:18:45] Daarom werken we juist samen met heel veel partijen die dat wel hebben.

[1:18:48] We werken bijvoorbeeld samen met een hack shield,

[1:18:50] Niet zo heel lang geleden hier ook bij een ronde tafelgespraak aangesloten.

[1:18:53] Maar ook het cybercrime-team van de politie in Limburg met het NCTV.

[1:18:57] Met ook de landelijke werkgroep.

[1:19:00] De departementale werkgroep desinformatie van de Rijksoverheid.

[1:19:03] Dat zijn organisaties met wie we samenwerken die onze inhoudelijke expertise kunnen aanleveren.

[1:19:06] Zodat wij de goede scenario's kunnen vormgeven binnen het kader.

[1:19:09] Zodat wij weten dat dat leidt tot verandering van gedrag.

[1:19:15] Heel hartelijk dank voor de beantwoording. De heer Siegs-Dijkstra.

[1:19:18] Dank voor de beantwoording. Ik heb geen vervolgvraag aan de heer Boersma.

[1:19:22] maar wel aan mevrouw Houthoff.

[1:19:26] Als toezichthouder, u doet een pleidooi van eigenlijk bepaalde wetgeving moet geactualiseerd worden,

[1:19:31] zeker als het gaat om het digitale tijdperk en hoe om te gaan met influencers.

[1:19:36] Misschien een meer algemene vraag, er is best wel veel Europese wetgeving ook hier benoemd,

[1:19:40] waar natuurlijk minder op landelijk niveau op gestuurd kan worden.

[1:19:44] Hoe kijkt u aan naar de harmonisatie tussen de verschillende wetgevingen,

[1:19:48] die uit Europa, daar waar we Nederland invloed op hebben

[1:19:50] En in welke mate kunnen we als Nederland een duidelijk verschil maken

[1:19:56] als het gaat om het goed reguleren en toezicht houden

[1:20:00] op online content, in uw optiek?

[1:20:04] Dat wordt eens aan mevrouw Houthoff.

[1:20:05] Ja, dank je wel.

[1:20:08] Nou, ik denk dat inderdaad heel veel regelgeving, wetgeving komt vanuit Europa.

[1:20:14] Dus dat geldt, denk ik, voor alle toezichthouders die hier aan tafel zitten.

[1:20:20] Ik weet van alle toezichthouders zijn we in Europees verband ook goed georganiseerd,

[1:20:26] doordat we samenwerkingen hebben met de toezichthouders in de andere landen.

[1:20:30] Op die manier proberen we ook een bijdrage te leveren aan de totstandkoming van wetgeving al daar.

[1:20:36] Dat geldt natuurlijk ook vanuit de ministeries wordt dat gedaan.

[1:20:41] Dus dat is één.

[1:20:44] Twee hebben wij, wat net ook al even werd genoemd,

[1:20:47] in nationaal verband het Samenwerkingsverband Digitale Toezichthouders,

[1:20:51] waarbij we proberen dat definities in verschillende wetten

[1:20:58] zoveel mogelijk overeenkomen,

[1:21:01] zodat daar niet ook nog allemaal onnodige ruis ontstaat.

[1:21:05] Dus ik denk op die manier aan de voorkant,

[1:21:08] bij de totstandkoming van wetgeving,

[1:21:11] vroegtijdig, weet je wel, wijzen op het belang van, nou ja, enige consistentie en dat een en ander goed

[1:21:17] op elkaar aansluit en vervolgens elkaar goed weten te vinden, ja. Heel hartelijk dank voor uw

[1:21:28] beantwoording. En dan is de volgende spreker aan de zijde van de Kamer, mevrouw Dral, VVD. Dank je wel,

[1:21:34] voorzitter. Ja, ik had een vraag aan meneer Bouhoff, met al uw praktijkervaring. Kunt u een

[1:21:42] vanuit de praktijk waarvan u zegt, nou dit is zo mooi, dit heeft een enorme toegevoegde waarde voor onze samenleving.

[1:21:49] En twee, kunt u ook iets aangeven waarvan u denkt, nou hier maak ik me al zorgen over of dit loopt nog niet goed,

[1:21:55] of hier loop ik zelf tegen aan en heeft u daar ook een beeld van hoe dat opgelost kan worden.

[1:22:01] Het woord is aan de heer Bouhoff.

[1:22:03] Bedankt. Mooie voorbeelden zijn natuurlijk initiatieven die zoals bijvoorbeeld de certificering dat echt 1900 influencers daadwerkelijk

[1:22:10] de noodzaak voelde om zich aan te melden en dingen als regelgeving of in ieder geval dingen als betaalde

[1:22:17] samenwerkingen aan te geven. Maar wat ik ook een heel mooi initiatief vind is ook om Nicky Tutorials

[1:22:23] even aan te haken. Die heeft al voordat dit überhaupt een hot topic was, had zij haar eigen

[1:22:30] publiek een soort van getraind of opgeleid om bepaalde dingen te herkennen. Zo heeft zij een

[1:22:35] soort van legenda aan het begin van elke video waarin ze zegt van als je dit icoon ziet dan

[1:22:39] weet je dat mijn mening bijvoorbeeld is beïnvloed door een betaalbare samenwerking.

[1:22:43] Of als je dit icoon ziet, weet je dat ik het heb gekregen in een perspakket.

[1:22:46] Of als je dit icoon ziet, heb ik het zelf gekocht.

[1:22:48] Dat vond ik echt een waanzinnig voorbeeld.

[1:22:49] En dat betekent dus dat influencers zelf wel initiatieven nemen om hun publiek te trainen.

[1:22:55] En ik denk dat daar ook de kern en de conclusie zit, is we moeten ervoor zorgen dat de consumenten,

[1:23:02] de kijkers weten wanneer iets misleidend is of wanneer iets wat wordt verkocht.

[1:23:10] En dat deel wordt al heel goed gedaan.

[1:23:12] Dat hebben we dus met al deze mensen aan tafel.

[1:23:14] We hebben daar echt wel goed voor gezorgd met zelfregulering.

[1:23:17] Hashtag ad. Dat werkt allemaal prima.

[1:23:20] Tuurlijk, daar zitten ook nog wel momentjes dat je denkt van.

[1:23:23] Sommige influencers hebben een ad te laag staan en krijgen daar een boete voor.

[1:23:26] Vind ik persoonlijk een beetje zonde van de tijd.

[1:23:29] Maar goed, ik denk dat waar het vooral op moet gaan is inderdaad dus de misleiding

[1:23:34] en het moment wanneer iets niet wordt betaald,

[1:23:38] dus een verkeerde mening die een influencer wellicht heeft,

[1:23:43] dat die gewoon zomaar klakkeloos op internet gezet wordt

[1:23:45] en dat mensen dat als de waarheid zien.

[1:23:48] En ik denk, om dat op te lossen,

[1:23:51] moeten we gewoon maatschappelijk kijken naar een soort van bewustwording,

[1:23:55] Zowel bij influencers, maar ook bij kijkers, maar ook bij ouders van kinderen bijvoorbeeld.

[1:24:00] Die moeten gewoon weten wanneer iets...

[1:24:03] Of die moeten gewoon met een soort van extra goed nadenken.

[1:24:06] Als je online zit, kan iets gewoon niet de waarheid zijn.

[1:24:11] Wees gewoon wat meer...

[1:24:15] Denk wat logischer na over dat soort dingen.

[1:24:16] En ik denk dat dat heel goed kan.

[1:24:19] Door middel van een landelijke campagne.

[1:24:23] Misschien met het dienst publieke communicatie,

[1:24:26] die bijvoorbeeld, weet je wel, Bob of W.C. Gerund,

[1:24:29] als je met vuurwerkstunt, dat soort slogans,

[1:24:32] de maatschappij kent dat.

[1:24:34] Dat doet een belletje rinkelen.

[1:24:35] Dus ik denk als wij met z'n allen iets verzinnen,

[1:24:38] en dat zowel de gebruikelijke media, zoals televisie en billboards,

[1:24:42] maar ook de influencers gaan beamen en gaan communiceren,

[1:24:46] dat we daar gewoon wel stappen mee kunnen zetten.

[1:24:47] En dat we vooral de maatschappij een beetje kunnen leren

[1:24:50] dat er ook heel veel bad actors zijn en dat je daar gewoon waakzaam voor moet zijn.

[1:24:58] Heel hartelijk dank voor de beantwoording.

[1:25:00] Dat waren twee vragen van mevrouw Drouw.

[1:25:01] Dan ben ik zelf ook nog aan de beurt.

[1:25:02] Ik heb ook meerdere vragen bij meerdere partijen.

[1:25:06] Dus ik zal me beperken tot twee vragen, zoals ik dat ook van anderen heb verlangd.

[1:25:11] En dan is mijn eerste vraag voor de heer Bouhoff en de heer Van Oss.

[1:25:15] Met betrekking tot...

[1:25:17] Het is belangrijk om onderscheid te maken tussen content creators

[1:25:19] die entertainende video's willen maken

[1:25:21] Ik doe bewuste bad actors, maar ook nog met bewustwording van het publiek en dergelijke.

[1:25:25] Maar zou het daarin geen optie zijn om daarin te werken

[1:25:30] met een branche, vereniging of organisatie?

[1:25:33] Hoe zou u dat zien?

[1:25:37] Ja, zou kunnen, als dat werkt.

[1:25:40] Ik denk dat vooral wat we al eerder met elkaar besloten,

[1:25:44] dat de online wereld wel heel snel opereert.

[1:25:47] Dus kijk, wij staan onder het toezicht van de media,

[1:25:51] Ja, omdat Nicky een x-aantal volgers heeft.

[1:25:54] Maar de invloed van een influencer kan heel snel stijgen.

[1:25:57] En dat kan ook heel snel gebeuren.

[1:25:59] En dan weet hij zich, zeg maar, misschien niet de weg te vinden naar een brancheorganisatie ofzo.

[1:26:03] Dat klinkt wel als een langer traject.

[1:26:05] Het zou kunnen.

[1:26:06] Maar ik denk dat we vooral in het snelle veranderende internetlandschap op andere manieren bewustwording kunnen creëren.

[1:26:13] Naar aanvulling van de heer Bouhoff.

[1:26:16] Nou, ik vind wel dat iets van een branchevereniging voor influencers een heel mooi doel is.

[1:26:19] En ik denk dat de tool die we hebben gelanceerd met de DDMA,

[1:26:26] waar ik onder andere ook lid van ben in Commissie Influencer Marketing,

[1:26:28] maar ook de mensen hier aan tafel, dat dat een mooi begin is.

[1:26:31] We hebben 1900 influencers weten te motiveren,

[1:26:34] al dan niet door adverteerders, maar ook gewoon door misschien een moreel standpunt,

[1:26:38] om zich daarvoor aan te melden.

[1:26:39] En ik denk dat we dat misschien in de toekomst kunnen transformeren naar een plek

[1:26:45] om ook influencers misschien kennis te geven over bepaalde zaken.

[1:26:51] En dan misschien wel niet morele zaken, maar ook gewoon maatschappelijke zaken.

[1:26:56] En ik denk dat het een goede zet is om daar een beetje over na te gaan denken met z'n allen.

[1:27:01] En misschien stappen te zetten, wellicht.

[1:27:04] Heel hartelijk dank voor de beantwoording.

[1:27:06] Mijn tweede vraag is voor de heer Poersma van Risk Factory.

[1:27:10] Het is heel mooi hoe de kinderen allemaal vanaf groep acht...

[1:27:14] en dan laterna nog eens een keer als ze in de tweede klas zitten

[1:27:16] van het voortgezet onderwijs, hoe ze daar bewust worden gemaakt.

[1:27:18] Maar u geeft ook de mogelijkheid aan senioren,

[1:27:24] ook op het gebied van influencers.

[1:27:30] Hoe pakt dat uit binnen de organisatie?

[1:27:34] Uitwoordes aan de heer Boersma.

[1:27:35] Dank u wel voor de vraag.

[1:27:36] We hebben inderdaad ook bij de Respectreden Doelgroep

[1:27:39] senioren die we ontvangen, ook daar hebben we meerdere scenario's

[1:27:41] over het gied van gezondheid en veiligheid.

[1:27:43] Wat we daar met name hebben gedaan, is met het cybercrime-team van de politie

[1:27:48] een scenario ontwikkeld over internetveiligheid,

[1:27:51] waar we aandacht besteden aan de vijf meest voorkomende fraudezaken

[1:27:54] waar senioren mee te maken krijgen.

[1:27:56] Dus dat is met name de focus op het stukje internetveiligheid bij die doelgroep.

[1:28:00] Dus dat is wat we voor die doelgroep in petto hebben, ja.

[1:28:05] Heel hartelijk dank voor de beantwoording.

[1:28:07] En dan is de tweede ronde, mevrouw Van der Werff, D66.

[1:28:12] Ja, voorzitter. Veel dank. Ook veel dank voor de gasten voor de interessante antwoorden.

[1:28:17] Ik zou een korte vervolgvraag willen stellen aan de heer Bouwel.

[1:28:20] Want u gaf ook in uw paper al aan van eigenlijk moet je in gesprek blijven met de doelgroep...

[1:28:26] om zo ook als politiek bij te blijven van wat gebeurt er nu en wat zou je allemaal kunnen doen.

[1:28:30] Maar er is natuurlijk niet een soort van vakbond voor content creators.

[1:28:34] Dus hoe zouden we dat kunnen inrichten?

[1:28:36] Want ik denk dat het heel nuttig is dat we elkaar vanmiddag ontmoeten.

[1:28:39] maar dat verdwijnt dan ook weer in de loop van de tijd

[1:28:43] en dan spelen ze weer allemaal nieuwe dingen.

[1:28:44] Dus daar ben ik benieuwd naar.

[1:28:46] Ik had een hele andere vraag aan de heer Boerboom van de AFM.

[1:28:50] U gaf aan, er is niet echt noodzaak om ons takenpakket

[1:28:55] of de wettenverregelgeving uit te breiden.

[1:28:58] En u zei ook in uw introductie iets interessants,

[1:29:00] wat ik ook aan de paper terug zag komen, dat risicogestuurd toezicht.

[1:29:05] Komt dat nou voort uit een gebrek aan capaciteit

[1:29:08] of is dat gewoon een manier van efficiënt omgaan met je taak?

[1:29:13] Want de reden dat ik deze vraag stel, is...

[1:29:15] Ik kan me voorstellen dat er misschien nu geen reden is om te zeggen...

[1:29:19] dat zou je niet moeten uitbreiden of dat werkt op deze manier voldoende.

[1:29:22] Maar het zou zomaar kunnen zijn dat er straks een hele markt opent...

[1:29:27] met piramideachtige constructies of crypto-dingen...

[1:29:31] waarvan je denkt, jeetje, dit moeten we niet willen.

[1:29:33] Dus in dat licht ben ik benieuwd hoe u dat ziet en of de huidige situatie ook voor de toekomst afdoende kan zijn.

[1:29:44] Eerst het woord aan de heer Bouhoff voor de vraag aan hem gericht.

[1:29:49] Ja, hoe bereiken we influencers is eigenlijk wat je vraagt.

[1:29:52] Want vakbond is inderdaad een mooi doel, ik zei het net al.

[1:29:55] We gaan kijken naar bijvoorbeeld dingen die er al zijn en hoe kunnen we dat uitbreiden.

[1:30:00] Maar ik vind het ook belangrijk dat influencers...

[1:30:02] Daar moet een soort noodzaak zijn voor influencers...

[1:30:04] om een soort van wakker geschud te worden.

[1:30:06] Ik zeg weleens, influencers kijken omhoog.

[1:30:08] Wat ik daarmee bedoel is...

[1:30:11] Als ik een mail krijg van Heineken...

[1:30:13] met een hele grote zak geld...

[1:30:15] om reclame te maken voor een alcoholisch drankje...

[1:30:17] dan kijk ik omhoog.

[1:30:18] Dan kijk ik naar de televisie en de media...

[1:30:22] en dan zie ik reclameborden...

[1:30:23] en dan zie ik de Formule 1 en de voetbal...

[1:30:25] waar allemaal billboards staan voor Heineken...

[1:30:27] waarvan ik weet dat ook heel veel kinderen naar kijken.

[1:30:29] En dan denk ik van, oh, dan mag ik ook wel Heineken promoten.

[1:30:32] Om maar een voorbeeld te noemen.

[1:30:33] Dus ik denk dat als wij...

[1:30:35] Dat is bijvoorbeeld een mooie stap om te kijken van, oké, laten we het maatschappelijk aanpakken.

[1:30:39] Dingen als bijvoorbeeld sigaretten en vapes.

[1:30:41] Daarvan is heel duidelijk dat het maatschappelijk gewoon niet goed voor je is.

[1:30:45] En daar hebben we heel veel mooie promoties en campagnes voor gemaakt over de afgelopen jaren als land.

[1:30:51] En je ziet ook veel minder influencers.

[1:30:53] Bijvoorbeeld een sigarettenmerk promoten, nou bijna geen één eigenlijk.

[1:30:56] Dus ik denk, als je echt iets wilt verbieden, dan is dat een mooie set.

[1:31:00] En tegelijkertijd, wat ik al eerder gaf met bijvoorbeeld een dienstpublieke communicatieactie,

[1:31:06] als er gewoon geld is, als er budget is voor influencers om bij elkaar te komen

[1:31:10] en om een bepaalde bericht naar de buitenwereld te brengen,

[1:31:14] dan zijn ze ook sneller geneigd om daaraan mee te werken.

[1:31:17] Al bij al, influencers zijn gewoon vooral heel veel bezig met content maken

[1:31:21] en die voelen pas noodzaak voor dingen als het daadwerkelijk...

[1:31:26] ja, als het daadwerkelijk een soort risico is.

[1:31:28] Dus bang maken van influencers, ja, dat heeft effect,

[1:31:32] maar ik ben er nooit de grote voorstander van.

[1:31:33] Ik heb liever dat... inderdaad, laten we ze samenbrengen op een manier

[1:31:37] en gewoon dingen overleggen en vooral blijven praten met elkaar.

[1:31:43] Heel hartelijk dank voor uw beantwoording.

[1:31:44] Dan gaan we het woord geven aan de heer Boerboom.

[1:31:49] Ja, dank. Twee vragen.

[1:31:51] Is wetgeving voldoende en hoe zit dat risico-gebaseerde toezicht in elkaar?

[1:31:58] Qua wetgeving, wat duidelijk is aan de partijen hier aan tafel,

[1:32:02] dat er veel verschillende gebieden zijn

[1:32:05] waar verschillende toezichthouders actief op zijn, met regelgeving.

[1:32:10] En de kern is datgene wat finfluencers doen,

[1:32:16] is misschien, als je daar een paar maanden naar kijkt,

[1:32:18] niet anders dan wat bijvoorbeeld vroeger op de tennisbaan gebeurde.

[1:32:21] Alleen, het zit er nu in een online omgeving.

[1:32:24] Dus van daaruit is onze wetgeving, vinden wij, voldoende...

[1:32:28] ...om, zeg maar, het verkeerde advies te voorkomen...

[1:32:31] ...of de geldelijke beloningen te voorkomen of misleidingen aan te pakken.

[1:32:37] Er komt nieuwe wetgeving aan, met name MIKAR.

[1:32:41] Nou, dat gaat... Daar zijn we redelijk vocaal geweest als AFM.

[1:32:44] Dat gaat zeker een stap voorwaarts zijn...

[1:32:46] ...maar dat gaat er zeker niet alle risico's weghalen.

[1:32:49] Maar als je het bijvoorbeeld hebt over marktmanipulatie,

[1:32:52] over het geven van advies of het verstrekken van onjuiste informatie,

[1:32:57] dat wordt afgedekt door die nieuwe Europese wetgeving.

[1:33:01] Het pakket retailbeleggen is wellicht nog goed om te noemen,

[1:33:05] retail investment strategy.

[1:33:07] Daarin wordt wel specifiek op finfluencing.

[1:33:10] Dus je ziet algemene wetgeving die gewoon van toepassing kan zijn

[1:33:13] op de finfluencergegeven activiteit.

[1:33:16] En je ziet dus nu ook dat in bepaalde wetgeving

[1:33:18] heel specifiek naar finfluencing wordt gekeken.

[1:33:21] Daarin wordt, als het goed bijvoorbeeld geregeld,

[1:33:24] dat een onderneming die samenwerkt met een finfluencer

[1:33:27] ook zorgt dat de reclameuitingen correct zijn

[1:33:30] en ook een bepaald beleid opstelt over de samenwerking met zo'n finfluencer.

[1:33:36] Nou, dat zijn allemaal nieuwe wetgevingen die zich nog moeten gaan bewijzen.

[1:33:42] En wij zijn daar dus ook...

[1:33:43] Als we daarnaar kijken, denken we van, nou, volgens mij is dat een relatief stevig pakket.

[1:33:47] Er zijn nog wel wat details, waarin we bijvoorbeeld heel specifiek wetgevingswensen...

[1:33:54] ...dat is iets wat wij jaarlijks doen richting het ministerie van Financiën...

[1:33:57] ...heel specifiek merken wij in de praktijk dat...

[1:34:01] ...want misschien het goede beeld is, wij kijken natuurlijk ook heel specifiek daar waar het misgaat.

[1:34:06] En ik probeer heel nadruk te maken dat er ook heel erg veel goed gaat.

[1:34:09] Maar daar waar het misgaat, merken wij dat wij geholpen zijn...

[1:34:14] als gewoon heel duidelijk in de wet gezegd wordt,

[1:34:16] als je als influencer zaken doet met een illegale partij

[1:34:19] die je gewoon zo op ons website kan vinden, dan is dat gewoon fout.

[1:34:22] Wij merken nu in dossiers dat het best lastig is,

[1:34:26] omdat het heel erg casuspecifiek is.

[1:34:28] Dus qua wetgeving, we hebben een goede basis.

[1:34:32] Er komen specifieke wetgevingen aan die we ook nog gewoon moeten,

[1:34:35] zeg maar, moeten gaan realiseren, waar we de markt in moeten meenemen.

[1:34:39] Europees is altijd een, zeg maar, uiteindelijk een soort van mix van...

[1:34:44] En als Nederland moet je die wetgeving ook uitvoeren,

[1:34:47] ook al zou je dat wellicht wat strenger willen of nog wat extras willen.

[1:34:51] Risicoperatieve toezicht, ja, dat is een...

[1:34:55] Jammer dat ik geen uren heb, maar...

[1:34:58] Nee, dat is een hele goede vraag.

[1:35:01] Bijvoorbeeld voor het MICA-toezicht.

[1:35:03] Daar hebben we heel nadrukkelijk aan financiën gevraagd.

[1:35:07] Dit is een dermate nieuwe taak met dermate nieuwe risico's.

[1:35:11] Daar zouden wij graag extra budget voor willen hebben.

[1:35:14] Dat hebben we gekregen.

[1:35:17] Maar als ik 200 man meer heb om beleggingsfraude aan te pakken,

[1:35:22] ja, dan ga je waarschijnlijk ook zaken die misschien net iets minder belangrijk aanpakken.

[1:35:28] Dus risicopaseerd is voor ons feitelijk de manier

[1:35:31] om zo effectief mogelijk met onze mensen om te gaan.

[1:35:35] Dat is eigenlijk de kern.

[1:35:38] En uiteraard zijn budgetten beperkt.

[1:35:41] dus als dat een voldoende antwoord is.

[1:35:48] Heel hartelijk dank voor uw beantwoording.

[1:35:50] Dan is de beurt aan de heer Ziks-Dijkstra, nieuwssociaalkontract.

[1:35:54] Dank, voorzitter. Ik heb eigenlijk geen verdere vragen meer. Dank u allemaal.

[1:35:58] Dat was een korte ronde. Mevrouw Drol, VVD.

[1:36:02] Dank u wel, voorzitter.

[1:36:04] Ja, aan meneer Boerboom wil ik eigenlijk ook nog even vragen

[1:36:08] in opvervolg van mevrouw Van der Werf.

[1:36:11] Er is wetgeving en aantocht, maar er staat hier ook

[1:36:16] Maar het is zaken daarop tijdig in te spelen, zodat er in de tussentijd geen grote brokken

[1:36:21] worden gemaakt.

[1:36:23] Wat is het risico als het gaat over die grote brokken?

[1:36:29] U zegt ook iets over tijdig inspelen.

[1:36:31] Hoe kijkt u daarnaar?

[1:36:34] Het woord is aan de heer Boerboom.

[1:36:41] Hoe we daarnaar kijken, is dat op het moment dat wij een nieuwe taak op ons af zien komen

[1:36:44] op basis van een nieuwe wetgeving, dan richten wij daar vaak een speciaal project voor in.

[1:36:50] En soms is die wetgeving pas effectief twee jaar later.

[1:36:56] Maar dan hebben wij al wel een aardig beeld, ook in overleg met marktpartijen, met de sector,

[1:37:01] van waar zitten nu de gaten.

[1:37:03] Want, dat probeer ik aan het uitleggen, de realiteit van de Europese wetgeving is gewoon

[1:37:06] dat er vanuit een bepaald perspectief niet alles geregeld is.

[1:37:09] Het is uiteindelijk een gemiddelde.

[1:37:13] Bijvoorbeeld het cross-border-aspect, als we het hebben over influencers en de foute partijen.

[1:37:18] Zolang die in Europa zitten, dan kan je die als het ware nog benaderen

[1:37:22] door naar het specifieke land te gaan.

[1:37:24] Maar het is natuurlijk derma de fluïde dat als je het goed inricht als malefiedenpartij,

[1:37:29] dan ga je natuurlijk buiten Europa zitten,

[1:37:31] maar je gaat toch die Nederlandse consument benaderen.

[1:37:33] Nou, dat zijn dus allemaal brokken die wij dus in realiteit gewoon niet kunnen fixen.

[1:37:39] Maar dat wil niet zeggen dat we er niet iets aan doen.

[1:37:41] Dus dat kan zijn dat we daar een positions paper voor innemen,

[1:37:43] dat we met de sector praten van hoe kunnen we dat doen,

[1:37:45] dat we vooruitlopend op de wet gaan nadenken van kunnen we al bepaalde normen uitleggen.

[1:37:51] Dus op die manier proberen we eigenlijk al vast de markt

[1:37:55] en ook onszelf voor te bereiden op dan de data waarop zo'n wetgeving ingaat.

[1:38:03] Heel erg bedankt voor uw beantwoording. Mevrouw Dral, tweede vraag nog.

[1:38:08] Ik heb zelf wel nog een vraag aan de autoriteiten, de toezichthouders,

[1:38:13] met betrekking tot het opleggen van boetes.

[1:38:15] Dus er zijn in veel gevallen wordt daarvan afgeweken

[1:38:21] in de zin van het wordt kwijtgescholden, er vindt geen inning plaats

[1:38:24] of wordt er wel actief gehandhaafd en ook daadwerkelijk overgegaan

[1:38:28] tot inning van de boetes.

[1:38:30] En dan kijk ik even wie ik daar het eerste het woord van mag geven

[1:38:33] of dat autoriteit, consument en markt is, of dat dat de heer Boerboom van AFM is.

[1:38:40] Ik geef het woord aan de heer Kuipers.

[1:38:42] Dank u wel, voorzitter.

[1:38:44] Zoals ik eerder heb gezegd, hebben wij in één geval een last onder dwangsom opgelegd aan een influencer.

[1:38:51] Dat was een influencer die zich bediende van neplijks en netvolgers.

[1:38:55] Dat was dus geen boete.

[1:38:57] Last onder dwangsom wordt alleen geïnd wanneer er niet aan de last wordt voldaan.

[1:39:01] Dus wanneer de ondernemer niet doet wat er van hem of haar gevraagd wordt.

[1:39:06] En in dit geval herinner ik mij, maar dat doet er eigenlijk niet zoveel toe, dat dat ten dele geïnd is.

[1:39:11] Dus dat er een bepaald bedrag geïnt is, omdat niet aan de last voldaan werd voor een bepaalde tijd.

[1:39:18] En vanaf het moment dat er wel aan die last voldaan werd, is die in stopgezet.

[1:39:22] Dat is wat ik daarover kan zeggen. Misschien nog een kleine toevoeging.

[1:39:28] Als toezichthouder is het niet ons doel om boetes op te leggen.

[1:39:31] Het is ons doel om problemen op te lossen in de markt.

[1:39:35] En dat doen wij op heel veel verschillende manieren.

[1:39:37] En meestal is de eerste wijze waarop we optreden is contact zoeken met een partij

[1:39:41] en zeggen, goh, het valt ons op dat hier iets niet goed gaat.

[1:39:44] Zou dat anders kunnen?

[1:39:47] En pas als blijkt dat een ondernemer dat niet wil,

[1:39:51] treden wij op andere manieren op.

[1:39:53] Belangrijk om dat nog even te benadrukken.

[1:39:56] Heel hartelijk dank voor uw antwoord.

[1:39:58] Mag de microfoon weer uitzetten?

[1:40:00] En dan kijk ik naar de heer Poelboom of hij daar nog een aanvulling op heeft.

[1:40:03] Ja, zeker. Sinds het fenomeen van influencers opkwam, zijn wij redelijk aan de tand gevoeld van

[1:40:10] doe nou eens wat en we zien niks. Op het moment dat wij dus een aantal zaken tegenkomen die dus

[1:40:18] gewoon echt niet kloppen, dan is het wel zo dat wij daar onderzoek naar doen. Dat duurt enige tijd.

[1:40:26] Zoals ik al aangaf in mijn begin, we hebben nu een drietal boetes opgelegd en gepubliceerd. Wij

[1:40:33] Wij kunnen alleen maar praten over datgene wat gepubliceerd is.

[1:40:36] Er is dus inmiddels meer opgelegd dan gepubliceerd.

[1:40:39] En om een voorbeeld te geven, er zijn nu een drietal boetes.

[1:40:42] Eén van die boetes is een bedrag van meer dan een half miljoen.

[1:40:46] En dat is ongeveer precies de provisie, ongeveer tien procent,

[1:40:51] die de betreffende finfluencer van het ingelegde pensioen- en spaargeld

[1:40:54] van consumenten in een periode van twee jaar, zeg maar, als verdienmodel had.

[1:41:01] Dus in dat soort zaken pakken we door.

[1:41:03] maar ook terecht wat de ACM zegt, het is niet het doel in het leven om boetes op te leggen.

[1:41:09] Wat wij proberen is echt de slechte praktijk aan te pakken en op het moment dat je het publiceert

[1:41:15] kan er natuurlijk een hefboom zijn. Dan kun je op zich moeten daar die besluiten moeten publiceren,

[1:41:21] dus dan kan de sector lezen van wat is nou specifiek het gedrag wat die toezichthouder zo ernstig vindt.

[1:41:27] Ja, dat kan dus flink oplopen.

[1:41:33] Heel hartelijk dank voor uw beantwoording.

[1:41:34] Dan heb ik geen tweede vraag. Kijk nog even naar mevrouw Van der Werf, D66.

[1:41:40] Voorzitter, dank.

[1:41:41] Waar ik nog wel benieuwd naar ben, is of de huidige wet en regelgeving

[1:41:45] voldoende handvaten biedt om ook adequaat in te kunnen grijpen.

[1:41:49] En ik zou die vraag wel willen stellen aan de heer Van der Harst

[1:41:53] van de Reclame-Codecommissie, of die influencerregels,

[1:41:57] wat natuurlijk ook deels op jullie initiatief is, of dat nou voldoende is

[1:42:02] En of je ook aan een vervolgstap zou moeten denken.

[1:42:06] Zou er een keurmerk moeten komen of niet, of is dat helemaal niet nodig?

[1:42:10] Hoe pak je kwaadwillende influencers dan aan?

[1:42:13] We horen net een paar mooie voorbeelden, maar als jullie nou even iets hoger dat bekijken,

[1:42:19] heb je dan het hele veld te pakken of niet?

[1:42:21] Nou, daar ben ik benieuwd naar.

[1:42:23] En meer specifiek, een vraag aan de heer Kuipers van de ACM.

[1:42:27] Biedt die EU-richtlijn oneerlijke handelspraktijken nou voldoende handvaten voor de handhaving op die influencer-marketing?

[1:42:35] En is bijvoorbeeld dat certificeringssysteem van de Stichting Reclame Code voldoende waterdicht?

[1:42:42] Dus daar ben ik wel benieuwd naar.

[1:42:44] En als er nog een andere gast is die zegt, hier wil ik heel graag iets over vinden of meedelen aan de Tweede Kamer,

[1:42:51] dan hoop ik dat de gevier daar de ruimte voor biedt.

[1:42:55] Dank voor de vraag. Dan is het eerste woord aan de heer Van der Harst.

[1:42:58] Dat was de eerste vraag ook aangericht.

[1:43:00] Ja, dank u wel, meneer voorzitter.

[1:43:04] Ja, er zijn natuurlijk altijd bad actors.

[1:43:07] Dat is niet anders dan in de gewone samenleving of wat je in de kroeg hoort.

[1:43:12] Er zijn mensen die rare dingen willen.

[1:43:14] En die houd je niet tegen met een extra reclamecode of een vernieuwde reclamecode.

[1:43:19] Wat we wel doen met dat register van die gecertificeerde influencers

[1:43:24] en dat hele certificeren, dus even voor de duidelijkheid,

[1:43:27] men doet een e-learning waarin men geconfronteerd wordt met de regels,

[1:43:31] krijgt daar vragen over, doet een examen, wordt opgenomen in een register.

[1:43:35] Nou, dat werkt voor die 1900 influencers

[1:43:38] die zich nu al hebben geregistreerd en hebben meegedaan aan die cursus.

[1:43:41] Er zijn overigens meer dan 3600 die zich hebben aangemeld,

[1:43:44] dus daar krijgen we nog een hele batch van mensen die dat examen gaan doen.

[1:43:48] Het is ook niet heel makkelijk, examen zelf van de toegeven,

[1:43:50] maar je moet echt wel even meestuderen.

[1:43:52] Dus dat is een fors aantal, en daar zijn we heel trots op.

[1:43:56] Maar we hebben eigenlijk geen idee hoe groot de populatie van het aantal influencers in

[1:43:59] Nederland is.

[1:44:00] Er is wel een getal van 67.000 genoemd, maar niemand weet precies of dat klopt of waar

[1:44:06] dat vandaan komt.

[1:44:07] Dat is opeens ergens vandaan gekomen en genoemd.

[1:44:11] Dus er zijn er dan nog een heleboel te gaan.

[1:44:14] Elke dag staan er nieuwe influencers op, ook kinderen uit MAVO4 beginnen gezellig te praten

[1:44:19] op het internet en moeten dan zich kunnen certificeren.

[1:44:23] Dus dat stelt ook eisen aan zo'n certificeringsprogramma.

[1:44:27] We hebben de finfluencers die hele specifieke wet- en regelgeving kennen.

[1:44:32] Er is nu met de DDMA, de moeder van dit initiatief,

[1:44:37] samen met de Stichting Reclamecode en de Bond van Advarteerders,

[1:44:40] wordt er nagedacht over modules.

[1:44:42] Dus we willen een finfluencer-module achter die eerste cursus gaan doen.

[1:44:46] We willen iets doen op het gebied van volksgezondheidsclaims,

[1:44:48] Medische claims, dat is met name ook een heel erg theer onderwerp.

[1:44:52] En er is ook de gedachte om modules te gaan ontwikkelen voor agenten.

[1:44:57] Je hebt natuurlijk heel veel bureautjes

[1:44:58] die verschillende influencers in hun portefeuille houden

[1:45:02] en die willen zich ook graag laten zien als professionele partijen.

[1:45:05] Dus je ziet dat we hebben door dit succes heel veel anklang gekregen

[1:45:09] van mensen die zeggen, jongens, laten we die markt verder professionaliseren

[1:45:12] en laten we dat samen doen op deze manier.

[1:45:14] Maar ik ben ook heel blij met het feit dat de Commissariaat van de Media

[1:45:16] ook een module in de e-learning verzorgt.

[1:45:19] Dus de overheid praat in die zin mee

[1:45:21] met dat initiatief van het Nederlandse Adverteer- en Bedrijfsleven.

[1:45:25] Met de ACM hebben wij goede contacten en met de AFM praten we ook af en toe.

[1:45:30] Zo kom je met elkaar tot iets beters en iets groters.

[1:45:34] En dat kost de belastingbetaler in principe niets.

[1:45:36] Daar zijn we heel trots op.

[1:45:37] Dat doen we gewoon allemaal op kosten van het bedrijfsleven.

[1:45:41] Blijft het feit dat er natuurlijk altijd rotte appels zitten

[1:45:45] in die hele mantvet met influencers en ja, en wat doe je daaraan en hoe reguleer je dat beter?

[1:45:51] Daar heb ik niet meteen het antwoord op, maar het is wel zo dat de disciplinerende werking van het

[1:45:56] feit dat zo'n markt professionaliseert, wel heel veel mensen omhoog laat kijken, van goh,

[1:46:01] ik wil daar eigenlijk bij horen, ik wil bij die gecertificeerden horen, ik wil ook zaken doen

[1:46:05] met Heineken, Albert Heijn, Vodafone, de grote merken die zeggen wij doen alleen nog maar zaken

[1:46:11] met gecertificeerden. Dus die dynamiek, die verdient support en ja, die hebben we nu in gang

[1:46:17] gezet sinds april van dit jaar. Dus het is allemaal nog heel jong en fris, maar wij hopen echt dat dat

[1:46:23] een vlucht gaat nemen. Heel erg bedankt voor de beantwoording. Mag ik de microfoon weer uitzetten?

[1:46:30] Dan was de tweede vraag gericht aan de heer Kuipers. Ja, dankuwel voorzitter. Ja mevrouw

[1:46:38] Van der Werff, ik denk dat de regelgeving waarin u refereert, de oneerlijke handelspraktijken,

[1:46:44] is een heel mooi stuk regelgeving en overigens is het heel goed om te zeggen

[1:46:47] dat niet alleen wij daarvoor bevoegd zijn, maar ook andere toezichthouders hier aan tafel

[1:46:51] en ook toezichthouders die hier niet aan tafel zitten.

[1:46:55] Waarom is die regelgeving zo mooi?

[1:46:57] Omdat die enerzijds een aantal open normen bevat die toezichthouders kunnen toepassen

[1:47:01] op casussen die nog niet eerder langs zijn gekomen en daarmee is die regelgeving ook flexibel.

[1:47:08] Anderzijds biedt die regelgeving ook een aantal hele expliciete verboden

[1:47:12] over wat wel of vooral wat niet mag, de zogenaamde zwarte lijstbepalingen.

[1:47:17] En wat ik even wil noemen, is dat op dit moment, vorige maand,

[1:47:22] heeft de Europese Commissie een rapport uitgebracht,

[1:47:24] daar werd al even aan gerefereerd,

[1:47:26] de zogenaamde EU Fitness Check on Digital Fairness.

[1:47:30] En dat rapport is een hele uitgebreide studie

[1:47:34] waarin de Commissie naar een hele hoop verschillende handelspraktijken kijkt

[1:47:37] en ziet wat daar de afgelopen jaren gebeurd is

[1:47:40] en of daar eventueel problemen zijn.

[1:47:42] Er is ook een paragraaf in dat rapport

[1:47:44] die ingaat op social media

[1:47:46] en influencer marketing.

[1:47:48] En de commissie,

[1:47:49] en dit is even niet mijn mening, maar ik quote

[1:47:52] hier min of meer uit het rapport,

[1:47:54] de commissie zegt dat zij zeker

[1:47:56] problemen ziet rondom influencer marketing,

[1:47:58] dat was volgens mij breed herkend,

[1:48:00] en waar zij naar kijkt is of

[1:48:02] er het nodig gaat zijn

[1:48:04] om specifieke normen op te nemen

[1:48:06] in die regelgeving

[1:48:08] rondom oneerlijke handelspraktijken.

[1:48:10] Daarnaast wil ze ook gaan kijken of bepaalde vormen van standardisering

[1:48:15] zouden kunnen helpen.

[1:48:16] Het ging net al even, kwam een heel mooi voorbeeld naar voren

[1:48:19] van een influencer die zelf uitleg geeft aan kijkers

[1:48:27] hoe bepaalde dingen te beoordelen.

[1:48:30] Wij weten ook dat als manieren waarop transparantie wordt gegeven,

[1:48:35] zoals die eenduidig zijn, over alle platformen heen voor iedereen,

[1:48:39] dat consumenten makkelijker leren, dan is het leereffect groter.

[1:48:43] En daarmee denk ik dat het heel erg goed is om te pleiten misschien wel

[1:48:46] voor een dergelijke standardisering op Europees niveau.

[1:48:49] Ik denk ook dat influencers die over grenzen heen werken daar uiteindelijk baat bij hebben.

[1:48:54] Dus wij kijken ook heel erg naar de voorstellen die de commissie in het komende jaar,

[1:48:58] en die zullen waarschijnlijk begin 2006 publiek worden, gaat doen op dit vlak.

[1:49:04] En wij ondersteunen ook die exercitie die zij op dit moment uitvoeren.

[1:49:09] Dus, samenvattend op de eerste vraag.

[1:49:12] Wij denken dat we wetgeving in handen hebben waar wij, maar ook andere toezeghouders goed mee uit de voeten kunnen.

[1:49:17] Maar wij denken ook dat het kan helpen, zowel voor begrip bij consumenten,

[1:49:21] als ook rechtszekerheid, wat moeten we doen om na te leven bij influencers.

[1:49:26] Maar het kan ook het toezicht vergemakkelijken,

[1:49:29] als misschien sommige van die regels specifiek op influencers gericht zijn.

[1:49:35] Dan op uw tweede vraag, en volgens mij heeft mijn collega Van der Harst daar net al zelf

[1:49:40] grotendeels antwoord op gegeven, maar de vraag is een certificeringssysteem waterdicht?

[1:49:44] Nou, ik denk dat per definitie het antwoord is nee, er is nooit enig toezichtsregime waterdicht.

[1:49:51] Maar ten eerste juichen wij ontzettend toe dat een sector zelfverantwoordelijkheid neemt

[1:49:57] en dat er ook zelfregulering is.

[1:49:58] Dat is ook de gedachte waar toen het consumentenrecht werd ingevoerd op voortgeboord duurt is.

[1:50:04] Namelijk dat er een privaat fundament is wat in eerste instantie zelf ook kijkt.

[1:50:08] Hoe kunnen wij bestaande problemen oplossen?

[1:50:11] En dan is er een toezichthouder, in dit geval de ACM, die kan inspringen daar waar dat niet gebeurt.

[1:50:16] Dus dat juichen wij ontzettend toe.

[1:50:18] En ik denk ook wat ik gezien heb van het certificeringssysteem en de wijze waarop daar ook toezicht gehouden wordt

[1:50:23] door de reclamecodecommissie, dat dat absoluut een bijdrage levert in naleving.

[1:50:29] En dan is het systeem zo dat als er gevallen zijn waarin influencers niet willen naleven,

[1:50:36] of problemen zijn waar op een of andere manier de stichting reclamecode niet uitkomt,

[1:50:42] dat daar een toezichthouder is die daarop kan inspringen.

[1:50:45] En ik denk dat het pure bestaan van zo'n toezichthouder ook helpt om zo'n systeem te disciplineren.

[1:50:52] en ook naleving afdwingt.

[1:50:55] Dus dat in antwoord op uw tweede vraag.

[1:51:00] Heel hartelijk dank voor uw beantwoording.

[1:51:01] Mag u ook de microfoon weer uitzetten.

[1:51:03] En dan had de heer Bouhoff nog een aanvulling.

[1:51:06] Ja, ik hoorde inderdaad het woord keurmerk vallen.

[1:51:08] Nou is de influencer-certificering een eerste stap richting een keurmerk.

[1:51:12] Je krijgt ook als influencer een mooi icoon.

[1:51:13] Wat je dan weer kan communiceren naar partners met wie je werkt bijvoorbeeld.

[1:51:16] Dus in zekere zin zijn we daarmee bezig.

[1:51:18] En waar ik ook nog even op wil hameren,

[1:51:20] is dat iedereen een influencer kan zijn en kan worden

[1:51:23] in mate van een dag.

[1:51:25] Als jij een heel grappig filmpje online plaatst,

[1:51:27] en dat heeft een paar miljoen weergaven,

[1:51:30] en dat doe je daarna nog een keer,

[1:51:31] dan kan jij een influencer worden,

[1:51:32] en dan kan jouw mening gezien worden door heel veel mensen.

[1:51:35] En het is heel goed

[1:51:36] dat wij wetgeving hebben

[1:51:39] en certificering hebben,

[1:51:41] en ik bemoei me daar ook mee,

[1:51:43] en ik vind dat ook hartstikke belangrijk,

[1:51:44] maar ik vind niet dat we, we moeten wel niet vergeten

[1:51:47] dat het probleem van deze hele dag

[1:51:49] zit hem juist in de mensen

[1:51:51] die niet onder de regelgeving vallen.

[1:51:53] Om even jullie een idee te geven,

[1:51:54] de wetgeving geldt eigenlijk pas vanaf 500.000 volgers op een platform.

[1:51:58] Dus dat betekent dat als je daaronder valt,

[1:52:01] en er zijn zatte YouTubers, content creators met minder dan 500.000 volgers,

[1:52:04] die ongelooflijk veel weergaven genereren,

[1:52:07] kan je niet vervolgd worden op de wetgeving.

[1:52:08] De wetgeving geldt wel voor hun,

[1:52:10] maar dat betekent dat ze niet, dat die op hun gehandhaafd wordt.

[1:52:13] En dat is logisch, want het is onmogelijk

[1:52:15] om op iedereen, op elke influencer te handhaven.

[1:52:18] Dat kan niet, er zijn er te veel.

[1:52:19] Ik hoorde net 67.000. Nou, zet daar nog maar eens een nul achter.

[1:52:22] Want het is echt ongelooflijk veel influencers die er zijn.

[1:52:26] In Nederland alleen al.

[1:52:27] Ik ben ook in Europa geweest om dit ook daar te zeggen.

[1:52:30] Want ik vind het inderdaad ook belangrijk...

[1:52:32] dat er een standaardisering komt op een globaal vlak.

[1:52:35] Zeker omdat bijvoorbeeld influencers als NikkieTutorials...

[1:52:37] met misschien een aantal procent Nederlandse kijkers...

[1:52:40] zich aan dingen als kijkwijze moeten gaan houden...

[1:52:42] wat helemaal geen zin heeft voor hun.

[1:52:44] En het is een globaal probleem, weet je wel.

[1:52:46] Als ik YouTube open, dan zie ik misschien drie Nederlandse video's...

[1:52:50] en duizenden Amerikaanse video's.

[1:52:52] Dus mijn mening kan op verschillende manieren beïnvloed worden.

[1:52:55] En om het in ieder geval in Nederland te houden...

[1:52:58] en om te kijken van wat kunnen wij nou doen hier...

[1:53:00] is het gewoon wel belangrijk om inderdaad de grote jongens in de gaten te houden...

[1:53:03] om bedgeving voor de grote jongens te maken.

[1:53:05] En dat doen we hartstikke goed, want iedereen kijkt omhoog.

[1:53:08] Ik zei net ook al, de kleine influencers kijken naar de grote influencers.

[1:53:11] Dus als de grote influencers professionaliseren...

[1:53:13] vakbonden vormen, keurmerken krijgen...

[1:53:15] dan kunnen de kleine influencers denken, ah ja, dat is wat wij moeten doen.

[1:53:19] En ik vind ook dat dat maatschappelijk, wat ik al eerder zei, veel groter moet worden aangepakt.

[1:53:24] Als wij als maatschappij, ouders, kinderen, docenten,

[1:53:29] ik hoorde het in de eerste blok ook al over onderwijs, hartstikke goed,

[1:53:32] daar moet gewoon op gehamerd worden.

[1:53:33] We moeten gewoon de Nederlandse mensen leren

[1:53:38] wanneer iets misleiding is en wanneer iets een reclame is.

[1:53:40] En dat hebben we met Herstelijk Eind natuurlijk hartstikke goed gedaan,

[1:53:42] zodat ook influencers klein en groot leren wat wel en niet kan op online.

[1:53:49] Heel hartelijk dank voor het heldere betoog.

[1:53:51] Dan heeft de heer Van Os ook nog een aanvulling.

[1:53:54] Ja, ik denk dat dat misschien een beetje volgt op wat mijn buurman zegt,

[1:53:58] maar ik wil ook te verwaken dat we hem niet gaan overdrijven in regelgeving,

[1:54:04] want als ik naar een gemiddelde uitzending van Eigen Huis en Tuin kijk,

[1:54:07] dan krijg ik een melding aan de voorkant.

[1:54:09] Dit is product placement, maar of Fraukje de Bot sieraden heeft gekregen

[1:54:13] staat dan niet gelijk in beeld, of dat het t-shirt wat ze draagt

[1:54:17] waarschijnlijk een sponsoring is, dat zie ik op de aftiteling ergens.

[1:54:20] Maar we moeten ook niet proberen...

[1:54:22] We moeten proberen niet door te slaan in die labeling,

[1:54:24] want dan kan het het doel voorbijgaan, denk ik.

[1:54:26] En het doel is dat we met z'n allen content willen maken

[1:54:29] die goedgekeurd wordt, maar die ook verspreid wordt

[1:54:31] en die ook geld en kijkers naar de platformen brengt.

[1:54:35] En dat wou ik eigenlijk even aan toevoegen.

[1:54:38] Heel hartelijk dank. En dan heeft de heer Poederboom ook nog een aanvulling.

[1:54:41] Uw oproep heeft gewerkt, mevrouw Van der Werff.

[1:54:45] Nou, in lijn met wat de heer Bouw van Nier van ons aangeven,

[1:54:49] ik heb geprobeerd duidelijk te maken dat wat ons betreft er voldoende wetgeving is

[1:54:54] en dat er echt wel aan bepaalde punten versterking nodig is,

[1:54:58] maar daar los je dus het probleem niet mee op.

[1:55:01] Buitenskamer zeggen wel hebzucht en oplichting is van alle tijden.

[1:55:05] Eigenverantwoordelijkheid, financiële educatie, waarschuwen,

[1:55:08] dat vind ik minstens zo belangrijk

[1:55:09] en is misschien overal effectiever dan de boete die we opleggen.

[1:55:15] Dus dat is ook de reden dat we toch nog beperkte capaciteit die we hebben, ondanks dat we niet

[1:55:20] voor de consument zijn, bijvoorbeeld deze zomer een Check de Aanbieder-campagne hebben

[1:55:25] gelanceerd waar we dus geprobeerd hebben de belevingswereld, want we zijn daar ook gedrag

[1:55:30] gesprekend over, van zeg maar de wat jongere consumenten in Nederland, we hebben filmpjes

[1:55:35] gemaakt voor TikTok, voor Instagram, en dat heeft een enorm bereik gehad.

[1:55:39] Dus ook op die manier denk ik uiteindelijk dat waarschuwen,

[1:55:44] ondanks dat het misschien wat vaag is,

[1:55:45] maar het is waarschijnlijk wel effectiever

[1:55:47] om mensen verantwoordelijkheid te maken.

[1:55:49] We zeggen weleens als het te mooi is om waar te zijn, is het te mooi?

[1:55:53] En om een beeld te geven, jaarlijks denk ik,

[1:55:56] denk ik het afgelopen jaar, we hebben ruim 4.000 signalen gekregen.

[1:55:59] Want als je gaat waarschuwen, gaan mensen ook nadenken en dan denken ze

[1:56:03] hey, wacht eens even, ik zie hier iets, ik meld dat aan de toezichthouder.

[1:56:06] Dus we hebben afgelopen jaar ruim 4.000 signalen gekregen.

[1:56:10] Daarvan ging 20% over beleggingsfraude en 1 op de 3 betrof crypto, forex, dat is valutahandel en pyramidespelen.

[1:56:21] Dus dan kunnen wij ook heel gericht die beperkte capaciteit inzetten op die zaken waar we dus ook echt toezicht moeten houden.

[1:56:28] Dus regelgeving laat hij maar voor zich werken, maar eigen verantwoordelijkheid, educatie vind ik misschien nog wel belangrijker.

[1:56:35] Dank.

[1:56:36] Heel hartelijk dank voor het heldere betocht.

[1:56:38] En uw buurman weet er alles van, van voorlichting, de heer Boersma.

[1:56:43] Ja, daar maak ik dankbaar gebruik van de uitnodiging om ook te reageren.

[1:56:46] Ik hoor hier inderdaad veel over wet- en regelgeving

[1:56:48] en ook kritische vragen over of dat afdoende is.

[1:56:51] Tegelijkertijd hoor ik ons hier ook praten over educatie en het belang daarvan.

[1:56:55] Vanuit mijn perspectief nogmaals de kritische oproep ook

[1:56:57] om kijk dan ook naar het vormgeven van die educatie,

[1:57:01] of je dat om een goede manier doet.

[1:57:02] Naar de wetenschappelijke onderbouwing, naar langdurige initiatieven.

[1:57:06] om te voorkomen dat iedereen en verschillende partijen

[1:57:09] iets educatiefs gaan doen, vooral ook focus op informeren,

[1:57:13] terwijl we ook allang weten,

[1:57:14] onder andere het rapport van het Wetenschappelijk Regingsraad,

[1:57:17] weet is nog geen doen, dat het informeren niet voldoende is

[1:57:20] om ook educatief mensen mee te nemen.

[1:57:22] Dus die oproep ook hier, ik kijk heel kritisch naar wet- en regelgeving,

[1:57:25] maar ik kijk ook heel kritisch naar hoe je educatie

[1:57:27] op een goede, effectieve manier vormgeeft.

[1:57:29] Dank u wel.

[1:57:31] Mooie afsluitende woorden.

[1:57:34] Mevrouw Van der Werff, u heeft veel waar voor uw geld gekregen.

[1:57:38] De heer Siksteikstra, geen vragen meer. Mevrouw Drouw, geen vragen meer.

[1:57:42] Ikzelf ook geen vragen meer. Mevrouw Van der Wulf, heeft u nog een vraag?

[1:57:46] Ja, dan ben ik wel heel brutaal.

[1:57:48] Nou, nee, voorzitter, misschien is het aardig als we het zo afronden.

[1:57:52] En misschien als we elkaar hierna nog even spreken,

[1:57:55] kunnen we altijd mensen een op een nog even een aanvullende vraag stellen.

[1:57:58] Maar ik wil jullie eigenlijk vooral danken voor de komst naar Den Haag

[1:58:02] om over dit interessante onderwerp te spreken.

[1:58:05] En ik denk dat ik voor mijn collega's spreek, maar ook een paar collega's die ziek zijn of die vanuit hun werkkamer meekijken,

[1:58:12] een hoop mee kunnen nemen hiervan.

[1:58:14] En dat is zeer waardevol, zeg ik ook even tegen de gasten uit de vorige ronde die op de publieke tribune zitten.

[1:58:20] Dus heel veel dank hiervoor.

[1:58:25] Wezenwoorden, daar sluit ik mij gerne bij aan.

[1:58:26] Dank iedereen voor hun aanwezigheid, zowel het eerste blok, tweede blok, voor de constructieve bijdrage.

[1:58:31] Ik dank de kijkers thuis, de mensen op de tribune en ik dank ook de bode.

[1:58:35] En dan wens ik iedereen een fijne avond en dan sluit ik deze rond de tafel.