Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.
Sociale media en inmenging
[0:00:00] met de rondetafel voor de Commissie Digitale Zaken over sociale media en inmenging.
[0:00:08] Welkom ook aan alle gasten op de nieuwe publieke tribune.
[0:00:11] Mooie nieuwe stoelen.
[0:00:14] Er zijn nog een aantal Kamerleden die druk onderweg zijn, maar het is nogal ook weer een drukke debatteerdag vandaag, dus die komen uit andere zalen.
[0:00:22] We gaan dus beginnen met een rondetafel sociale media en inmenging.
[0:00:26] Dat doen we in drie blokken.
[0:00:28] Blok 1 tot kwart voor vijf, kennis.
[0:00:31] Blok 2, online platformen.
[0:00:32] En blok 3, organisaties.
[0:00:34] En voor het eerste blok wil ik graag van harte welkom heten mevrouw Van Huiste, onderzoekscoördinator van het Ratenouw Instituut.
[0:00:42] Dan mevrouw Van Beurden, directeur Cyber Security, Weerbaarheid, Stedelijke Dreigingen en Analyse Nationale Veiligheid bij de NCTV, de Nationaal Coördinator Terrorisme, Spreiding en Veiligheid.
[0:00:55] En de heer Van Bohemen, directeur van stichting Post X Society.
[0:01:01] En u heeft ook allemaal ons een position paper toegestuurd, dus op papier gezet wat uw standpunten zijn.
[0:01:07] Die hebben we ook allemaal tot ons kunnen nemen, maar toch wil u ook nog vragen om een kleine introductie te doen.
[0:01:12] En dan is als eerste het woord aan mevrouw Van Heuste.
[0:01:17] Welkom.
[0:01:20] Yes, heel erg bedankt.
[0:01:22] Ik ben Mariette Van Heuste, onderzoekscoördinator bij het Ratenaar Instituut.
[0:01:25] En voor degenen die ons nog niet kennen, we zijn een onafhankelijke kennisinstelling, veertig jaar geleden opgericht, met als mandaat om het parlement te ondersteunen in haar oordeelsvorming
[0:01:38] over de impact van technologie op de samenleving.
[0:01:41] Dus we zijn er echt expliciet voor jullie.
[0:01:44] En we hebben op verzoek van jullie commissie in najaar 2025 een verzoek ontvangen om onderzoek te doen naar de rol van aanbevelingsalgorithmen bij inmenging in verkiezingen via sociale media.
[0:01:59] En om die rol toe te lichten, wil ik graag gebruik maken van een metafoor.
[0:02:06] En dat is die van de sociale media platform als een plein en aanbevelingsalgoritme als een megafoon.
[0:02:13] En je moet je voorstellen dat een heel groot plein met honderdduizenden mensen...
[0:02:19] Als je dat plein opkomt, dan zie je niet meteen wat er allemaal gebeurt op dat plein.
[0:02:23] Je hoort ook niet aan de ene kant van het plein wat er aan de andere kant gebeurt.
[0:02:26] Het is hartstikke druk en vol.
[0:02:29] Dus een bezoeker moet zich een beetje bewegen over dat plein en die blijft ergens staan...
[0:02:35] Iets interessants gebeurt, bijvoorbeeld een performer die heel mooi aan het dansen is en aan het zingen.
[0:02:40] Hij blijft daar staan en mensen beginnen O en A te hoepen en elkaar aan te stoten.
[0:02:43] Dat is eigenlijk de likes en shares zoals we die kennen op sociale media.
[0:02:49] Wat de pleinuitbater heeft ontdekt, die heeft ontdekt dat als er reuring ontstaat,
[0:02:54] of engagement, dan blijven mensen langer op het plein.
[0:02:58] En dat is goed voor de inkomsten.
[0:03:01] Dus wat is die pleinuitdater gaan doen en nu komt het, die geeft dan een megafoon aan die performer.
[0:03:06] engagement veroorzaakt, die reuring veroorzaakt.
[0:03:08] Dus die performer die aan het zingen en aan het dansen is, die is opeens, heeft een heel groot bereik en die wordt over dat hele plein gehoord.
[0:03:14] Dus meerdere mensen vanaf het plein, die gaan naar die performer toe.
[0:03:19] Een stukje verderop, twee mensen, felle discussie, politieke discussie, het wordt een beetje fel, mensen beginnen te duwen, te trekken, dan ontstaat weer beweging en hup, nou, die mensen krijgen een megafoon.
[0:03:31] Wat zou je nou doen als je dat publieke debat daar op dat plein wil beïnvloeden als kwaadwillende buitenlandse statelijke actor?
[0:03:39] Dan probeer je een megafoon te pakken te krijgen.
[0:03:42] En dat is precies wat mogelijk is, wat die aanbevelingsalgorithmen mogelijk maken.
[0:03:48] Dus wat zou zo'n kwaadwillende actor kunnen doen?
[0:03:51] Die zou die performer kunnen betalen en kunnen zeggen, wil je mijn boodschap bespreken?
[0:03:54] Dus diegene die een microfoon had gaat die boodschappen verspreiden.
[0:03:58] Of die zou zelf een opstootje kunnen creëren.
[0:04:00] Een beetje gaan duwen, gaan trekken, reuring creëren en dan krijg je een microfoon.
[0:04:05] Tot zover de metafoor.
[0:04:08] Wat ik jullie wil meegeven, is dat de mogelijkheden voor inmenging zijn ingebouwd in hoe aanbevelingsalgorithmen werken.
[0:04:16] Dus dankzij die aanbevelingsalgorithmen ontstaat er een instrumentarium voor kwaadwillende actoren.
[0:04:23] En om dat instrumentarium in te dammen, daar zijn ook maatregelen voor mogelijk, maar daar gaan we straks verder vast op in.
[0:04:31] Dank.
[0:04:32] En dan is nu het woord aan mevrouw Van Beurden van de NCTV.
[0:04:39] Ja, dank u wel.
[0:04:40] Dank ook voor de uitnodiging om vandaag u mee te mogen nemen in onze zienswijze op dit onderwerp.
[0:04:47] En ik denk dat het een understatement is om te zeggen dat social media onze samenleving fundamenteel heeft veranderd.
[0:04:54] En als NCTV is het onze taak om te bezien of en hoe deze veranderingen zich vertalen in potentiële of acute dreigingen voor de nationale veiligheid.
[0:05:02] En ook om te adviseren hoe hiermee om te gaan.
[0:05:04] En de zorgen wat betreft sociale media licht ik dan ook graag toe langs twee verschillende lijnen, namelijk eerst zal ik even ingaan op desinformatie en vervolgens op online radicalisering.
[0:05:13] En vervolgens zal ik ook aandacht besteden aan de invloed van aanbevelingssystemen en de aanpak van deze problematiek en daarbij ingaan op de rol van de platformen.
[0:05:22] Onze inlichtingendiensten en ook mijn eigen organisatie hebben in meerdere openbare publicaties beschreven dat staatlijke actoren desinformatie gebruiken om strategische doelstellingen te bewerkstelligen.
[0:05:32] Onze inlichtingendiensten kunnen in hun onderzoek naar statelijke actoren ook op dergelijke desinformatiecampagnes stuiten.
[0:05:38] Op dit moment zijn er geen aanwijzingen dat grootschalige beïnvoeding heeft plaatsgevonden in Nederland.
[0:05:42] Wel zijn er berichten verschenen in de media ook over botnets en nepaccounts die de verspreiding van bepaalde berichten versterkte in aanloop ook naar de verkiezingen van vorig jaar.
[0:05:51] Dat is ernstig en zorgelijk.
[0:05:53] Gelukkig was de impact beperkt en zijn de verkiezingen eerlijk verlopen.
[0:05:57] Dit kabinet neemt ook onder coördinatie van de minister van BZK stappen om het zicht op de verspreiding van dergelijke gecoördineerde desinformatiecampagnes te verbeteren.
[0:06:07] Ten aanzien van online radicalisering hebben we ook in het recente DTN, Dreigingsbeeld Terrorisme Nederland, geschetst dat de zorgomtrend online radicalisering onverminderd groot zijn.
[0:06:16] Het online domein biedt gemakkelijke anonimiteit, mist een corrigerend geluid en wordt door kwaadwillenden gebruikt om hun extremistische ideologieën te verspreiden.
[0:06:24] Personen waaronder, en dat is echt zorgelijk vind ik, steeds jonger wordende jongeren,
[0:06:30] Radicaliseren snel online en bereiden daar ook geweld voor.
[0:06:34] De zorg dat platformen door hun winstmodel, waaronder het gebruik van de algoritmes, extremisme en polarisatie toestaan en zelfs aanjagen, is een zorg die ik volledig deel.
[0:06:43] We zien een toename aan online radicalisering wat kan leiden tot deelname aan extremistische netwerken en het plannen van aanslagen.
[0:06:49] Dit vormt wat ons betreft een reëel risico voor de nationale veiligheid en de democratische rechtsstaat.
[0:06:55] Platforms spelen een cruciale rol in de oplossing van de geschetste problematiek.
[0:06:59] Zij zijn verantwoordelijk voor de content die zij hosten en hun aanbevelingssystemen kunnen een rol spelen in het verspreiden van illegale content, bijvoorbeeld terroristische content.
[0:07:07] Ze moeten deze content verwijderen en toezichthouders hebben het mandaat om hierop te handhaven.
[0:07:11] Het is van groot belang dat gebruikers worden beschermd tegen schadelijke beïnvloeding van algoritme.
[0:07:16] Algoritmen op sociale mediakanalen tonen kwetsbare jongeren steeds heftiger video's, waardoor zij soms binnen enkele dagen of weken radicaliseren en zelfs voorbereidingen kunnen treffen voor een aanslag.
[0:07:26] En dat is niet een hypothetisch verhaal, dat hebben we ook daadwerkelijk zien gebeuren.
[0:07:32] Wat betreft de aanpak van deze problematiek is onze koers helder.
[0:07:35] We eisen enerzijds transparantie, maximale transparantie van platformen en dwingen naleving af via de Europese kaders.
[0:07:41] Een belangrijk wettelijk instrument is de Digital Service Act, de DESA.
[0:07:45] De verspreiding van illegale content wordt aangepakt via die DSA en algoritma worden op dit moment gereguleerd onder de DSA.
[0:07:52] Ook verplichten DSA platformen om meer transparantie te bieden en om aanbevelingssystemen aan te passen.
[0:07:58] En wij als organisatie bezien ook constant of het huidige wettelijke instrumentarium volstaat om die groeiende online-dreiging effectief tegen te gaan of dat aanscherping nodig is.
[0:08:07] Zo zullen wij ook de evaluatie van de DSA in 2027 aangrijpen om te pleiten voor aanscherpingen waar nodig en mogelijk.
[0:08:15] Hiermee komt meer verantwoordelijkheid te liggen bij de platformen om hun gebruikers te beschermen.
[0:08:20] Daarnaast hebben wij als organisatie ook in samenwerking met onze Duitse en Franse collega's de Europese Commissie via een non-paper opgeroepen een vrijwillige gedragscode voor online platformen op te stellen.
[0:08:30] In dit non-paper worden tevens voorstellen gedaan om algoritme veiliger en transparanter te ontwerpen om te voorkomen dat gebruikers worden blootgesteld aan extremistische en gewelddadige content en hier ook gerecruiteerd worden.
[0:08:42] Tot slot wil ik nog benoemen dat de NCTV de zorg die er is rond een content die op dit moment legaal, maar heel schadelijk en gewelddadig is, ook wel de zogeheten borderline content, volledig deelt.
[0:08:53] In dat licht bevat het coalitieakkoord een aantal potentiële aanknopingspunten, zoals kijken naar de mogelijkheden om content te kunnen verbieden en verwijderen met als achterliggende gedachte dat dat wat we offline niet accepteren, dat we dat online ook niet accepteren.
[0:09:06] En ook interessant is de Europese minimumleeftijd van 15 jaar voor sociale media met leeftijdsverificatie.
[0:09:14] Dank u wel en dan is nu het woord aan de heer van Bohemen van Stichting Post X Society.
[0:09:21] Goedemiddag en ook dank voor deze uitnodiging.
[0:09:24] Ik ben inderdaad directeur van Stichting Post X Society en afgelopen zomer hebben wij ook een observatorium opgericht samen met andere maatschappelijke organisaties en onderzoekers om te kijken naar inmenging in de verkiezingen.
[0:09:35] Omdat we zagen dat het vooral in het buitenland bekend is en dat in Nederland eigenlijk heel weinig voorbeelden zijn aan te halen.
[0:09:42] En op basis van wat we zagen in het buitenland maakten we een lijst van wat voor soort dreigingen we dan zouden kunnen vinden.
[0:09:48] En eigenlijk, zoals u kunt zien in de position paper, troffen we alles aan in Nederland.
[0:09:52] Dus inderdaad nepaccounts of gecoördineerde accounts die de zichtbaarheid van berichten vergroot.
[0:09:57] Het gebruik van AI om geweld en haat en discriminatie aan te jagen.
[0:10:03] Livestreams die ongemodereerd bleven.
[0:10:05] ...advertentiecampagnes die niet voldeden aan de eisen die daarvoor zijn.
[0:10:09] En ook dit soort dingen werden ons aanbevolen door de aanbevolingsalgorithmes.
[0:10:13] En wat ons ook opviel als we meldingen doen van de dingen die volgens ons betreft evident... ...in strijd zijn met platformbeleid en dus ook met de DSA... ...is dat die meldingen hebben geen effect.
[0:10:25] Dus bijvoorbeeld een video...
[0:10:27] waarin Frans Timmermans werd mishandeld in January, dus nu geen echte video.
[0:10:31] Die melden we bij 10.000 views, melden we bij 100.000 views, melden we bij 200.000 views.
[0:10:36] Ze blijven gewoon zichtbaar totdat een journalist belt met een platform en dan worden ze opeens verwijderd.
[0:10:41] We hebben onlangs een kleine stekenproef genomen, want het viel ons ook op dat heel veel extremistische video's werden aanbevolen.
[0:10:47] Dus we hebben honderd nazistische video's gemeld bij TikTok.
[0:10:51] Slechts drie werden er verwijderd en dan hebben we het over video's waarin mensen
[0:10:55] Hitler verheerlijk, de dood aan Joden oproepen, al dat soort zaken.
[0:11:01] Het blijkt dus dat de aanbevelingsalgoritmes die video's prima kunnen vinden en ons kunnen aanbevelen.
[0:11:07] Alleen de moderatoren van de platformen herkennen ze blijkbaar niet of kunnen ze ze niet vinden.
[0:11:12] Deze observatorium vervolgt ook zijn werk rondom de gemeenteraadsverkiezingen.
[0:11:17] We zien hetzelfde beeld.
[0:11:18] We hebben bijvoorbeeld ook alweer 250 advertentiecampagnes gevonden die politiek boodschappen verspreiden die zogenaamd niet zouden zijn toegestaan door bijvoorbeeld Meta.
[0:11:27] en we wel dus plaatsvinden op hun platform.
[0:11:31] Dus wij denken als we het sociale media voor Nederlanders veilig en vrij willen houden en een vrij debat op kunnen hebben, moet er zowel worden geïnvesteerd als je in de weerbaarheid van onze samenleving.
[0:11:41] Dus we zouden eigenlijk pleiten voor een heel breed programma rondom digitaal weerbare democratie in Nederland.
[0:11:47] En aan de andere kant is er meer transparantie nodig, want de platformen, wij zijn alleen maar aan de
[0:11:51] als ontvanger aan het kijken, maar je zou veel meer kunnen weten over de politieke oriëntatie van de aanbevelingsalgorithmes, over hoe het precies werkt, en ze zouden ook veel meer verantwoording moeten afdragen, duidelijkere, concretere indicatoren.
[0:12:06] En als we dat zouden doen, zou het internet een stuk veiliger kunnen worden voor iedereen.
[0:12:13] Nou, dat is heel helder.
[0:12:14] Dat brengt ons gelijk aan de zijde van de Kamer.
[0:12:20] Ik denk gezien de tijd kunnen we wel beginnen gewoon met dat iedereen twee vragen kan stellen en ook een gevolgvraag erbij.
[0:12:26] Als u de vraag gesteld heeft, dan kunnen we gelijk overgaan naar de beantwoording.
[0:12:29] Soms is het wel handig voor de gasten als u ze erbij meldt aan wie u de vraag wilt stellen.
[0:12:34] Maar we kennen ook in dit huis heel vaak de vraag nou eigenlijk aan iedereen.
[0:12:38] En dan kunnen we even kijken hoe de tijd vordert of we dat toe kunnen blijven staan.
[0:12:43] Dan is het woord als eerste aan mevrouw Rijkhofsky van de VVD.
[0:12:48] Dank voorzitter.
[0:12:49] En dit is niet de eerste keer dat deze Tweede Kamer praat over veilige social media, een veilige online openbare ruimte.
[0:12:58] En een paar jaar geleden toen we in de Tweede Kamer ook een hoorzitting hadden, toen kreeg men nog vaak ook te horen ja, maar het is heel moeilijk om desinformatie te herkennen, om bepaalde content te kunnen weren.
[0:13:10] En als ik kijk in die paar jaar hoe AISIG heeft ontwikkeld, denk ik, ik vond dat toen ook al geen excuus, maar nu al helemaal niet meer.
[0:13:17] Er was altijd één lichtpuntje, namelijk op het moment dat er verkiezingen waren, dan leek ineens wel heel veel mogelijk te zijn bepaalde accounts te verwijderen of content die niet mocht.
[0:13:28] Als ik kijk naar de laatste Tweede Kamerverkiezingen, dan zie ik eigenlijk dat mensen die daadwerkelijk op lijsten stonden en campagne wilden voeren, die mochten geen advertenties meer inkopen, zoals ik bijvoorbeeld of andere mensen.
[0:13:41] Maar de content die je juist misschien niet wil, vanwege dat het haardragend is, extremistisch of desinformatie, die zag ik meer voorbijkomen.
[0:13:51] Dus mijn gevoel is dat de regulering die de afgelopen twee jaar is aangenomen, eigenlijk ervoor heeft gezorgd dat de social media platformen juist meer ruimte hebben gekregen om meer content te laten zien die ik niet zou willen zien op de platformen.
[0:14:08] Kunnen jullie daarop reageren?
[0:14:09] Misschien is dat...
[0:14:11] Post X Society, maar ook mevrouw Van Beurden zou ik die willen vragen.
[0:14:19] Ja, ik herken inderdaad wat u zegt.
[0:14:22] Het detecteren van AI is steeds meer wijdverspreid en we kunnen het zien eigenlijk overal.
[0:14:30] Het opvallende is ook dat het vaak het eerste aanbevolen resultaat is.
[0:14:33] Als je op een bepaald term zoekt, of een bepaald kamerlid zoekt, vaak in de eerste tien resultaten zie je het grootste deel.
[0:14:39] AI-beelden is niet moeilijk om te vinden.
[0:14:41] Heel vaak doen ze niet aan de web trouwens, zijn ze niet gelabeld als AI.
[0:14:44] wat daar wel verwacht zou worden.
[0:14:47] En ze zijn vaak haatdragend, intimiderend zou ik kunnen zeggen.
[0:14:52] Soms bevat ze geweld inderdaad.
[0:14:54] Dus dat vind ik ook heel zorgelijk.
[0:14:56] Er zou daar harder tegen moeten worden opgetreden.
[0:14:58] En ook dat als we het melden dat er niks gebeurt, dat vind ik ook, dat kan eigenlijk gewoon niet.
[0:15:04] De advertentieregulering, inderdaad, de reactie van de platform daar is geweest om überhaupt geen advertentie meer toe te staan van politieke aard.
[0:15:12] Wij zien dus alsnog wel gewoon gebeuren die advertenties, dus het is ook een sedatief toegepaste
[0:15:18] Regel blijkbaar.
[0:15:21] Dat moet je je voorstellen.
[0:15:22] Zeker met de lokale verkiezingen.
[0:15:23] Inmiddels hebben we er 250, maar we zouden nog veel meer kunnen opsporen.
[0:15:27] Maar ook mensen die niet bestaande producten promoten met daarop dan een naam van een politicus of een boog van een politieke partij.
[0:15:34] Eigenlijk heel duidelijk.
[0:15:35] Als je zou zeggen van de platformen claimen vaak dat ze geavanceerde algoritmes hebben om dingen te modereren.
[0:15:41] Als er gewoon stem op 18 maart dit en dit staat, zou ik zeggen.
[0:15:45] Dat zou toch vrij makkelijk te herkennen moeten zijn.
[0:15:47] Dus ik zou die algoritmes wel eens van binnen willen zien.
[0:15:50] Dus volgens mij moeten we daar ook gewoon veel meer transparantie eisen van de platform.
[0:15:53] Laat maar zien dan hoe jullie die moderatie doen.
[0:15:55] Bewijs maar dan dat het werkt.
[0:15:58] En als het niet werkt, zou je daar veel harder tegen moeten optreden.
[0:16:04] Ik vind het lastig om specifiek iets te zeggen over de advertentieregulering.
[0:16:08] Ik denk dat wat wij doen is eigenlijk...
[0:16:10] De DSA, vooral als belangrijk instrument, die is nog relatief nieuw.
[0:16:14] Dus voor ons is ook de evaluatie die gepland staat in 2027... een heel belangrijk aangrijpingsmoment om te kijken... nou, werkt dit nou, wat we hier met elkaar hebben afgesproken?
[0:16:22] En tegelijkertijd, daar heb ik net ook de zorgen uiteengezet... die we nu al hebben, ook ten aanzien van de transparantie... voor de aanbevelingsalgoritme en hoe dat in elkaar stikt.
[0:16:30] Dat we nu al de Europese Commissie hebben opgeroepen, samen met Duitsland en Frankrijk, om daar echt meer op te doen.
[0:16:41] Dan kunt u nog een vraag stellen, als u wilt, mevrouw Van Kofsky.
[0:16:43] We kunnen twee vragen, of ik zie de heer Das al popelen.
[0:16:47] We kunnen het ook gewoon even hierna nog een rondje doen.
[0:16:51] Ja, de heer Dassen van Volt.
[0:16:54] Ja, voorzitter, volgens mij is de vraag van waarom accepteren we online wel wat we offline absoluut niet zouden accepteren.
[0:17:00] En als ik u allen hoor en dank voor uw introducties, dan heb ik ook het idee, jongeren die in een paar dagen kunnen radicaliseren, aanbeveling algoritmes die daar actief op pushen, omdat ze extra geld mee kunnen verdienen.
[0:17:16] Als we zien wat er in de Verenigde Staten door de eigenaren van deze bedrijven wordt gezegd, namelijk dat ze tegen de DSA zijn, dat ze de Europese Unie censuur verwijten, dan vraag ik me af, en die vraag is aan mevrouw Van Beurden, u stelde de vraag, wij zien of dit volstaat, de DSA, een aanscherping is nodig.
[0:17:34] Als je ziet dat deze bedrijven totaal niet mee willen werken, wat is dan volgens u hetgeen wat nu aan aanscherping nodig is?
[0:17:42] Ja, dank voor de vraag.
[0:17:43] Ik denk dat dat vooral nu zit op wat ik net zei, wat we in dat non-paper hebben.
[0:17:47] Het is echt zo'n aanvulling op de DSA, want ik zou het ook nog echt wel even de kans willen geven.
[0:17:52] Hoe pakt dat uit?
[0:17:53] Hoe gaat de toezichthouder zich ook ontwikkelen in de ronde om daar goed toezicht op te houden?
[0:17:57] Maar dat dat echt vooral zit op die transparantie over hoe werken nou die algoritmes?
[0:18:02] Dat is ontzettend moeilijk om daar...
[0:18:04] Ik denk dat mijn collega's hier dat ook kunnen vestigen, om daar goed zicht op te krijgen.
[0:18:08] dat dat voor ons wel een belangrijk speerpunt is.
[0:18:11] En daar mikken we nu op een vrijwillige gedragscode aanvullend op de DSA.
[0:18:16] Ja, dat is natuurlijk een eerste stap die je zet om het vrijwillig te proberen en uiteindelijk heb je dan wettelijke middelen achter de hand, zoals een aanscherping van de DSA, om daar verder in te gaan.
[0:18:29] Ja, voorzitter, want daar zag mijn tweede vraag inderdaad op, want u noemde inderdaad die vrijwillige gedragscode.
[0:18:35] Ik zelf heb daar weinig vertrouwen in, gezien de ontwikkelingen die we zien buiten Europa, maar ook eigenlijk binnen Europa, waar contentmoderatie wordt weggehaald, waar deze aanbevelingsalgoritmes juist die radicaliseringen en extremisme aanjagen.
[0:18:49] Waarom bent u van mening dat we de eerste stap met een vrijwillige gedragscode kunnen doen en of dat al afdoende is?
[0:19:00] Ja, dank u wel.
[0:19:01] Ik denk dat het ook uiteindelijk niet aan mij is om dat oordeel te vellen, maar ik denk dat wij op dit moment echt wel zorgen hebben die ik gedeeld heb en dat het, denk ik, passend is om constant in dialoog te blijven.
[0:19:13] Dus ja, dat is moeizaam, dat wil ik hier ook wel zeggen, maar ik vind het wel belangrijk om in gesprek te blijven en te kijken hoe ver we kunnen komen via die vrijwillige weg.
[0:19:22] en dat dan Europese wetgeving voor ons wel de beste route is om daar vervolgens een stap verder in te gaan.
[0:19:28] Maar ik vind het passend om dat te beginnen.
[0:19:31] We hebben een pakket wetgeving neergelegd, wat best wel stevig is, die DSA.
[0:19:36] Als we daar het gesprek over willen gaan, zou dat niet verder moeten gaan.
[0:19:38] Dan kiezen wij er nu voor om dat via deze route aan te kaarten en hopelijk ook de Europese Commissie daar achter te krijgen, want we geloven erg in die Europese aanpak om dat samen te doen.
[0:19:50] Dan is het woord aan...
[0:19:52] Ja, uiteraard.
[0:19:54] Een suggestie is misschien om de investigative power, dus eigenlijk de onderzoekscapaciteit en de rechten van de toezichthouders te versterken.
[0:20:02] Als we nu in Nederland een parkeergarage hebben waar een scheur in het plafond zit, dan sluiten we de parkeergarage en dan gaat iemand dat inspecteren om te kijken of er
[0:20:09] ...of die parkeergarage er nog wel kan worden gebruikt en sterker nog... ...dan sluiten we alleszelfde soort parkeergarages.
[0:20:15] Met platformen, ja, wij tonen aan dat er van alles mis is.
[0:20:17] Vervolgens duurt het maanden, soms jaren, voordat daar onderzoek naar wordt gedaan.
[0:20:21] Zeker in het kader van verkiezingen kun je dat eigenlijk helemaal niet permitteren.
[0:20:24] Je zou eigenlijk willen dat de toezichthouder dezelfde dag nog daartoe gaat.
[0:20:29] Ook als onderzoekers, om data toegang te vragen... ...hebben platformen tachtig werkdagen de tijd om die aanvraag te beoordelen.
[0:20:36] 80 werkdagen meer nagaan.
[0:20:37] In de verkiezingsperiode heb ik eigenlijk 80 minuten maximaal om toegang te krijgen tot bepaalde gegevens.
[0:20:43] Dus dat zijn onwerkbare periodes en ook blijkbaar hebben de toezeghouders onvoldoende capaciteit, onvoldoende rechten om gewoon direct opheldingen te vragen.
[0:20:51] Dus als u morgen de ACM ziet, zou ik zeggen, gaat u daar op in.
[0:20:56] Dan is het woord aan mevrouw Swinkels van het CDA.
[0:21:03] Dank u wel voorzitter en dank voor jullie toelichting.
[0:21:07] Ik vond de vergelijking met een marktplein wel treffend.
[0:21:10] Het zou eigenlijk net zoals de echte wereld moeten zijn.
[0:21:13] Wat we offline niet normaal vinden, moeten we online ook niet normaal vinden.
[0:21:18] Tegelijkertijd leven we in een aandachtseconomie en zien we gewoon dat inderdaad de ophef al snel populair is.
[0:21:26] Wij maken ons vooral ook zorgen over de invloed die dat heeft op onze kwetsbare en beïnvloedbare kinderen en jongeren.
[0:21:32] En daarom ben ik ook heel erg benieuwd ook wel naar die aanscherpingen van die DSA.
[0:21:38] Ik zou ook wel willen weten welke maatregelen we eventueel toch ook wel versneld zouden kunnen invoeren, ook als je kijkt naar die evaluatie.
[0:21:46] Natuurlijk is het altijd goed om evaluaties af te wachten, maar ja, 2070 is voor mij dan toch ook wel ver weg.
[0:21:52] Dus ik ben benieuwd welke versnellingsmogelijkheden jullie daarin zien.
[0:21:55] Dat zou mijn eerste vraag zijn en dan met name aan mevrouw Van Beurden, maar wellicht tot anderen ook willen reageren.
[0:22:02] Mevrouw van Beurden.
[0:22:04] En ik zie daarna ook al Mevrouw van Huisteken.
[0:22:08] Maar eerst Mevrouw van Beurden.
[0:22:11] Voor ons is het toch wel belangrijk om het gesprek aan te blijven gaan, zodat we dat ook kunnen identificeren.
[0:22:17] Waar zit het nou in?
[0:22:18] En ook met dank aan hele goede onderzoeken die gedaan worden, meer inzicht te krijgen in wat is nou het effect van de regulering die er is?
[0:22:26] En het is wat mij betreft nog echt te vroeg om daar nu uitspraken naar uw Kamer te kunnen doen van waar zit het nou precies in?
[0:22:33] Dat non-paper, dat hebben we ook met uw Kamer gedeeld, geeft daar denk ik de beste handvaart voor hoe we daar nu naar kijken.
[0:22:40] Maar wij hebben toch echt wat meer inzicht nog nodig in wat is nou de uitwerking van de huidige regulering.
[0:22:50] Heeft u nog een vervolgvraag?
[0:22:51] Oh nee, mevrouw Van Huiste wil daar nog iets aan toevoegen.
[0:22:53] Ja, dan kunt u daarna een vraag stellen.
[0:22:57] Ja, wat ik daaraan toe zou willen voegen...
[0:22:59] We hebben het al een paar keer over de DSA gehad, maar die biedt echt best wel veel mogelijkheden al.
[0:23:05] Dus ja...
[0:23:07] Ons inzicht is eigenlijk ook uit ons onderzoek dat er veel meer zou kunnen worden ingezet op handhaving en dat waarschijnlijk de toezichthouder echt behoorlijk wat mogelijkheden heeft, ook om transparantie van die aanbevelingsalgorithmen nu al te eisen.
[0:23:21] Dus inderdaad, ik zou ook heel benieuwd zijn of de ACM dat zelf ook zo ervaart en of het meer in de capaciteit zit dan eigenlijk in de mogelijkheden.
[0:23:32] Want ja, de platformen moeten, de grootplatformen moeten systeemrisico's
[0:23:36] in kaart brengen en daar ook mitigerende maatregelen voor nemen.
[0:23:40] Nou, de inmenging via platformen, via aanvullingsalgorithmen, valt daar heel duidelijk onder.
[0:23:45] Dus we moeten daar mitigerende maatregelen voor nemen.
[0:23:48] En nou, laat maar zien welke maatregelen dan worden genomen.
[0:23:53] We hebben zelf handelingsperspectieven geïdentificeerd in drie richtingen.
[0:24:00] Eén, echt het aanpassen van die aanbevelingsalgoritme.
[0:24:04] En dan zie je dat er allerlei wetenschappers al heel duidelijke suggesties doen over hoe dat zou kunnen, hoe zo'n aanbevelingsalgoritme zou kunnen worden aangepast.
[0:24:11] Bijvoorbeeld nu dat het voornamelijk emotionele content of die dus engagement oproept.
[0:24:18] Maar je zou een aanbevelingsalgoritme ook kunnen inrichten dat bijvoorbeeld juist verbinding schept tussen mensen.
[0:24:24] Er zijn aanpassingen op mogelijk.
[0:24:26] Of dat berichten, als die viraal gaan,
[0:24:28] Dat er een soort tweede check komt, van als een aanbevelingsalgoritme automatisch 10.000 of 100.000 mensen bereikt, dan zou er een menselijke check op moeten zitten van wat voor een type content is dit.
[0:24:40] Dat zijn gewoon aanpassingen.
[0:24:41] Die liggen klaar.
[0:24:43] In ons rapport, wat volgende week ook verschijnt, hebben we een hele lijst van dat soort aanpassingen.
[0:24:47] Maar we weten niet of die werken, want we kunnen niet meekijken bij de platformen als ze...
[0:24:52] of ze die aanpassingen eigenlijk al hebben geprobeerd en wat daarvan het effect is.
[0:24:57] Dus ook voordat je misschien verder gaat reguleren of dingen voorschrijven, moeten we eigenlijk veel meer weten wat het effect zou zijn van die maatregelen en daarvoor moet de informatiepositie weer versterkt worden.
[0:25:07] En dat kunnen die toezichthouders waarschijnlijk best wel wat verder, al met het huidige kader, best wel wat verder creëren.
[0:25:18] GESPREKSLEIDER.
[0:25:19] Mevrouw Sinkels, u had nog een vraag.
[0:25:21] Ja, ik had nog een tweede vraag.
[0:25:23] Dank voor dit antwoord.
[0:25:25] Heel goed om deze punten van u te horen.
[0:25:28] Met name ook ten aanzien van de handhaving.
[0:25:29] En dat we ook checken of de capaciteit er ook naar is.
[0:25:32] Want het is ook een snel veranderende wereld, zoals u zelf al eerder aangaf.
[0:25:35] Mijn tweede vraag ging ook toevallig over die verantwoordelijkheid van de platforms.
[0:25:39] En dan met name dat aanbevelingsalgoritme.
[0:25:43] Mijn vraag was vooral richting de heer Van Bohemen.
[0:25:45] Want ik was wel benieuwd...
[0:25:46] Er wordt dus onderzoek naar gedaan, steekproefsgewijs, en dan blijkt gewoon dat er niks wordt gedaan met die meldingen, dat het eigenlijk gewoon van kwaad tot erger lijkt te zijn ontwikkeld.
[0:25:57] En ik heb al eerder vragen gesteld rondom de landelijke verkiezingen, maar ik ben ook wel benieuwd of u al iets kunt meegeven aan ons wat voor betekenis dit heeft, ook voor de gemeenteraadsverkiezingen die daar aan zitten te komen.
[0:26:11] Dankjewel voor die vraag.
[0:26:12] Inderdaad, de extreme content die wij zien wordt ons inderdaad aanbevolen door het aanbevelingsalgoritme.
[0:26:17] Zodra het platform denkt dat je geïnteresseerd bent in, laten we zeggen, nazistische content, komt de ene naar de andere video.
[0:26:24] Het is niet zo dat wij die honderd video's gezocht hebben met
[0:26:26] Zoekwoorden ofzo.
[0:26:27] Je hebt de eerste gezien en daarna blijft het komen.
[0:26:31] Die honderd video's had ik binnen twee uur gevonden.
[0:26:33] Dat is inclusief het opslaan ervan, het rapporteren ervan.
[0:26:36] Er is eigenlijk een eindeloze stroom van die berichten.
[0:26:40] Dus eigenlijk zou ik wel een platform willen vragen.
[0:26:42] Waarom bevelen jullie extremistische content aan?
[0:26:45] De algoritme kan het perfect vinden.
[0:26:46] Die heeft er geen enkele moeite mee om het ene hakenkruis aan de andere te voort zijn te toveren, of de brandende vluchteling, of de gebombardeerde politicus.
[0:26:55] Dus op een of andere manier kunnen die algoritmes dat uitstekend vinden, maar de platformen weten niet hoe ze dat moeten modereren.
[0:27:01] Dat vind ik zelf heel wonderlijk.
[0:27:03] Dus daar zouden we, volgens mij, veel strakker op kunnen handhaven.
[0:27:08] En ook, ja, die algoritmes zouden ook transparant kunnen zijn over hun politieke voorkeuren.
[0:27:14] Want ieder algoritme heeft een voorkeur, dat is nog helemaal zo.
[0:27:16] Je kunt geen neutraal algoritme maken.
[0:27:19] Ja, het zou veel inzichtelijker zijn voor ons als platformer die tests te doen van...
[0:27:24] Een bericht met deze oriëntatie krijgt hier werkelijk evenveel aandacht als de andere, want wat we willen, volgens mij, is dat het publieke debat inclusief is, dat iedereen de kans krijgt om gehoord te worden.
[0:27:34] En dan zou het fijn zijn als we weten welke platformen, welke algoritme welke voorkeur heeft.
[0:27:39] En dat zouden we in deze zaak kunnen afdwingen, zouden we kunnen aanscherpen, die transparantie.
[0:27:43] Ja, en ook bijvoorbeeld die moderatie veel sterker kunnen maken.
[0:27:46] Nu zijn er rapportages over Zeeuw-Waag bijvoorbeeld.
[0:27:49] Er zijn honderd Nederlandstalige moderatoren,
[0:27:52] Hoe lang werken die mensen daar?
[0:27:53] Is dat één dag in het jaar?
[0:27:55] Is dat 100 FTA?
[0:27:58] Ja, er is helemaal geen duidelijkheid over of die moderatie wel op orde is.
[0:28:03] Dus ik zou eigenlijk aan de platform willen vragen, bewijs maar dat het veilig genoeg is voor iedereen.
[0:28:07] En dat zou het onder die voorwoorden moeten toestaan op onze markt.
[0:28:14] Dank.
[0:28:14] Ja, ik ga toch door naar mevrouw El-Boudjani en daarna kunnen we nog een rondje doen.
[0:28:18] Mevrouw El-Boudjani van D66.
[0:28:22] Ja, dank u wel.
[0:28:23] En sorry, ik kwam wat verlaat binnen, voorzitter.
[0:28:27] Maar dus ik heb wel een stuk gemist, helaas.
[0:28:30] Maar dank ook dat jullie hier dus zijn en dat ik dan alsnog mijn vraag mag stellen.
[0:28:34] Dus daar net op tijd voor.
[0:28:36] Mijn vraag gaat eigenlijk ook over de gemeenteraadsverkiezingen die staan om de hoek.
[0:28:41] Zien jullie eigenlijk ook
[0:28:43] richting de gemeenteraadsverkiezingen, dat daar ook de social media-inmenging zo groot is als dat dus ook is voor de landelijke verkiezingen?
[0:28:51] Of is het daar nog verschil tussen en zijn er misschien ook nog andere blinde vlekken die daar misschien bij komen kijken omdat het meer een lokale verkiezing is?
[0:29:03] De heer Van Boheem als eerst.
[0:29:06] Goed dat u vraagt naar de gemeenteraadsverkiezing.
[0:29:07] Inderdaad, bij ons observatorium zijn we opnieuw opgestart weer.
[0:29:10] We hebben natuurlijk de keywords en de kennis van de vorige keer gebruikt.
[0:29:14] En we zien eigenlijk dezelfde trends opnieuw.
[0:29:15] Dus die trollenlegers, die gekodoneerde campagnes waarmee berichten worden versterkt, die zien we opnieuw, zijn nog steeds actief.
[0:29:22] Ook nog steeds vanuit dezelfde West-Afrikaanse cluster, zeg maar.
[0:29:25] Inmiddels, vorig jaar hebben we er 550 gerapporteerd via RTL Nieuws.
[0:29:30] Nu zitten we op tienduizenden.
[0:29:32] Maar het is ook gewoon wat we beter weten waar we op moeten letten.
[0:29:34] Dus ja, die zijn zeker actief.
[0:29:36] We zien het gebruik van AI natuurlijk om geweld, discriminatie, om haat te verspreiden.
[0:29:41] Dat vindt nog steeds plaats.
[0:29:44] Ik zei aan het begin, de advertentiecampagnes, politieke advertentiecampagnes die niet zouden zijn toegestaan, hebben er inmiddels 250 geïndexeerd.
[0:29:51] Het zijn met name lokale politici.
[0:29:54] De meeste campagnes hebben een klein bereik.
[0:29:56] Ik denk misschien onschuldig omdat die politici misschien niet weten dat die regels bestaan.
[0:30:01] Maar ja, platformen beloven dat die attenties niet zouden worden getoond.
[0:30:05] Maar ze worden dus wel getoond.
[0:30:06] Dus dat is alweer een interessante observatie.
[0:30:09] En nog steeds ook als we content melden.
[0:30:12] Ik heb gisteren nog twintig natieberichten gemeld.
[0:30:14] Het blijft doorgaan.
[0:30:16] Je kunt daar een fulltime job aan hebben.
[0:30:18] Er is geen verandering ten opzichte van oktober.
[0:30:22] Een vervolgvraag van mevrouw El Boudjani van D66.
[0:30:26] Yes, dank u wel.
[0:30:28] Dus op het moment dat dat soort dingen worden gemeld richting de platformen, dat er dus politieke advertenties zijn, waar dus ook neppe informatie wordt verspreid of met AI-haatberichten, dan wordt daar dus niets mee gedaan en u ziet geen verandering daarin.
[0:30:47] Hoe werkt dat?
[0:30:48] Want u zegt wel dat u het daar meldt, maar komt er dan ook iets van een reactie op of iets?
[0:30:56] Als ik het over meldingen heb, heb ik het over de organische content die we melden.
[0:30:59] Dus dit zijn de dingen die gewoon aanbevolen worden en niet geadverteerd zijn.
[0:31:03] De reactie is meestal, of eigenlijk bij meta tot nu toe altijd, dat er geen overtreding wordt geconstateerd.
[0:31:08] En we melden het in de categorie dat de beelden haatdragende ideologieën zouden bevatten.
[0:31:13] Als iemand Heil Hitler hoept met een hakenkruis en de dood aan de Joden wenst... ...zou ik zeggen dat is toch wel een aandragende ideologie.
[0:31:20] Maar de moderatoren zeggen dan dat het geen overtreding van ons beleid is.
[0:31:27] Ja, dat verwondert ons.
[0:31:29] Dat slaan we dan op en verzamelen we.
[0:31:31] Maar ja, dat zijn dus wat mij betreft duidelijke overtredingen van de DSH.
[0:31:34] En advertenties, die melden we niet.
[0:31:36] Die zien we in de advertentielibrary.
[0:31:38] En dan moet ik zeggen, bij Meta kunnen we die zien.
[0:31:40] Bij X werkt de library überhaupt niet.
[0:31:42] Dus je kunt zoeken in de library, maar die genereert nooit een rapport, onafhankelijk van wat je erin vult.
[0:31:47] En bij TikTok hebben we ook sterk de indruk dat de resultaten die we krijgen niet overeen komen met de werkelijkheid.
[0:31:52] Het gaat om resultaten die niks te maken hebben met de zoekwoorden die je gebruikt, bijvoorbeeld.
[0:31:56] Dus de implementatie van die transparantieregisters is ook onvoldoende.
[0:32:00] Dat heb ik nog niet eens gehad over politiekreclame.nl, waar politieke partijen zouden moeten registreren.
[0:32:05] Die schiet ook tekort.
[0:32:07] Maar er zijn ook heel veel dingen die daar niet in gemeld worden.
[0:32:09] Dus de transparantie is nog veel flinker aangewerkt worden.
[0:32:15] Ik ga een beetje streng zijn, want mevrouw Rekowski heeft nog maar de kans gehad om één vraag te stellen.
[0:32:21] Dan kunnen we zo gewoon nog een rondje doen.
[0:32:24] Ik ben niet alleen uw voorzitter vandaag.
[0:32:25] Ik ben ook lid van de fractie van GroenLinks Partij van de Arbeid en zelf Kamerlid.
[0:32:31] Ik heb ook twee vragen voor de Post X Society.
[0:32:35] Die liggen in elkaars verlengde.
[0:32:37] U doet gewoon onderzoek.
[0:32:39] U deed onderzoek naar wat gebeurt er nou op die platform rondom de Nederlandse landelijke verkiezingen was dit.
[0:32:45] Daar gaat u gelukkig mee door.
[0:32:46] En ik zit nu weer ook weer 35 minuten naar uw bevindingen te kijken en ik blijf me toch, ik wil het ook niet normaliseren.
[0:32:54] Het is bizar, u heeft eigenlijk alles wat u zou kunnen vinden aan verkiezingsbeïnvloeding gevonden.
[0:33:00] Trollenlegers, generatieve AI, gewoon dagelijks meer dan een miljoen views, gewelddadige AI filmpjes gericht tegen lijsttrekkers, doodbedreigingen, discriminatie, onbewezen claims over verkiezingsfraude, Russische actoren zetten Nederlandse kanalen op
[0:33:18] om verkiezingen te beïnvloeden met beperkt bereik en 97% van het door ons gemelde evident extremistische content werd niet vermijderd.
[0:33:26] En dit is eigenlijk nog maar een hele kleine notendop van wat u allemaal heeft door opgeschreven en daaronder schrijft u ook nog eens op.
[0:33:33] Wij zijn slechts een observatorium, wij doen gewoon onderzoek.
[0:33:36] En ondertussen zijn wij zelf doelwit van een campagne vanuit de regering in de Verenigde Staten die maatschappelijk toezicht op platforms framet als censuur.
[0:33:45] En daar staan we dan vlak voor de verkiezingen en dan denken we elke keer, de slogan staat hier volgens mij nog steeds op de pui, de democratie is van ons.
[0:33:53] En dan heel vaak horen wij ook als Tweede Kamer, ja verkiezingsbeïnvloeding, gelukkig zien we het nog niet echt in Nederland, maar is dit nou verkiezingsbeïnvloeding in Nederland of niet?
[0:34:01] Dat is mijn eerste vraag.
[0:34:03] En mijn tweede vraag is,
[0:34:05] Dat is toch even goed om nog even helden voor de bril te hebben.
[0:34:08] Wie maakt dit nepnieuws?
[0:34:09] Waarom wordt dit gedaan?
[0:34:11] En met welk geld wordt dit gedaan?
[0:34:16] Als antwoord op uw vraag, is het verkiezingsbeïnvloeding?
[0:34:18] Ja, het is verkiezingsbeïnvloeding.
[0:34:19] Er zijn pogingen daartoe.
[0:34:20] Duidelijk zijn er partijen die dat willen.
[0:34:22] Er zijn mogelijkheden om dat te doen en het wordt ook daadwerkelijk gedaan.
[0:34:25] Dat tonen we aan.
[0:34:26] Alleen ja, de grote vraag die mij ook altijd wordt gesteld.
[0:34:29] Hoeveel verschil heeft het gemaakt?
[0:34:31] En dat is gewoon een hele moeilijke vraag om te beantwoorden, ook wetenschappelijk gezien.
[0:34:34] De communicatiewetenschappers kunnen me daar ook geen sluitend antwoord over geven.
[0:34:37] 1 miljoen views per dag.
[0:34:38] Ja, is het veel, is het weinig.
[0:34:40] Als je kijkt hoeveel mensen naar schermtijd besteden, is het een klein deel.
[0:34:44] Maar ja, als je elke dag...
[0:34:46] dit soort beelden voorbij zit komen, kan ik me niet anders voorstellen dat het een normaliserend effect heeft als je gewelddadige video's tegen politici regelmatig te zien krijgt.
[0:34:54] Dus ik denk wel degelijk dat het invloed heeft.
[0:34:56] Ik denk ook niet dat de actoren het zouden doen als het geen invloed zou hebben.
[0:34:59] Dus het feit dat ze het aan het doen zijn betekent volgens mij dat het invloed heeft.
[0:35:03] Wie het betaalt of wie er precies achter zitten, dat is jammer genoeg altijd heel lastig te bepalen, omdat de accounts zijn vaak anoniem.
[0:35:10] Heel soms inderdaad vergeet iemand zijn Sora-account op privé te zeggen en kunnen we achterhalen wie het was.
[0:35:15] Of kunnen gebruiken mensen namen dubbel en dan komen we erachter.
[0:35:19] Maar over het algemeen is het niet te achterhalen.
[0:35:21] En ook niet wie het financiert.
[0:35:23] Ik zou ook niet durven om naar West-Afrika te gaan en daar te gaan vragen van wie heeft dit betaald.
[0:35:27] Ik weet niet of ik dan terugkom.
[0:35:29] En wat betreft de censuraantijgingen, die zijn gewoon heel serieus.
[0:35:33] Het is vanuit de Verenigde Staten onze organisatie ook aangemeld als censuur NGO.
[0:35:37] Terwijl wij komen alleen maar op voor de vrijheid en veiligheid van het publieke debat.
[0:35:41] Dus dat is ook enigszins angstaanjagend.
[0:35:43] En als dat doorgaat, dan zit ik hier niet de volgende keer weer, maar zit ik hier met een plaksnor en een pruik onder een schel naam.
[0:35:48] Ja, want dat is natuurlijk wel de realiteit.
[0:35:51] Dus ik zou ook veel vragen aan het parlement om meer te doen in de bescherming van maatschappelijke organisaties en ook de structurele financiering van dit soort initiatieven.
[0:36:01] Dank voor het antwoord en is nu het woord aan mevrouw Rijkhofsky van de VVD.
[0:36:05] Ja, dank voorzitter.
[0:36:06] Dan inderdaad toch de vraag.
[0:36:07] Als ik naar de Digital Services Act kijk, dan hebben we inderdaad volgens mij de tools al om ook vanuit de Europese Commissie te zeggen, hoi, Silicon Valley, laat jullie algoritme maar zien en laat wetenschappers daar naar kijken.
[0:36:19] Dat is tot dusver volgens mij nog niet gebeurd.
[0:36:22] Ondertussen constateren wij dus dat de verkiezingen, dat er wel degelijk pogingen worden gedaan om onze verkiezingsuitslag te beïnvloeden.
[0:36:30] Op een manier die wij niet zouden willen.
[0:36:33] Er zijn dus tools om in te grijpen.
[0:36:35] Daar vraag ik me eigenlijk af, heeft dan inderdaad het wachten op een soort van vrijwillige, een soort van vrijwilligheid, is dat nou echt het punt waar we op staan?
[0:36:45] Of zouden we nu moeten zeggen, in een onrustige wereld die alleen maar onrustiger wordt,
[0:36:49] Wij moeten er nu voor gaan zorgen dat ook onze democratie niet aangevallen wordt op witte social media platformen.
[0:36:56] Of dan maar niet in Nederland.
[0:36:58] Vraag mevrouw Van Beurden.
[0:37:01] Misschien toch goed om te zeggen dat we rondom verkiezingen ook nog extra maatregelen nemen.
[0:37:09] Dat hebben we bij Landelijk gedaan en doen we ook.
[0:37:12] Rondom gemeenteraadsverkiezingen hebben we dat weer ingericht met het ministerie van Binnenlandse Zaken.
[0:37:17] Daar komen we regelmatig bij een met de inlichtingdienst om te kijken wat het dreigingsbeeld is.
[0:37:20] De minister van Binnenlandse Zaken heeft ook de mogelijkheid om te melden bij de ACM, om te zorgen dat de ACM daar ook op gaat acteren.
[0:37:28] Dus die lijnen zijn er ook.
[0:37:30] De minister heeft ook de status van trusted flagger tijdens verkiezingsprocessen.
[0:37:34] Dus die lijnen zijn echt korter en scherper.
[0:37:37] Daar zitten we bovenop.
[0:37:38] Ik wil het toch ook nog een keer herhalen, dat hoewel we echt zien en ons daar ook echt grote zorgen over maken, dat die pogingen er echt zijn en die zien we ook, maar dat het tot nu toe niet te vergelijken is met wat we zien in grotere landen om ons heen, in wat we in Romenië hebben gezien, Duitsland.
[0:37:54] Dus dat het echt nog wel wat ons betreft anders is, wat niet wil zeggen dat het hier nooit zou kunnen gebeuren en daarom volgens mij ook zijn we blij met wat er in het...
[0:38:02] een coalitieakkoord staat aan wat zouden we nog meer kunnen doen aan desinformatie en moeten doen.
[0:38:08] En tegelijkertijd ben ik het wel eens met...
[0:38:10] Er zijn echt heel veel juridische mogelijkheden al.
[0:38:14] En moeten we toch echt bezien hoe we daar nu meer gebruik van kunnen maken, hoe we daar goed op kunnen handhaven.
[0:38:20] ACM heeft recent ook een onderzoek gestart naar bijvoorbeeld Roblox.
[0:38:23] Doen ze daar voldoende om minderjarigen te beschermen?
[0:38:26] En we hebben naast de DSA ook nog de...
[0:38:29] Ik moet wel even nadenken waar de afkorting voor staat, maar dat terrorisme online inhoudt, volgens mij.
[0:38:34] Dat is de basis waarop de autoriteit tegen kinderpornografisch materiaal en terroristisch materiaal werkt.
[0:38:41] En die hebben ook de mogelijkheid om dat te melden en dan moet dat binnen een uur verwijderd worden.
[0:38:46] Dus we hebben best wel wat instrumenten en tegelijkertijd is ook de omvang van waar we naar kijken ook heel groot.
[0:38:53] Mevrouw Van Huijzen, wil je graag nog iets toevoegen?
[0:38:56] Ja, dank je wel.
[0:38:58] Jullie vragen gaan terecht natuurlijk over... Komt het voor in Nederland en zien we het gebeuren?
[0:39:04] Ik denk dat het daarnaast ook echt heel belangrijk is om te wijzen op de mogelijkheden dat het altijd kan gebeuren, doordat die aanbevelingsalgoritmes zo werken zoals ze zijn ingericht.
[0:39:13] Dus zelfs als het nu...
[0:39:14] nog niet op grote schaal gebeurt, dan...
[0:39:17] Het ligt wel klaar, de rode loper ligt klaar, het instrumentarium is beschikbaar en dat kan worden opgepakt.
[0:39:23] En ja, daar hebben we tools voor om ons tegen te beschermen via de DSH.
[0:39:29] Maar dan moeten we meer informatie krijgen van de platform Hoe Dingen Werken.
[0:39:33] En jullie spreken straks met hem.
[0:39:35] En wij hebben dankzij dat onderzoek inmiddels echt wel goed zicht op wat we niet weten.
[0:39:43] Van wat moeten we nou weten?
[0:39:45] En wat we moeten weten is, als er zo'n post is die Post X Society heeft gemeld,
[0:39:51] Hoe ver is die eigenlijk al verspreid geweest over dat platform?
[0:39:57] Hoeveel mensen hebben dat gezien?
[0:39:59] Heeft dat aanbevelingsalgoritme dat aangeboden of niet?
[0:40:03] En was dat in lijn met de voorkeur van die persoon of is dat buiten die voorkeur geweest?
[0:40:10] Want dat is ook echt wel belangrijk om te realiseren, dat die aanbevelingsalgoritme een wijziging hebben betekend in welke...
[0:40:20] content mensen ontvangen, dus dat je niet alleen maar ziet wat je hebt gevolgd of waar je naar vraagt, maar dat je ook dingen krijgt waar je niet naar vraagt.
[0:40:28] De aanname van de platformen is dat dat is wat mensen willen zien.
[0:40:33] De vraag is of dat altijd zo is, maar dat kunnen we niet weten, omdat we niet mee kunnen kijken bij de werking van het algoritme.
[0:40:41] Wat we zouden willen weten, is wat we allemaal zouden
[0:40:45] willen weten is hoe ver heeft zo'n post dan is die verspreid?
[0:40:49] Is die opgepikt door het aanbevelingsalgoritme?
[0:40:52] Welke weging is daar gemaakt in dat algoritme?
[0:40:55] Dus waarom wordt zo'n post opgepikt?
[0:40:58] En hebben ze het ook, hebben ze naar aanleiding van meldingen ook een algoritme aangepast?
[0:41:06] En wat was daarvan het effect?
[0:41:07] Dus als je minder op engagement stuurt, is er dan ook inderdaad minder polariserende content?
[0:41:12] Wordt die dan ook minder verspreid?
[0:41:15] helpt het om zo'n bridging-bevelingsalgritme te gebruiken.
[0:41:20] Al dat soort zaken, dat weten we eigenlijk niet.
[0:41:22] Die voorstellen liggen klaar, maar we kunnen het niet zien, omdat we die steekproeven niet kunnen doen.
[0:41:26] Terwijl platformen kunnen dat heel goed wel doen.
[0:41:29] Na heel interessant onderzoek waar we op zijn gestuurd,
[0:41:34] Dat was toen Twitter overstapte van een chronologische tijdlijn naar een aanbevelingsalgoritme.
[0:41:40] Toen was het nog Twitter, hebben ze een deel in een controlegroep gehouden, een deel van de gebruikers,
[0:41:47] om niet in het aanbevelingsalgoritme mee te gaan.
[0:41:49] Nou, dan kun je heel goed zien welk content wordt nu anders verspreid.
[0:41:53] In die positie zitten platformen.
[0:41:54] En daar zouden onderzoekers ook op mee moeten kunnen kijken, en jullie trouwens ook.
[0:41:59] En daar biedt de DSH ook weer handvatten voor.
[0:42:01] Die moeten we dan wel gaan gebruiken.
[0:42:03] En als er toegang wordt gevraagd en niet wordt gegeven, handhaaf daar dan ook op.
[0:42:11] Ja.
[0:42:11] U heeft nog een vraag, mevrouw Rijckhofs, want die heeft u net maar ingesteld.
[0:42:17] Ja.
[0:42:22] Ja, dan misschien toch nog een vraag.
[0:42:25] En ik weet dat het steeds diffuser en steeds moeilijker wordt om te herleiden waar ook pogingen tot beïnvloeding, trollenlegers, waar die vandaan komen.
[0:42:34] Soms kan je met een beetje zoeken toch wel redelijk een flatgebouw in St. Petersburg bijvoorbeeld te aanwijzen.
[0:42:40] Ik ben ook drie jaar weg geweest als woordvoerder digitale zaken.
[0:42:45] Zijn er nou de afgelopen drie jaar, even nog los van wat jullie in je position papers hebben geschreven, zijn er ontwikkelingen als het gaat om beïnvloeding van uitstatelijke actoren?
[0:42:53] Is de toon veranderd of is misschien ook de afzender veranderd?
[0:43:03] Wat ons is opgevallen is dat we bijvoorbeeld een aantal jaren geleden geen Nederlandstalige kanalen konden vinden die door Rusland werden aangestuurd.
[0:43:13] Dat was nauwelijks te vinden, terwijl nu zijn er gewoon Nederlandstalige websites waarvan heel duidelijk is dat die vanuit Rusland worden gestuurd.
[0:43:20] de Russische narratieven, zoals de inlichtingdiensten hier noemen, verspreiden.
[0:43:24] En ook Telegram-kanalen die in het Nederlands zijn, terwijl voorheen vonden we die alleen in het Engels of in het Frans of in het Duits.
[0:43:30] Dus het is wel duidelijk dat daar een verschuiving gaande is en dat er dus zekere pogingen worden gedaan.
[0:43:34] Alleen het bereik is dan best klein, moet ik er gelijk bij zeggen.
[0:43:36] Het zijn kanalen met enkele duizenden deelnemers of websites.
[0:43:40] Maar dan is weer de vraag, is het de bedoeling dat mensen die lezen, of is het de bedoeling om bijvoorbeeld chatbots te beïnvloeden door heel veel teksten te schrijven over een bepaald onderwerp?
[0:43:47] We weten dat mensen steeds vaker chatbots gebruiken om vragen te stellen over de staat van zaken in de wereld.
[0:43:52] Nou, als je dus heel veel pagina's in het Nederlands schrijft die iets beweren, bijvoorbeeld dat Oekraïne door oorlog is begonnen tegen Rusland, dan kan het zijn dat op een gegeven moment zo'n taalmodel dat gaat recluseren.
[0:44:00] Dus dan is het hele doel van die website niet om bezoekers te trekken, maar alleen om taalmodellen te trainen.
[0:44:06] Dus dat is een opvallende verschuiving, zou ik zeggen, qua bestaatlijke actoren.
[0:44:10] En de klussers die we bijvoorbeeld in Zuidoost-Azië of in West-Afrika vonden, daar weten we niet zeker wie erachter zit.
[0:44:16] Zeker in Vietnam, die heeft gewoon een website waar je een creditcard kunt invullen.
[0:44:20] Dat kan iedereen zijn geweest.
[0:44:21] Dus ja, dat is heel lastig.
[0:44:23] Dat is iets aan inlichtingendiensten of andere forensische experts om dat uit te zoeken.
[0:44:30] Misschien in aanvulling daarop, ik deel dat beeld overigens, we hebben daar ook over geschreven in ons strijdingsbeeld, staatelijke actoren, wat we uitgebracht hebben.
[0:44:39] Wat wij denken is dat we echt wel zien, omdat het gewoon in algemene zin geopolitiek een stuk ongezelliger geworden is, dat ook hierdoor staatelijke actoren echt meer in investeren, dus dat er meer
[0:44:50] capaciteit, geld gaat naar desinformatiecampagnes.
[0:44:54] Ik denk ook goed om te beseffen dat wij niet bovenaan het lijstje van doelwitten staan.
[0:44:59] Maar goed, dat is geen reden om je geen zorgen te maken, want dat kan ook zomaar veranderen.
[0:45:04] En dus zou ik nog een keer willen aanhalen dat ik ook erg blij ben met wat dat betreft het coalitieakkoord.
[0:45:09] Wat daar ook zegt, dat we moeten kijken naar voorbeelden zoals in Duitsland, Frankrijk.
[0:45:13] In Frankrijk hebben ze een visionum opgericht om echt te kijken hoe kan je nou een organisatie inrichten en van het juiste wettelijke kader ook voorzien om dit type van uit het buitenland afkomstige des- en misinformatie te detecteren en vervolgens ook de mogelijkheden te hebben om dat te verwijderen.
[0:45:30] Erg belangrijk, denk ik.
[0:45:34] Dan de heer Dassen van Volt.
[0:45:37] Dank voorzitter.
[0:45:38] Ergens is het ook wel gek dat wij hier allemaal constructieve oplossingen proberen te vinden hoe we deze platform veiliger kunnen houden terwijl, zover ik het zie, deze bedrijven gewoon lak hebben.
[0:45:50] aan de voorstellen die gedaan worden, aan het vrijgeven, aan het mogelijke onderzoeken.
[0:45:55] De heer Van Bohemen, u schrijft het heel mooi, de regering en technologiebedrijven in de Verenigde Staten beschouwen de Europese democratie als obstakel voor hun economische en ideologische belangen.
[0:46:05] Ik ben benieuwd, kunt u daar iets meer duiding aan geven en ook hoe dat vanuit de Verenigde Staten doorwerkt bij deze bedrijven binnen Europa?
[0:46:13] We hebben ze hier dadelijk en we krijgen daar waarschijnlijk hele mooie verhalen te horen.
[0:46:18] Maar ik ben benieuwd hoe deze zin ook doorwerkt binnen deze bedrijven.
[0:46:24] Ik beschreef net wel dat we dat zelf ervaren, dat we zelf als censuur NGO worden gekwalificeerd vanuit het Huis van Afgevaardigden.
[0:46:30] Ik denk dat iedereen zich kan herinneren wat JD Vance heeft gezegd in München vorig jaar.
[0:46:35] De Verenigde Staten-Europa ziet het als een continent wat antidemocratisch zou zijn, of in ieder geval in verval.
[0:46:44] Wat zou doen aan internetcensuur?
[0:46:45] Dus dat rapport vanuit het Huis van Achtervervallen kan ook niet helemaal uit de lucht vallen.
[0:46:48] Dat heeft een heel aanlopende historie.
[0:46:51] We weten dat bijvoorbeeld eigenaren van technologiebedrijven...
[0:46:54] Misschien een van de bekendste, Elon Musk, sympathisant is van bijvoorbeeld het AFD, dus de alternatief voor Duitsland in Duitsland.
[0:47:02] We weten dat, ja, hooggeplaatste politici in de VS, bijvoorbeeld Viktor Orbán, aanbevelen in verkiezingen.
[0:47:09] Dus we zien dat gewoon gebeuren.
[0:47:11] Dus ik zou ook zeggen, ja, we kunnen gaan afwachten tot het dan misgaat hier, of we kunnen
[0:47:16] ...ja, ik zou zeggen, het voorzorgsprincipe toepassen en zeggen... ...hé, we weten dat deze partijen een agenda hebben, een national defence strategy... ...je kunt ook gewoon lezen wat daarin staat... ...dat ze van plan zijn om bepaalde partijen te steunen in Europa... ...en bepaalde partijen het lastiger te maken.
[0:47:31] Dat zijn ideologische en economische doelen.
[0:47:34] Dat gaat gebeuren waarschijnlijk.
[0:47:35] Wat gaan we daar tegenover stellen?
[0:47:37] Dus ik zou dus voorstellen... ...zet een nationaal programma op om onze democratie digitaal weerbaarder te maken...
[0:47:42] En probeer die macht van die techbedrijven, die laconieke houding zou ik willen zeggen, die ze hebben ten opzichte van het voldoende aan de wetgeving.
[0:47:51] Probeer die macht te verkleinen, want die macht is geen natuurgegeven ofzo, dat er technisch grote techbedrijven moeten zijn.
[0:47:56] Er zouden prima ook kleine techbedrijven moeten zijn, sterker nog.
[0:47:59] Wij als samenleving staan toe dat ze zo groot zijn.
[0:48:01] We kunnen ze reguleren, bijvoorbeeld door een verdienmodel te reguleren, persoonlijke advertenties.
[0:48:05] bijvoorbeeld door open protocollen te vereisen, zoals net was vandaag het nieuws, dat je nu vanuit WhatsApp naar een andere app kan chatten.
[0:48:13] Als we dat zouden verplichten, dus die interoperabiliteit en dataportabiliteit, dat zijn een beetje lastige woorden, maar het is gewoon heel praktisch dat je kunt wisselen tussen platformen, dan zouden we een veel meer kleinere platform kunnen hebben en ook die machtspositie dus kunnen verkleinen.
[0:48:26] Het is heel vreemd dat we nu de discussie moeten voeren over
[0:48:29] techbedrijven reguleren of Ukraïne steunen, zeg maar.
[0:48:32] Dat is een beetje het niveau nu.
[0:48:33] En dat hebben we zelf gecreëerd door dat toe te staan.
[0:48:36] Dat kunnen we ook terugdraaien.
[0:48:40] Dan is het woord aan mevrouw Swinkels van het CDA.
[0:48:43] Ja, dank u wel, voorzitter.
[0:48:44] Ja, ik heb in deze tweede ronde eigenlijk wel een vervolg gevraagd ten aanzien van die handhaving, want ik zou daar heel graag wat concreter met elkaar op in willen gaan.
[0:48:52] Ik heb al eerder inderdaad mondelingen vragen gesteld over Roblox.
[0:48:54] Nou, er komt inderdaad een onderzoek vanuit ACM.
[0:48:57] Weer een onderzoek.
[0:48:57] Nou, heel goed, maar ja, weer een onderzoek.
[0:49:00] Er komt er een assessment vanuit BZK, het ministerie.
[0:49:05] Ja, dat krijg ik van de week ook weer te horen, totdat eigenlijk, ja, ook dan wel weer misschien leidt tot een input voor een campagne.
[0:49:10] Ja, ik word daar dan...
[0:49:12] Er zit nog zoveel vrijblijvendheid en inderdaad ook wel degelijkheid in, maar kunnen we nu echt gewoon hard optreden wanneer we die misstanden zo overduidelijk zien plaatsvinden?
[0:49:23] Dat wil ik eigenlijk wel weten ten aanzien van die handhaving.
[0:49:26] Zijn er voorbeelden van gewoon hele stevige boetes?
[0:49:28] Zijn er voorbeelden dat we daadwerkelijk ook een app op zwart hebben gezet?
[0:49:32] Dat soort voorbeelden ben ik wel benieuwd naar om ervoor te kijken.
[0:49:37] Doen we dan ook wat nodig is met elkaar en kunnen we daar dan ook de ACM ook daartoe in positie brengen vanuit de politiek of een andere toezichthouder.
[0:49:47] Wie wilt u de vraag als eerste stellen?
[0:49:50] Aan iedereen.
[0:49:52] Aan mevrouw van Huistee dan om te beginnen deze keer.
[0:49:55] Dank u wel.
[0:49:57] Als het gaat over de grote platformen, dan is de Europese Commissie aanzet.
[0:50:01] Die heeft het mandaat van het toezicht over de grote platformen.
[0:50:07] En er lopen momenteel twee onderzoeken, welweer onderzoeken, zowel naar X als naar TikTok, die ook relevant zijn voor de verkiezingen.
[0:50:15] Dus het gaat echt over de werking van hun aanbevelingen, dus algoritme, en of die misbruikt kunnen worden.
[0:50:20] En dat kan inderdaad dan leiden tot fikse boetes.
[0:50:25] Dat is absoluut waar.
[0:50:27] Tegelijkertijd, die boetes, tot nu toe hebben die nog weinig effect gehad.
[0:50:30] En grote techbedrijven hebben ook hele diepe zakken.
[0:50:36] En ze duren nogal lang, dus daar kan wel een tandje bij.
[0:50:38] Dat kan sneller.
[0:50:40] Maar dat zijn wel stevige onderzoeken.
[0:50:42] Er zou meer onderzoek kunnen komen.
[0:50:45] Ik ben het er helemaal eens met wat meneer Van Bohemen zegt.
[0:50:50] Dat die platformen zo groot zijn, dat hebben we wel ook zelf laten gebeuren.
[0:50:53] Dus daar zit ook wel een kans van de zaak van als er meer ingezet wordt ook op alternatieve sociale mediaplatformen en die interoperabiliteit.
[0:51:02] We zitten nu ook met z'n allen vast op dat plein, want het is ook menselijk dat je met z'n allen van elkaar op dat plein wil zijn.
[0:51:07] Maar als die pleinen zijn verbonden met elkaar, dan kun je van het ene plein het andere plein zien en dan wordt het een stuk makkelijker en beheersbaarder ook.
[0:51:16] om, nou ja, de verspreiding van content en die impact te verkleinen.
[0:51:20] Dus ja, de handhaving door de Europese Commissie gebeurt al, maar kan echt nog wel sneller en steviger.
[0:51:30] Maar er zijn ook andere zaken nog nodig naast die handhaving en dat is die weerbaarheid vergroten, waar ook mijn medesprekers het over hebben gehad.
[0:51:38] En ja, dan gaat het echt over dat we onze eigen systemen hebben en onze eigen sociale media en...
[0:51:45] Maar ja, ook gewoon investeren in journalistiek en in onderzoek en in detectieorganen, dat soort zaken.
[0:51:53] Dank u en dan is het woord aan mevrouw El Boudjani van D66.
[0:51:59] Ja, dank u wel.
[0:52:01] En ik ben eigenlijk wel benieuwd, want ik hoor u zeggen investeren in een detectieorgaan, want zijn er al indicatoren daarvoor voor vroege detectie van inmenging op sociale media?
[0:52:15] Dus is het iets wat inderdaad al in een vroeg stadium gedetecteerd kan worden, zodat u in een vroeg stadium ook al kunt bijsturen, kunt signaleren en dat het dus voorkomen zou kunnen worden?
[0:52:31] Ja en nee, die zijn er deels.
[0:52:34] Ik zeg altijd, geef mij een uurtje in de serverroom van Evening Tech bedrijven en ik trek zo al die trollen tevoorschijn.
[0:52:40] Omdat voor een heel groot deel dat accounts actief zijn vanuit Nigeria of Ivorcus in het Nederlands publieke debat.
[0:52:47] Dat is gewoon obvious.
[0:52:49] Zeker vanuit de positie van de techbedrijven kan je dat gewoon direct zien.
[0:52:52] Ook vanuit Vietnam, als er een video van de PvdA 2000 keer geliked wordt door accounts vanuit Vietnam, dat is gewoon direct te zien.
[0:52:59] Die indicatoren zijn heel duidelijk en ook andere indicatoren, dat accounts allemaal dezelfde.
[0:53:04] Profielfoto hebben, allemaal dezelfde namen hebben, allemaal op hetzelfde moment een bericht te plaatsen.
[0:53:09] Het zijn hele eenvoudige indicatoren waarmee wij die netwerken dus ook opsporen.
[0:53:15] Die zijn gewoon bekend.
[0:53:16] En ook ja, indicatoren voor extremisme, ja ze gebruiken gewoon de logo's van extremistische partijen.
[0:53:22] Dus dat is ook wat mij betreft heel duidelijk op te sporen.
[0:53:26] En dan is het enigszins frustrerend dat dan in die transparantie rapportage staat, ja we hebben zoveel procent verwijderd of zoveel miljoen berichten, zoveel procent
[0:53:34] Ik wil niet weten of een fabriek zeg maar 10 kilo gif heeft verwijderd uit zijn uitstoot.
[0:53:38] Ik wil weten hoeveel gif er nog in de uitstoot zit.
[0:53:42] En daar zijn ook allerlei standaarden voor.
[0:53:44] Ook voor de politieke oriëntatie van algoritmes.
[0:53:47] Die worden gemeten ook voor chatbots.
[0:53:48] Die kun je ook meten voor aanbevelingsalgoritmes.
[0:53:50] Er zijn standaarden voor.
[0:53:51] Die zouden we kunnen implementeren.
[0:53:53] We zouden die statistieken in die transparantierapporten veel inzichtelijker kunnen maken.
[0:53:58] Ja, die zijn er.
[0:54:00] Die kunnen we misschien ook even toesturen na afloop.
[0:54:03] Dus dat is zeker te organiseren.
[0:54:06] Die zouden we veel meer moeten implementeren.
[0:54:07] En niet genoeg moeten nemen met vrijblijvende statistiekjes.
[0:54:12] Mevrouw Swinkels, als u heel kort bent en dan één iemand vraagt... Ja, die kans laat ik me niet ontzeggen.
[0:54:19] Dank u, voorzitter, voor die coulantse.
[0:54:21] Dan heb ik nog een korte vervolgvraag richting de heer Van Boheem, want die gaf volgens mij ook de suggestie om een app ook op zwart te kunnen zetten.
[0:54:28] Kan hij daar nog iets over toelichten, hoe snel we dat kunnen doen vanuit die handhavingskant?
[0:54:36] Er is een mogelijkheid volgens mij in het DSA, maar ik kijk ook even naar mijn buren, die weten het misschien nog beter.
[0:54:40] Er is een mogelijkheid om een platform uiteindelijk te verbieden.
[0:54:42] Maar volgens mij is dat de ultieme laatste optie.
[0:54:48] Ik denk dat we daar veel harder in zouden kunnen en moeten zijn.
[0:54:51] Maar het moeilijke is natuurlijk, we zijn allemaal enorm afhankelijk van die platformen en ze brengen ook heel veel goeds.
[0:54:55] Ik ben niet tegen sociale media of iets dergelijks.
[0:54:57] Dus dan kom je dus bij het belang van interoperabiliteit.
[0:55:02] Dus als je zegt, oké, we sluiten en ik zeg maar even wat of x, omdat we dat...
[0:55:05] Maar er zouden mensen nog steeds berichten met elkaar kunnen uitwisselen via een alternatief.
[0:55:09] Maar daar moeten we wel die interoperabiliteit voor organiseren, dat we niet afhankelijk zijn van één zo'n aanbieder.
[0:55:15] Dan lijkt het mij, net zoals met de parkeergarage wat ik net zei, als we ergens een scheur zien, dan sluiten we de parkeergarage en dan komen we eerst even kijken of het veilig is en dan gaat die weer aan.
[0:55:23] Nou, dat zouden we volgens mij met sociale media ook prima kunnen doen... als we dus organiseren dat die alternatieven kunnen werken... en met elkaar kunnen, ja, interoperabiliseren... Hoe noem je dat?
[0:55:32] Kunnen we...
[0:55:33] Zo.
[0:55:34] Intramodaliseren, inderdaad.
[0:55:37] Heel veel dank voor uw antwoord.
[0:55:39] En dan moeten we plaats gaan maken voor de gasten van het volgende blok.
[0:55:42] En ik wil u ongelooflijk danken voor uw aanwezigheid... en voor het delen van uw kennis.
[0:55:47] En de heer Van Boyen, als u ons dat nog toe zou willen sturen, heel graag.
[0:59:19] En we gaan van start met blok 2.
[0:59:22] We hebben nog hierna één blok te gaan.
[0:59:23] Blok 2, de online platformen van de rondetafel Sociale Media en Inmenging.
[0:59:28] En op de eerste plaats wil ik onze gasten van blok 2 ook van harte bedanken dat u op onze uitnodiging om met ons in gesprek te gaan bent ingegaan.
[0:59:38] En ik wil u graag van harte welkom heten de heer Havenman, Head of Public Policy Netherlands, Belgium en Luxemburg van Meta.
[0:59:46] De heer Marjan Huijzer, Public Policy Manager Benelux van TikTok.
[0:59:52] En mevrouw, ik zeg het denk ik goed, Antic.
[0:59:57] Antiek.
[0:59:57] Oh, gewoon Antiek.
[0:59:58] Ja, dan zei ik het is helemaal niet goed.
[0:59:59] Antiek, Legal Lead van Google Nederland.
[1:00:03] Fijn dat u er bent.
[1:00:03] En ook voor u geldt dat u ons een position paper heeft toegestuurd.
[1:00:09] Die hebben we allemaal tot ons kunnen nemen.
[1:00:11] Maar ook u zou ik willen vragen om daar nog even een korte introductie bij te doen.
[1:00:16] En dan is als eerste het woord aan de heer Havenman van Meta.
[1:00:21] Dank u wel, voorzitter.
[1:00:22] En hartelijk dank voor de uitnodiging en de gelegenheid om hier in de Tweede Kamer te mogen zijn en te spreken.
[1:00:28] Ik ben Edo Haafman, hoofdpublicpolicyformat en ik ben in de LUKS.
[1:00:31] De onderwerpen zoals genoemd in de uitnodiging zijn erg belangrijk.
[1:00:35] Het is natuurlijk goed dat de Kamer zich hiermee bezighoudt en zich hierover breed wil informeren.
[1:00:40] Tegelijk worstelde ik wel een beetje mee dat er heel veel in de uitnodiging stond en heel veel brede vragen neergelegd werden.
[1:00:47] Op zich terecht, want online is een breed ecosysteem met allerhande actoren en allerhande mechanismes die invloed hebben op wat er gebeurt in de maatschappij en omgekeerd.
[1:00:58] Maar kan het idee dat er in de uitnodiging wel erg werd ingezoomd op één zo'n mechanisme?
[1:01:03] Zijn er personalisatie en algoritmes en één beperkte groep stakeholders, social media?
[1:01:08] Simpel gezegd, er missen een paar andere partijen en niet alleen die niet wilden komen.
[1:01:14] En ik denk dat we ook moeten kijken op wat voor manieren en via welke instrumenten mensen online tools gebruiken en dat ook breed beschouwen en zeker ook voorbij enkel algoritmes kijken.
[1:01:25] Ik heb geprobeerd in mijn striftelijke inbreng vooral in te gaan op verkiezingen en hoe Merten zich daarop voorbereidt.
[1:01:30] En in de kern, Merten neemt het onderwerp verkiezingen zeer serieus.
[1:01:34] We hebben de afgelopen decennium tientallen miljarden geïnvesteerd in veiligheid en beveiliging.
[1:01:40] En ook voor de Tweede Kamerverkiezingen afgelopen oktober hebben we ons zeer gedegen voorbereid, maar zie daarvoor meer dan thuis, zeker de paper.
[1:01:48] Daarnaast verwijs ik ook graag naar de gedeelde video over personalisatie, die ook publiek beschikbaar is en ik hoop ook dat iedereen die heeft kunnen bekijken, waarin eigenlijk uitgelegd wordt hoe algoritmes en personalisatie eigenlijk werkt.
[1:02:00] Leek me wel toepasselijk.
[1:02:02] En in dat kader wil ik ook benadrukken dat juist personalisatie ervoor kan zorgen dat kwalijke content geremd kan worden en minder zorgelijke content in mensen hun tijdlijn komt.
[1:02:14] Het is een onderwerp waar best veel verwarring over is, maar het juist een cruciale schakel is in het veilig, prettig en leuk houden van het internet.
[1:02:24] En juist een niet gepersonaliseerde ervaring kan de kans vergroten dat bijvoorbeeld tieners content tegenkomen die niet bij hun leeftijd past.
[1:02:33] en om nog iets dieper in die verwarring te duiken.
[1:02:37] In de uitdaging die ik van uw Kamer mocht ontvangen voor deze bijeenkomst stond een expliciete verwijzing naar NCTV-rapporten als het ging om radicalisering en de rol van algoritmes.
[1:02:46] Graag licht ik één zin uit die rapporten uit, namelijk die op pagina 3, de samenvatting.
[1:02:53] De rol, en dit is een quote, de rol van aanbevelingsalgoritmes bij rechtsextremistische radicalisering binnen de online context is volgens recent wetenschappelijk onderzoek beperkt.
[1:03:03] Einde citaat.
[1:03:05] Goed, neemt niet weg dat het onderwerp radicalisering een belangrijk onderwerp is dat volop aandacht behoeft en daarom werken we ook hier met de NCTV goed op samen, maar niet vanuit een eendimensionale benadering.
[1:03:19] Laten we geven de tijd het hierbij later.
[1:03:21] Dank voor de aandacht en ik sta uiteraard open voor eventuele vragen.
[1:03:26] Dank voor uw bijdrage en dan is het nu het woord aan de heer Marchandhuizer van TikTok.
[1:03:35] Dank je wel voor de uitnodiging en altijd goed om ook in een nieuwe kamer weer te kunnen aanschuiven namens TikTok.
[1:03:41] Een hele korte huishoudelijke medeling van mijn kant.
[1:03:43] Ik moet na dit blok vertrekken omdat ik mijn zoontje van de kinderopvang moet ophalen.
[1:03:47] Dus als u mij zo ziet wegrennen, dan weet u waardoor het komt.
[1:03:52] TikTok heeft meer dan 200 miljoen gebruikers in Europa en 6,7 miljoen gebruikers in Nederland.
[1:03:58] Onze missie is om creativiteit te stimuleren en plezier te brengen.
[1:04:02] En dat is niet altijd makkelijk, omdat we ook weten dat er kwaadwillende actoren zijn die misbruik willen maken van de platform, zeker in verkiezingstijd.
[1:04:11] We weten daarom ook dat dit soort aanvallen, gedrag, soorten content extra aandacht verdienen het hele jaar lang, maar zeker in aanloop naar een Tweede Kamerverkiezing of een gemeenteraadsverkiezing.
[1:04:22] Onze strategie om dat rondom verkiezingen aan te pakken is eigenlijk gestoeld op drie pijlers.
[1:04:29] Maatregelen om direct de integriteit van de platform te beschermen.
[1:04:33] Dat zijn bijvoorbeeld de moderatie van content.
[1:04:36] Wat willen we op de platform zien en wat willen we niet zien en hoe doen we dat?
[1:04:40] Maar ook, hoe gaan we geheime beïnvloedingsoperaties tegen?
[1:04:43] Daar kunnen we misschien later nog iets over verder praten, maar er zijn verschillende soorten vormen van beïnvloeding of inauthentiek gedrag.
[1:04:50] Niet alles is een gerei, maar een beïnvloedingsoperatie.
[1:04:53] En elk van dat soort gedragingen vergt een eigen aanpak, een eigen technologie, een eigen intelligence, om het zo maar te zeggen.
[1:05:02] Als tweede, het hulp bieden aan gebruikers vinden we heel erg belangrijk.
[1:05:06] Dus hoe kunnen we onze gebruikers, de kiezers, de burger, goed informeren over wanneer zijn verkiezingen, hoe kunnen ze stemmen, is daar betrouwbare informatie over?
[1:05:15] Dus in Nederland doen we dat bijvoorbeeld via het bieden van informatie van de kiesraad, elke stem telt, of is dat echt zo als het gaat om mediawijsheid?
[1:05:25] En als laatste samenwerken met externe experts om kennis te vergaren, maar ook om te delen.
[1:05:31] Een van de belangrijke zaken die wij zien, is we willen in gesprek gaan met bijvoorbeeld een ministerie van Binnenlandse Zaken in Nederland dan, of met een ACM.
[1:05:39] Dus vooraf gaat aan de verkiezingen.
[1:05:40] De Tweede Kamerverkiezingen hebben ze uitgenodigd in Dublin om met ons gehele verkiezings-expertteam daar in gesprek te kunnen over wat zijn jullie zorgen, wat is onze aanpak en hoe kunnen we met elkaar samenwerken in de aanloop naar verkiezingen.
[1:05:53] We hebben onlangs weer een gesprek met de ministerie van Binnenlandse Zaken in Dublin gehad.
[1:05:59] Ik wil ook nog een aantal dingen meegeven vanuit ons perspectief, dat ook in het position paper.
[1:06:03] Eigenlijk twee zaken.
[1:06:05] Allereerst, we zien de opkomst van gegenereerde AI-beelden, natuurlijk allemaal.
[1:06:11] Wij maken daar ons als platform ook zorgen over.
[1:06:14] Dit gaat heel erg hard.
[1:06:15] En daarin is de industrie al bij elkaar gekomen om bijvoorbeeld watermerken op AI-content te implementeren via standaarden.
[1:06:25] En we denken dat dat nog breder gedaan moet worden en dat daar nog meer partijen aan mee zouden moeten doen.
[1:06:31] En dat daar ook waarde in zit als daar overheden hun kennis en over delen wat zij daarin zien.
[1:06:36] En als laatste, wat ik wil benoemen, is nog geheime beïnvloedingsoperaties, dus de buitenlandse inmenging.
[1:06:43] Dat is eigenlijk iets wat vooral nog bedrijven, platformen zoals wij, zelf doen.
[1:06:49] Dus wat zijn de talentjes die je ziet door op andere platformen te kijken?
[1:06:53] Wat zie je in het nieuws?
[1:06:54] Wat zien we technologisch gebeuren op ons platform?
[1:06:57] En elk platform doet dat eigenlijk zelf.
[1:06:59] En we zouden eigenlijk heel graag in gesprek willen, ook met overheden, en we weten dat het heel gevoelig is, want het gaat vaak over sensitieve geheime informatie, over welke stukjes van de puzzel zien de overheden, maar misschien ook NGO's of onderzoekers, en hoe kunnen we beter die intelligence eigenlijk delen om samen die puzzel te leggen om dit soort bedreigingen op te sporen?
[1:07:22] En daar laat ik het bij.
[1:07:23] Dank u wel.
[1:07:24] Dank u wel voor uw bijdrage en is nu het woord aan mevrouw Antic van Google Nederland.
[1:07:31] Goedemiddag, dank u wel.
[1:07:33] Voorzitter Renede van de commissie.
[1:07:35] Dank u voor deze uitnodiging.
[1:07:37] Mijn naam is Milica Antic en ik vertegenwoordig Google vandaag.
[1:07:42] Onze missie is om wereldwijde informatie toegankelijk en betrouwbaar te maken.
[1:07:46] Wij delen uw zorgen over buitenlandse inmenging, veiligheid van kandidaten en het welzijn van onze jongste gebruikers.
[1:07:53] Deze verantwoordelijkheid, jegens het Nederlandse publiek, staat centraal in alles wat wij doen.
[1:07:58] Wij begrijpen de focus van de commissie op verkiezingen.
[1:08:01] Bij Google hebben we uitdrukkelijk afstand genomen van engagement tegen elke prijs.
[1:08:05] Op Search rangstreekken we content op basis van intentie van de gebruiker en de autoriteit van de bron.
[1:08:12] Dit streven naar kwaliteit is essentieel
[1:08:14] voor gevoelige onderwerpen zoals burgerinformatie.
[1:08:18] Onze systemen kennen hierbij een nog groter gewicht toe aan expertise en betrouwbaarheid om ervoor te zorgen dat kiezers de meest betrouwbare resultaten bereiken.
[1:08:28] Wij onderhouden nauw contact met de ACM, zowel voor als na de verkiezingen.
[1:08:32] We beschermen via onze waarborgen kiezers en kandidaten effectief tegen online dreigingen en desinformatie.
[1:08:40] Om manipulatie tegen te gaan, volgt onze Threat Analysis Group meer dan 270 door overheden gesteunde actoren om inming te verstoren voordat deze de gebruikers bereikt.
[1:08:53] Wij erkennen ook de risico's van generatieve AI.
[1:08:57] Daarom beperken wij verkiezingsgerelateerde vragen in Gemini en verwijzen we gebruikers naar gezaghebbende zoekresultaten, zoals die van de kiesraad.
[1:09:06] En met SynthID-watermerken en verplichte labels voor synthetische content maken we transparantie de standaard en geen bijzaak.
[1:09:15] Tot slot hanteren wij Safety by Design voor kinderen en tieners.
[1:09:19] We bieden op maatgemaakte ervaringen, zoals YouTube Kids en accounts onder toezicht.
[1:09:24] Hierin hebben ouders gedetailleerde controle, inclusief mogelijkheden om dagelijkse limieten in te stellen voor shorts.
[1:09:32] We vullen onze zorgplicht in door de Digital Services Act te steunen als fundament voor transparantie.
[1:09:42] We zijn hier om te luisteren en te bespreken hoe we deze vangrails kunnen blijven verfijnen voor een veiliger internet.
[1:09:48] Dank u wel.
[1:09:50] Ook u, hartelijk dank voor uw bijdrage.
[1:09:53] En dan is als eerst het woord aan mevrouw Rijkowski van de VVD.
[1:09:57] Ja, dank voorzitter.
[1:09:58] En misschien laten we twee dingen nog even vooraf, voordat ik mijn vragen ga stellen.
[1:10:02] Allereerst dank dat jullie hier zijn.
[1:10:04] Ik kan me voorstellen dat dit misschien niet
[1:10:06] het meest gezellige item van de dag op uw agenda is, maar er zijn ook platformen die hebben gezegd, wij komen vandaag niet, of eentje in ieder geval in het bijzonder.
[1:10:16] En ook de vragen die ik ga stellen, die zullen misschien wat negatiever van aard zijn, maar ik ben ook blij dat de social media bestaan.
[1:10:23] Ik ben blij dat we veel online kunnen.
[1:10:26] Mijn doel is erop gericht om te zorgen dat het zo veilig mogelijk kan.
[1:10:29] Dus daar komen mijn vragen vandaan.
[1:10:31] Want uit dat onafhankelijke onderzoek bleek dat 97% van de evident extremistische content die door experts werd gemeld tijdens de verkiezingen, dat die niet werd verwijderd van die platformen, pas toen er journalisten aan de bel gingen trekken.
[1:10:45] En dan reisde bij mij de vraag, eigenlijk zou ik überhaupt willen dat u zelf al die content zou vinden en zou verwijderen.
[1:10:54] Dan is de volgende stap dat u hem verwijdert op het moment dat er gemeld wordt door experts.
[1:10:59] En als er dan pas verwijderd wordt op het moment dat journalisten aan de bel gaan trekken, dan ga ik me wel zorgen maken over wat dan precies de prioriteit van uw bedrijf is.
[1:11:07] En ik stel deze aan TikTok en aan Meta.
[1:11:10] Vindt u het dan belangrijker dat er zo veel mogelijk content zo lang mogelijk online blijft staan of dat uw platform zo veilig mogelijk is?
[1:11:20] Ja, de heer Haverman, het woord is aan u.
[1:11:22] Dank u wel.
[1:11:24] Laat ik proberen uw vraag te beantwoorden.
[1:11:25] Ik moet zeggen, ik weet niet helemaal naar welke data u verwijst en naar welke experts u verwijst.
[1:11:32] Ik denk dat het goed is om even sowieso, en dat staat ook in het transparantie rapport, daar staat expliciet aangegeven hoeveel content wij zelf elk kwartaal verwijderen.
[1:11:42] En er staat overigens ook in heel expliciet
[1:11:44] wat de prevalentie is van eigenlijk een steekproef van hoeveel kwalijke content er op ons platform over is.
[1:11:52] Dus dat is iets waar we ook juist op meten en aanwerken, juist om dat zo laag mogelijk te krijgen.
[1:11:59] Waarbij we tegelijkertijd ook, ja, vals positief dus, oververwijdering willen voorkomen.
[1:12:04] En daarvoor werken we dus zelf met slimme technologie, hebben we moderatoren die daarbij kunnen helpen.
[1:12:10] Hebben we in lijn met de DSA een aantal trusted flaggers geomboord.
[1:12:14] Er is specifiek rond de verkiezingen ook nog iets als een rapid response system, waar ook een aantal Nederlandse partijen zijn geomboord, om het in een lelijk Nederlands woord te gebruiken.
[1:12:23] Ik weet ook niet, ik heb net ook te spreken met Pieter van Boheem als dat geloof ik gehoord,
[1:12:29] Hij zat daar niet bij.
[1:12:30] Misschien kunt u het aan de Europese Commissie morgen vragen waarom hij daar niet bij zat.
[1:12:34] Dat weet ik niet.
[1:12:35] Maar er zijn dus allerlei kanalen om inderdaad van gedegenonderzoekers signalen op te vangen die we dan vervolgens vanzelfsprekend opvolgen.
[1:12:45] Los van alle inspanningen die we onszelf al doen.
[1:12:48] Maar ik heb dus niet meer achtergrond bij de bron waar u naar verwijst.
[1:12:56] Dank u wel.
[1:12:57] Om daaraan toe te voegen, ons doel is eigenlijk om alle content die overtredend of illegaal is, volgens onze community guidelines, onze regels, te verwijderen.
[1:13:07] Die community guidelines gaan een stuk verder dan wettelregelgeving.
[1:13:12] Dus wettelregelgeving van over de hele wereld is natuurlijk een basis daarvoor.
[1:13:15] Maar wij stellen zelf als bedrijf regels die een stuk verder gaan.
[1:13:19] Dat doen we niet met de natte vinger.
[1:13:22] We bouwen die regels op door in consultatie te gaan met experts.
[1:13:26] We hebben bijvoorbeeld voor elke regio in de wereld een Safety Advisory Council.
[1:13:31] Daar zitten professoren in, maatschappelijke organisaties die bepaalde soorten kennis hebben die bijvoorbeeld adviseren over hoe moet u nou deze regels speciaal vormgeven.
[1:13:42] Een voorbeeld daarvan is bijvoorbeeld voor onze specifieke regels rondom content die gaat rondom LNBTI-personen en het beschermen daarvan hebben we een groep aan NGO's, LNBTI-rechtenorganisaties bij elkaar gebracht
[1:13:54] vorig jaar en die hebben gevraagd oké wat zien jullie nou op het platform gebeuren en hoe kunnen we die regels die wij hebben nu verbeteren of aanpassen of wat zijn bijvoorbeeld dingen waar je tegenaan loopt.
[1:14:05] Nou een van de voorbeelden is dat we het niet toestaan om te debt nemen.
[1:14:08] Als iemand die in transitie is dat je niet een ei in zijn mag noemen terwijl het andersom is bijvoorbeeld.
[1:14:14] Dat gaat veel verder dan met de regelgeving.
[1:14:18] Los van de regels, de detectie dan, de handhaving van die regels, want het heeft alleen zin als je regels stelt dat je die dan ook gaat handhaven natuurlijk.
[1:14:26] Wij werken op dezelfde manier.
[1:14:28] We hebben automatische detectie met hulp van menselijke moderatoren en we geloven dat die combinatie ook allebei nodig is.
[1:14:35] Wat we wel zien is dat, nu met de opkomst van AI nog steeds een enorme groei, dat automatische systemen veel beter worden in het herkennen van content.
[1:14:46] Niet perfect zijn, zeker niet, en daarom heb je ook menselijke context nodig.
[1:14:50] Maar wat je wel ziet is dat... Nou, wat ook heel belangrijk voor ons is, is dat dat gebruik en meer gebruik van AI ervoor zorgt dat onze moderatoren minder schokkende, grafische, hele nare beelden hoeven te zien.
[1:15:05] Bijvoorbeeld over 2025 hebben ze 76 procent minder grafische, schokkende content gezien, onze moderatoren.
[1:15:13] Wat natuurlijk enorm veel impact kan hebben op iemands leven, als ze dat werk verrichten.
[1:15:20] Ja, om ook aan te geven, wij verwijderen proactief 98,2 procent van de content die we verwijderen.
[1:15:28] Dat betekent dat er nog 1,8 procent over is, maar het gaat natuurlijk wel over enorme aantallen.
[1:15:32] Dus daarom is ook elk procentpunt dat we daarin kunnen winnen, heeft enorm veel impact en dat is ook het doel.
[1:15:38] 94,8 procent ervan verwijderen we binnen 24 uur en 89 procent verwijderen we met nul views.
[1:15:46] Dus je ziet natuurlijk, het wordt steeds moeilijker om dat op hoog te krijgen, maar dat is wel het doel dus inderdaad.
[1:15:54] En we geloven alleen door dat het kan, dus door samen te werken met experts, onze technologie te verbeteren en ook dat er gewoon beter informatie gedeeld wordt om terug te gaan naar mijn openingsstatement, tussen bijvoorbeeld overheden.
[1:16:06] Bijvoorbeeld, de NCTV is bezig met een symbolenbank waarin symbolen voor extremistische content van de linker-rechterkant van het spectrum te delen.
[1:16:16] Maar die is nog niet openbaar voor bedrijven.
[1:16:19] Daar wordt aan gewerkt.
[1:16:20] Geen verwijt naar de NCTV.
[1:16:22] Daar moet een juridische basis voor zijn.
[1:16:24] Maar dat soort zaken helpen wel heel erg ons om onze moderatie te verbeteren en nuances te herkennen in een snel evoluerende contentomgeving.
[1:16:34] Ja, dus als ik dan deze percentages hoor en ik lees de transparantie rapporten zie ik inderdaad, er wordt heel veel verwijderd.
[1:16:40] Nou, de percentage van 98 procent, dat klinkt dan heel indrukwekkend.
[1:16:44] Maar als ik dan kijk naar de andere informatie die wij als Kamer krijgen en het eerste blok wat we hebben gehad, denk ik ja, daar hoor ik toch wel wat meer alarmerende zorgen en die herken ik zelf ook.
[1:16:54] Dus is dat dan helemaal niet waar?
[1:16:57] Wat er bijvoorbeeld net in het vorige blok is gezegd, is er dan helemaal niks mis?
[1:17:03] Maken jullie je dan geen zorgen over aanvallen als het gaat om potentiële beïnvloeding van de verkiezingen?
[1:17:10] Of zeggen, ja, het gebeurt wel, maar dat is zo klein en zo marginaal.
[1:17:13] Daar hoeft u eigenlijk als Kamer geen aandacht aan te besteden.
[1:17:16] En dan weer aan de twee heren deze vraag.
[1:17:20] De heer Haverman.
[1:17:20] Of wat wilt u eerst?
[1:17:21] Ja?
[1:17:22] Dat kunnen we afwisselen tussen de twee.
[1:17:26] Nee, wij zijn niet naïef.
[1:17:28] Wij zien ook dat er mensen bewust misbruik maken van ons platform en willen maken.
[1:17:32] En ik denk dat het in de samenleving als geheel, of het nou offline of online is, er zijn mensen die heel erg bewust zijn van de regels.
[1:17:39] en die willen omzeilen.
[1:17:40] Er zijn ook mensen die zich niet bewust zijn van de regels en per ongeluk dat doen.
[1:17:45] Maar we weten dat er op verschillende niveaus, dus ik denk dat gewoon een content overtreding heel wat anders is dan een geheime beïnvloedingsoperatie.
[1:17:52] Dat vraagt echt om meer middelen, meer coördinatie, dus inderdaad technische kennis ook.
[1:17:59] Dat is echt van een hele andere orde dan iemand die een filmpje plaatst waarop een vechtpartij te zien is.
[1:18:04] Die willen wij allebei vangen, maar het vraagt wel op een andere aanpak en een andere investering en kennis die we in huis moeten halen.
[1:18:13] Dus we moeten en-en doen.
[1:18:15] En wat ik net ook zei, we zijn er heel duidelijk van bewust dat we niet perfect zijn.
[1:18:19] Dat percentage is inderdaad heel hoog, maar het is geen 100 procent.
[1:18:23] En om context te geven, we hebben in H2, dus de tweede helft van 2025 in de EU, 112 miljoen stukken content verwijderd.
[1:18:31] Dat is een enorm aantal natuurlijk.
[1:18:34] Dus wat ik net zei, elk procentpunt is best wel veel content.
[1:18:38] Dus wij proberen dat zo hoog mogelijk te krijgen.
[1:18:43] Misschien aanvullend, en ik denk dat dat veel vergelijkbaar is.
[1:18:47] Sowieso denk ik dat het belangrijk om onderscheid te maken tussen spam en beïnvloeding.
[1:18:53] Er zijn partijen die misbruik willen maken van platformen waar veel mensen zijn.
[1:19:01] Wij hebben zo'n, of is dat meerdere, van dat soort platformen om economisch gewin...
[1:19:07] Ik denk dat dat niet per se hetzelfde is als wat af en toe naar buitenlandse beïnvloeding genoemd wordt.
[1:19:12] Dat is echt wel een separate categorie waar we specifieke teams met zeer geavanceerde tools op hebben zitten om dat in de gaten te houden en in te grijpen en als dat daadwerkelijk ook...
[1:19:25] gevonden wordt, dan publiceren we daar ook over en dan zorgen we ook dat dat publieke bekendheid krijgt en dan kunnen we dat ook eventueel de overheden overbrieven.
[1:19:34] Dus dan zou u dat weten, zou ik hartstikke willen zeggen, als dat specifiek ook zich in Nederland zou voordoen.
[1:19:42] En aanvullend, ja, wij werken inderdaad ook net als TikTok met heel veel externe experts.
[1:19:49] Als het soms zo is dat we niet alles gevonden hebben, dan nodig ik ook vooral die personen uit om contact met mij te nemen.
[1:19:56] En veel mensen hebben ook al mijn contactgevers, maar hebben misschien nog niet wat naar mij gestuurd.
[1:20:00] Dan kunnen we daar vooral van leren.
[1:20:03] En ik weet het niet, ja...
[1:20:06] wat de impact is van bepaalde aantallen.
[1:20:08] Maar ook 20 natieberichten zijn er te veel.
[1:20:10] Dus dat is ook goed om dat te laten weten.
[1:20:12] Dan kunnen we kijken wat daar dan mis is gegaan.
[1:20:17] De heer Dassen van Volt.
[1:20:19] Ja voorzitter, het is een heel ander verhaal dan dat we net hoorden en ik ben wel zoekende waar zit hem dat in.
[1:20:25] Als ik hoor dat er 112 miljoen content verwijderd is, dan denk ik hoeveel is er op blijven staan.
[1:20:31] Als ik zie dat TikTok 300 moderatoren in Nederland in de Benelux heeft ontslagen afgelopen jaar, dan vraag ik me af is dat dan precies de insteek die nu nodig is om te verbeteren.
[1:20:42] Als ik zie dat Mark Zuckerberg in de Verenigde Staten eigenlijk zegt dat de Europese Unie censuur pleegt en dat de DSA iets is wat gekild moet worden en daar samenwerkt met de Amerikaanse regering.
[1:20:54] Hoe geloofwaardig is het dan als Facebook Meta hier in Europa zegt nee nee nee wij hebben precies dezelfde doelen als die jullie hebben.
[1:21:01] Als dat zo is, zijn jullie dan bereid als bedrijven, en u zegt net, wij willen graag samenwerken met de overheid, met toezichthouders, met handhavers, om volledige openheid van zaken te geven hoe de systemen, de algoritmes, bij jullie werken?
[1:21:16] Want dan kan er echt gekeken gaan worden van waar zit dan het probleem?
[1:21:19] En hoe kunnen we dat dan verbeteren?
[1:21:21] Is daar bereidwilligheid toe om dan ook te zeggen, oké, kom maar langs, wij geven volledige openheid van zaken hoe alles werkt.
[1:21:28] Volgens mij is dit een vraag aan alle drie.
[1:21:32] Als eerste kijk ik naar de heer Haafman.
[1:21:37] Volgens mij is dit precies waar de DSA op toeziet en welke mogelijkheden de Europese Commissie heeft.
[1:21:45] Volgens mij wordt de heer Das op zijn wenken bediend.
[1:21:48] Staat dit reeds in de wet en vindt dit toezicht op deze manier plaats?
[1:21:52] Ik weet niet precies wat de vraag dus is.
[1:21:55] Misschien, meneer Lassen, wilt u uw vraag herhalen?
[1:21:58] Volgens mij is mijn vraag heel duidelijk en kregen we net bij de vorige ronde te horen juist dat hier het probleem zit, dat die toegang niet gegeven wordt, dat die openheid niet gegeven wordt, dat het onduidelijk blijft hoe deze algoritmes precies werken.
[1:22:12] en u zegt ja de DSA ziet hier precies op toe, maar het probleem is dat er nog steeds onduidelijkheid is over hoe deze algoritmes dan precies werken en wat er precies gepoest wordt en hoe daar dan transparantie over gegeven kan worden, juist om te zorgen dat dit tegengegaan kan worden.
[1:22:30] Dus als u zegt dat is allemaal flauwekul wat we net gehoord hebben, dan ben ik daar ook wel benieuwd naar.
[1:22:36] Zo zou ik mijn woorden van net niet helemaal samenvatten, meneer Dassen.
[1:22:40] Nee, wat ik net probeerde te zeggen was dat dat inzicht in systemen en transparantie van algoritmes, dat dat sowieso deel is van de DSA.
[1:22:53] Dus dat daar volgens mij niet aanvullende zaken nodig zijn.
[1:22:57] En dat het belangrijk is
[1:23:02] om in den brede goed te blijven kijken naar wat er online gebeurt en dat het belangrijk is dat verschillende organisaties daar alert op blijven en dat gesprek met ons voeren en ook dat uw kamer dat doet, dat lijkt me enkel goed en prijzenswaardig.
[1:23:22] Ik denk dat er heel veel tools inderdaad zijn en mogelijkheden om dat onderzoek te doen naar algoritmes.
[1:23:28] En die zitten inderdaad vooral in de DSA.
[1:23:30] De Europese Commissie heeft natuurlijk haar onderzoeksbevoegdheid.
[1:23:33] Die gebruiken ze ook, zoals wij weten.
[1:23:37] En daar kan eigenlijk om alle informatie gevraagd worden over hoe ons algoritme werkt.
[1:23:42] Dus ik denk dat dat zeker een manier is.
[1:23:45] Wat er verder ook nog in zit, is artikel 40 van de DSA.
[1:23:49] Dat gaat specifiek over researcher access.
[1:23:52] Dat heeft gecodificeerd welke onderzoekers onder welke voorwaarden
[1:23:56] toerang mogen hebben tot data van onze platformen.
[1:24:01] En in principe staat er in het artikel dat zij alle data kunnen vragen als ze het maar kunnen onderbouwen en nog met een aantal voorwaarden, juridische voorwaarden, over natuurlijk dat het ook goed beschermd moet zijn, die data, privacy.
[1:24:13] Moet ik wel bij opmerken dat bijvoorbeeld de guidelines van de Europese Commissie over hoe dat te doen pas in oktober 2025 gepubliceerd zijn, terwijl de DSH natuurlijk in februari 2023 van kracht werd voor ons van toepassing vanaf augustus 2023.
[1:24:32] en pas in oktober van afgelopen jaar dat artikel, eigenlijk de guidelines over hoe dat te implementeren en hoe dat werkt, vormgegeven is.
[1:24:41] Dus dat heeft best wel lang geduurd en in de tussentijd is het ook al onzekerheid voor bedrijven.
[1:24:46] Hoe moet je dat dan faciliteren, dat toegang, via wat voor systemen?
[1:24:50] Wat zijn de waarborgen?
[1:24:51] Wie komen daarvoor in aanmerking?
[1:24:53] Maar het systeem is er nu.
[1:24:54] En daar spelen ook nationale toezichthouders, dus de ACM, de DSC, speelt een hele belangrijke rol in het aanwijzen van wie die onderzoekers zijn.
[1:25:05] Dus ik neem aan dat zij daar nu mee aan de slag zijn en dat hopelijk ook kunnen stroomlijnen.
[1:25:10] Los van de DSA hebben wij ook een research API, zoals dat heet.
[1:25:14] Dat is eigenlijk een portal waar je kunt inloggen waar je al data van TikTok als onderzoeker kunt opvragen.
[1:25:21] Het gaat vooral over content data, dus hoeveel hashtags van bepaalde hashtags zijn er te vinden, noem maar op, onderwerpen, et cetera.
[1:25:29] Dat breiden wij ook steeds uit.
[1:25:31] Daarvoor vragen we inderdaad ook wel een aanmeldingsproces.
[1:25:34] Met als belangrijkste vereiste kunt u bewijzen dat u inderdaad bij een universiteit werkt.
[1:25:38] In de beginsel, en inmiddels hebben we dat ook uitgebreid naar NGO's die ook een academische inslag hebben, waar we natuurlijk wel willen wijzen op waarborgen dat niet zomaar iedereen toegang tot die data en die API kan krijgen.
[1:25:52] En als laatste denk ik, we hebben ook nog een andere vorm van kijken naar het algoritme
[1:25:57] En dat is, kunnen overheden kijken naar wat het algoritme is en kunnen ze met mensen die een bepaalde expertise hebben daar ook naar kijken?
[1:26:05] U snapt, dat is hoogst sensitief voor ons, echt kritisch voor onze business.
[1:26:11] En wij hebben dat vormgegeven door bijvoorbeeld in onze hoofdkantoor over de wereld, dus in Singapore, in Dublin en in LA, hebben we een ruimte gebouwd waar overheden mogen komen kijken naar broncode als ze dat willen.
[1:26:23] Dat zit dan in een zogenaamde Faraday-kooi, dat er geen telefoon mee naar binnen kan en daar ook niks naar buiten gestuurd kan worden, maar dat is wel mogelijk.
[1:26:32] En daar mogen ze dan zo lang spenderen zoals ze zelf willen.
[1:26:35] Dus zo proberen we ook daar te accommoderen, dat ze daar op toe kunnen zien.
[1:26:44] Wilt u nu over volvraag stellen, meneer Dassen, of wilt u mevrouw Anticius nog de mogelijkheid geven om ook te antwoorden?
[1:26:51] Het is aan u, hoor.
[1:26:52] Ja.
[1:26:53] Dank, voorzitter.
[1:26:55] Ik heb er eerlijk gezegd niet zo heel veel aan toe te voegen.
[1:26:57] Als Very Large Online Search Engine en als Very Large Online Platform zijn ook wij gereguleerd onder de DSA.
[1:27:07] En hebben wij dus ook die transparantieverplichtingen.
[1:27:11] En moeten wij ook onderzoekers toegang geven op basis van artikel 40, lid 12.
[1:27:18] Daarnaast publiceren we zelf
[1:27:21] allerlei informatie over hoe Search werkt, over hoe YouTube werkt, hoe de handhaving werkt.
[1:27:29] We hebben onze online Ads Library.
[1:27:33] Het is al eerder ter sprake gekomen, maar we bieden op allerlei manieren, we bieden transparantie, we denken dat het heel belangrijk is.
[1:27:40] Daarnaast hebben we regelmatige gesprekken met ACM, die ons ook kan bevragen.
[1:27:48] Dat is overigens vrijwillig.
[1:27:49] We worden niet gereguleerd.
[1:27:51] ACM is niet onze toezichthouder, om het zo te noemen.
[1:27:54] Dus wanneer er gesprekken worden, vinden ze natuurlijk ook plaats op het niveau van de Europese Commissie, die wel toezicht houdt op ons.
[1:28:03] Dank u wel.
[1:28:06] Ja, voorzitter, ik blijf toch zitten met de vraag, ook omdat we in het vorige blok gehoord hebben dat onderzoekers niet de toegang hebben die ze nodig hebben.
[1:28:15] Dus dan gaat het ergens mis.
[1:28:18] Dus dan ben ik toch benieuwd waar dat dan precies misgaat.
[1:28:22] Dus wellicht moet ik daar op een andere manier dan verder duidelijkheid over gaan krijgen en misschien in de volgende ronde die vraag nog eens stellen.
[1:28:30] Dus misschien dat ik nog een andere vraag kan stellen en dat gaat over interoperabiliteit.
[1:28:37] Dat hoorden we net.
[1:28:38] Mijn vraag is hoe u daarnaar kijkt van of dat mogelijk gemaakt moet worden, of dat afgedwongen moet worden, of u bereid bent daar zelf stappen in te ondernemen, juist om te zorgen dat er een gelijker en groter speelveld kan ontstaan.
[1:28:56] De heer Haverman.
[1:28:59] Nou ja, dat is inderdaad iets wat in de Digital Markets Act geregeld is en waarvan we tot op heden hebben kunnen zien dat er niet heel veel animo naar is.
[1:29:11] Ja, ik weet niet of het aan mij is om de DMA te gaan recenseren, maar soms lijkt iets een hele goede oplossing, maar is er in de praktijk niet zo heel veel behoefte aan of werkt het niet zo goed.
[1:29:23] Dus ik zou wel in de voorzittigheid
[1:29:27] willen betrachten in enthousiasme voor dergelijke maatregelen, weet wel dat Threads, een van de platformen van META, interoperabel is, buiten Europa, omdat ook wettelijke verlichtingen in Europa dat ingewikkelder maken.
[1:29:42] Het is nog niet zo makkelijk.
[1:29:52] Dat zit inderdaad in de Digital Markets Act, de interoperabiliteit van diensten.
[1:29:57] Wij worden daaronder gereguleerd als een social media platform ook inderdaad.
[1:30:04] Dat is mededingingswetgeving.
[1:30:07] Er wordt ook vanuit die bril naar gekeken of dat wenselijk is in die wetgeving.
[1:30:12] Dat is wat anders, denk ik, dan... Ja, dat is echt een economische blik in plaats van naar de content alleen te kijken van de platform.
[1:30:23] Wij denken dat daar heel veel aandacht moet zijn, want kan dat veilig?
[1:30:26] Inderdaad.
[1:30:28] Blijft onze systeem intact als dat zoiets zou moeten gebeuren?
[1:30:32] En doet het ook iets voor de oplossing binnen de DMA van het eerlijke maken, van het gelijke maken van het speelveld?
[1:30:42] Als dat zo is en er zijn zorgen over van de Europese Commissie, dan gaan we met de Commissie daar graag over in gesprek.
[1:30:53] Ja, ook hier heb ik weer niet zo heel veel aan toe te voegen, want nogmaals, ook wij worden door deze wetgeving gereguleerd.
[1:30:59] Ik denk dat het punt van veiligheid wel een ontzettend belangrijke is.
[1:31:03] En soms zijn ideeën heel goed, maar zitten er ook de nodige haken en ogen aan.
[1:31:08] En de vraag is inderdaad of dat dan het doel voorbij schiet.
[1:31:12] Ja of nee?
[1:31:15] Mevrouw Swinkels.
[1:31:19] Ja, dank u wel, voorzitter.
[1:31:22] Mijn collega Dassen had het over de bereidwilligheid, het willen.
[1:31:25] Ik zou het graag ook willen hebben over het kunnen.
[1:31:28] Ik ben heel erg benieuwd, er worden woorden gebruikt als we willen schadelijke content remmen, we willen vangrails toepassen.
[1:31:36] Ja, het komt op mij bijna over of dat er een soort van roekeloze auto de maximale snelheid allang heeft overschreden, alle verkeersregels allang heeft aanslaag heeft gelapt.
[1:31:46] En ik ben dus gewoon heel erg benieuwd
[1:31:49] Ja, wat kunnen deze platforms doen nog aanvullend hierop?
[1:31:55] Welke middelen hebben zij nog tot hun beschikking?
[1:31:59] Wordt eigenlijk al het maximale gedaan?
[1:32:01] Is het nog te controleren, te beheersen?
[1:32:03] Zeker als er nu ook nog generatieve AI wordt toegevoegd in de afgelopen jaren, waardoor het alleen nog maar sneller uit de bocht vliegt.
[1:32:12] Dus ik ben gewoon heel erg benieuwd of deze platforms zelf ook nog wel vertrouwen hebben
[1:32:17] eigen capaciteit om dit te mitigeren, zoals we dat dan met elkaar noemen.
[1:32:27] Ik moet eerst zeggen dat ik het beeld wat mevrouw Swinkel schetst niet helemaal herken.
[1:32:33] Ik wil echt graag benadrukken dat het over, over, over, over, overgrote deel van de content op de verschillende platformen van Mertha fijne, leuke, lieve content is.
[1:32:44] En dat het over, over, over, over, overgrote deel van de mensen op onze platformen daar komt om plezier te hebben en dat dat daadwerkelijk heeft.
[1:32:52] En dat is voor ons heel belangrijk en dat proberen wij op zo'n goede mogelijke manier in te richten.
[1:32:59] Tegelijkertijd zijn het natuurlijk kwalijke actoren die misbruik proberen te maken van de systemen.
[1:33:07] Soms inderdaad economisch gedreven, soms gedreven door de andere misschien nog wel sinistere motieven.
[1:33:14] En we proberen dat op zoveel mogelijk manieren te mitigeren.
[1:33:17] Dus door het hebben van strikte richtlijnen, van wat wel en niet is toegestaan, die, en dat werd er net door de meneer verteld, die expliciet ook vaak strikter zijn dan de wetters in de landen.
[1:33:27] Dus om gewoon te benadrukken dat
[1:33:29] De wet zet een bepaald niveau, maar de richtlijn van onze platform zit daar nog een stuk boven.
[1:33:39] Juist om te zorgen dat je een veilig, leuk, gezellig en prettig platform hebt.
[1:33:45] Daar investeer je ook in.
[1:33:46] En vervolgens probeer je ook de mechanismen zo in te richten dat het leuke en positieve content boven komt.
[1:33:52] Dus ook veel van de mechanismen waar ook, geloof ik, mevrouw Van Ratenhout naar wees, bijvoorbeeld bridging, dat zijn dingen die we natuurlijk allang in onze algoritmes toepassen.
[1:33:59] Daarom heb ik ook specifiek, zeg maar, dat filmpje gedeeld over hoe personalisatie in het algoritme werkt.
[1:34:04] Om dat ook een beetje te demystificeren worden soms af en toe inderdaad enorme eigenschappen aan toegeschreven, terwijl die doorstelling juist
[1:34:14] positief is.
[1:34:19] Tegelijkers sluit ik mijn ogen niet dat er dingen soms niet goed gaan en die kwalijke actoren zijn vaak bijzonder creatief en daardoor werken we ook samen met partijen als NCTV, maar ook bijvoorbeeld in Nederland Off Limits en allerhande partijen die onze expertise aanvullen of dingen kunnen zien die wij niet zien of kunnen zeggen van hé, dit gaat er niet goed, kun je hier specifiek op letten en op die manier proberen wij inderdaad zo'n veilige en prettige mogelijk platform te hebben en dat is ook natuurlijk in ons belang.
[1:34:47] Op de lange termijn
[1:34:48] willen mensen op platformen zitten die veilig, leuk en prettig zijn.
[1:34:53] Niemand komt terug naar een platform wat ellendig, vreselijk en verschrikkelijk is.
[1:34:57] Het is daarbij ook gewoon in simpel commercieel belang om dat zo te doen.
[1:35:06] Mevrouw Swinkels, ik wil u vragen, gezien de tijd.
[1:35:10] Er zijn denk ik nog heel veel vragen om vanaf nu en ook de andere Kamerleden goed te vragen aan wie u de vraag wil stellen.
[1:35:16] En ik wil onze gasten vragen om bondiger te antwoorden, want dan kunnen we ook meer vragen stellen.
[1:35:22] Dus bij deze.
[1:35:27] Ja, dank voorzitter, daar heeft u helemaal gelijk.
[1:35:29] En dan zou ik aan de andere twee sprekers ook nog de vervolgvraag willen stellen.
[1:35:34] Welke aanvullende maatregelen zij dan nog voor zich zien om te treffen om die maatschappelijke verantwoordelijkheid, wat ook een gedeeld belang is, wat ik net begrijp, om die ook te nemen.
[1:35:47] Ja, dank u wel voor de vraag.
[1:35:49] Ik noemde in mijn openingsbetoog eigenlijk al een aantal van die punten.
[1:35:53] Denk bijvoorbeeld het meer creëren van fora, plekken, organisaties waar zowel publieke als private partners in zitten, waar we signalen kunnen delen.
[1:36:02] Ik denk bijvoorbeeld een voorbeeld waar dat wel al gebeurt is GiveCT.
[1:36:06] Dat gaat over het bestrijden van terroristische content.
[1:36:10] Dan zie je eigenlijk dat overheden, maatschappelijk middenveld en bedrijven daar samenkomen
[1:36:16] om dat soort intel te delen.
[1:36:18] Ik denk dat dat een heel goed voorbeeld is en dat is er niet voor alle onderwerpen.
[1:36:22] Dat kan misschien ook niet voor alle onderwerpen, maar het creëren van dat soort voorraad en het bij elkaar kunnen komen buiten altijd direct een juridische handhavingsrelatie, het ook gewoon kunnen delen van inzichten, bijvoorbeeld in een meeting in een kleine achterzaaltje met elkaar, geeft best wel veel inzicht in hoe we werken, hoe we elkaar kunnen aanvullen, denk ik ook,
[1:36:43] als overheid en bedrijf, denk ik.
[1:36:46] Dus ik denk dat daar veel te winnen is als het gaat om het tegengaan van illegale content.
[1:36:52] Mevrouw Antic.
[1:36:54] Dank u wel.
[1:36:55] Ja, kijk, ik denk dat het altijd beter kan.
[1:36:58] Dus dat wil niet zeggen dat het nu heel slecht is, maar alles kan altijd beter.
[1:37:04] En dat is waar wij altijd op inzetten en op sturen.
[1:37:09] Concreet denken wij dat er...
[1:37:13] generatieve AI behalve risico's ook veel kansen biedt.
[1:37:17] Dat kan ook juist ingezet worden om makkelijker en sneller op te sporen, om trends sneller te herkennen, om ook automatisch te verwijderen.
[1:37:29] Daarnaast geloven wij ontzettend...
[1:37:31] Ik heb het al eerder genoemd, in transparantie, dus een technologie zoals SyntID, dat wij hebben ontwikkeld, waarbij generatieve content gelabeld wordt.
[1:37:42] En dat soort standaarden, dat is ontzettend belangrijk.
[1:37:47] En ik denk dat daar nog wel wat te winnen is.
[1:37:52] Dank u wel.
[1:37:52] Mevrouw El-Boudjani van D66.
[1:37:55] Ja, dank u wel, voorzitter.
[1:37:58] Ik heb wel een beetje het gevoel alsof er wat wordt gebagataliseerd.
[1:38:02] Want ik vind wel van wat we net hoorden van het blok hiervoor en dat klinkt wel echt een stuk urgenter dan wat er op dit moment wordt verteld.
[1:38:13] Dus ik zou ook heel graag willen weten, dit zijn grote platformen, die zijn dus ook verplicht om verspreiding van desinformatie te analyseren en dus ook
[1:38:23] daar wat aan te doen.
[1:38:26] Ik ben dus heel benieuwd wat heeft u dan concreet ook gezien tijdens de verkiezingen of in aanloop naar verkiezingen hier in Nederland en wat doen jullie dan ook concreet om dus bijvoorbeeld het algoritme daarop aan te passen zodat het wordt gemitigeerd of andere concrete maatregelen die uw platformen nemen om dus daadwerkelijk die inmenging zo klein mogelijk te houden of zelfs te voorkomen.
[1:38:50] En aan wie wilt u de vraag stellen?
[1:38:51] Ja, dan graag aan TikTok en Meta.
[1:38:55] Dus aan, sorry, de heer Haverman en de heer Marchant-Huyster.
[1:39:02] Ik kan het niet helemaal lezen vanaf hier.
[1:39:04] Excuse, Huyser.
[1:39:05] De heer Marchant-Huyser, ja.
[1:39:06] De heer Haverman.
[1:39:10] Ja, om de vraag heel kort en bondig te beantwoorden.
[1:39:12] Er zijn niet, rondom de Nederlandse verkiezingen, dingen gezien die ertoe hebben geleid dat we dingen aan de achterkant hebben aangepast of hebben moeten aanpassen.
[1:39:26] Heel kort.
[1:39:30] Nou, ook wij hebben niet iets concreets gezien wat tot die systematische aanpassing heeft geleid.
[1:39:34] We hebben natuurlijk wel illegale content gezien.
[1:39:36] Ik denk wel dat...
[1:39:38] Ik weet niet of u dat zo bedoelde, maar er zijn verschillende dingen die daarin zitten.
[1:39:42] Er is natuurlijk illegale content an sich.
[1:39:44] Gewoon maakt iemand een nare opmerking over iemand anders.
[1:39:46] Het is heel wat anders, wat ik net zei, dan een geheime beïnvloedingsoperatie.
[1:39:50] Daarvoor ligt een drempel veel hoger.
[1:39:51] Daarvoor moet het gecoördineerd zijn.
[1:39:53] Daar moeten mensen voor.
[1:39:54] hun identiteit proberen te verhullen en er moet ook slechte intentie achter zitten.
[1:40:03] Interessant daaraan aan die geheimenbeïnvloedingsoperaties is dat het vaak de content an sich of de comment, noem maar op, niet overtredend is voor onze regels.
[1:40:12] Dus het kan zijn, nou, ik weet nog niet zo zeker of ik dit geloof.
[1:40:16] Of ik vind wat anders.
[1:40:17] Wat gewoon legitieme comments kunnen zijn bijvoorbeeld onder content.
[1:40:21] Maar het gaat erom, kunnen we dan bewijzen dat het gecoördineerd is vanuit een land of vanuit een groep en dat er een bepaalde intentie achter zit.
[1:40:30] Dus daar zitten heel veel verschillende dingen in.
[1:40:32] Dat hebben we niet gedetecteerd.
[1:40:33] We hebben bijvoorbeeld wel meer dan duizenden impersonatieaccounts van mensen die meerennen aan de verkiezingen gezien op ons platform en die hebben we ook verwijderd.
[1:40:41] Dus ja, er zijn verschillende dingen die natuurlijk wel gebeuren tijdens zo'n periode.
[1:40:51] Ja, dank u wel.
[1:40:54] Ja, voorzitter, ik vind het toch een beetje lastig te rijmen.
[1:40:58] Dus als in van... Dus ja, er is wel degelijke inmenging, want dat is ook bewezen door andere organisaties.
[1:41:09] Dus daar zit misschien dus ook wel desinformatie bij.
[1:41:11] U moet dat onder de wet DSA dus analyseren en dus ook tegengaan.
[1:41:15] Maar dan kan ik me toch voorstellen dat dus eigenlijk...
[1:41:20] daarna de platformen ook zouden kunnen denken van misschien moet er inderdaad wel iets aangepast worden of in het beleid dat de organisaties zelf voeren binnen hun organisatie of op het algoritme.
[1:41:32] Kijk, voor ons is het niet transparant ook.
[1:41:34] Wij weten niet hoe de algoritmes in elkaar zitten.
[1:41:38] De platformen zelf weten dat wel.
[1:41:40] Dus ik zou toch, ja, ik vind het gewoon niet te rijmen dat wat we horen en dat wat er dan niet wordt opgepakt.
[1:41:50] Dat is geen vraag, maar dat is eventjes mijn constatering hier.
[1:41:56] Dan ga ik naar de heer Van Houwelingen van Forum voor Democratie.
[1:42:00] Ik zou graag een vraag willen stellen over een rapport dat is uitgekomen op 3 februari van het Amerikaanse congres.
[1:42:08] Het verbaast me dat niemand het nog genoemd heeft.
[1:42:10] Dat gaat ook over inmenging in verkiezingen.
[1:42:11] en censuur en dan wel van de Europese Unie.
[1:42:15] Volgens dat rapport, dus dat komt ook met bewijs, met mails, zou het zo zijn dat voorafgaande aan onze verkiezingen u alle drie eigenlijk gevraagd is door de Nederlandse regering om bij meekomst te komen en daar zou dan instructies zijn gegeven om u te mengen in onze verkiezingen door onze regering via de Europese Unie.
[1:42:33] Dat is mijn vraag.
[1:42:34] Logisch, eigenlijk het liefst aan alle drie, maar anders, ik begrijp dat we er nu twee zijn, dus dan maar TikTok en Meta.
[1:42:39] Die laatste bijeenkomst was 15 september 2025, dus vlak voor onze verkiezingen.
[1:42:45] Daar was u aanwezig, dat blijkt ook uit uw mails.
[1:42:47] Dus wat is daar gebeurd en welke instructies heeft u gehad van ons ministerie van de Europese Unie met betrekking tot onze verkiezingen?
[1:42:53] Dank u wel.
[1:42:56] Ik moet zeggen, er was een bijeenkomst bij de ACM op die datum.
[1:43:01] Daar was ik zelf niet.
[1:43:02] Er waren mensen uit mijn team.
[1:43:04] Volgens mij is het daar vooral gegaan over de DSA en dat die geld en dat die gehandhaafd moet worden.
[1:43:11] Ik kan daar helaas niet meer over, omdat ik daar zelf ook niet was.
[1:43:17] Ik was wel bij die vergadering.
[1:43:20] Ik herken me totaal niet in dat beeld.
[1:43:24] Ja, dan een vervolgvraag.
[1:43:27] Volgens het Amerikaanse Congres, volgens het rapport, zijn er dus instructies gegeven met betrekking onder andere, dat staat er letterlijk, die presentatie ging over het verwijderen van content, aanpassen van RQC-systeem.
[1:43:39] Dat is dan mijn vervolgvraag.
[1:43:40] Wat is er gezegd?
[1:43:42] Wat zijn dingen gezegd?
[1:43:43] En ook in het algemeen, want BZK, Middellands Zaken, is dus een trusted flagger.
[1:43:47] Dus hoe vaak heeft u contact met Binnenlandse Zaken in die trusted-flekken-status en wat krijgt u te horen?
[1:43:53] Wat zijn de instructies of de richtlijnen?
[1:43:56] Wat wordt u aangereikt vanuit Binnenlandse Zaken op basis van die DSA?
[1:44:01] En wat is hier concreet bij die bijeenkomst?
[1:44:05] Wat heeft u te horen gekregen?
[1:44:08] Eigenlijk was het een best wel technische uiteenstelling van wat zijn de regels van de DSA.
[1:44:14] Er zijn een aantal presentaties gegeven over cases en dat was het.
[1:44:18] Er is geen enkele instructie gegeven, zo heb ik dat niet ervaren.
[1:44:24] Dus ik herken me daar niet in.
[1:44:25] Het contact met BZK is...
[1:44:28] We hebben af en toe contact.
[1:44:30] Ze zijn bij ons in Dublin geweest om uitleg te krijgen over wat voor maatregelen nemen wij rondom verkiezingen, hoe werken onze systemen.
[1:44:37] Dat proberen we met alle overheden wereldwijd te doen waar we actief zijn.
[1:44:41] Dat gaat over de werking van onze systemen.
[1:44:43] Maar uiteindelijk liggen de besluiten over hoe we onze contentmoderatie doen, liggen bij ons natuurlijk.
[1:44:49] De minister van Binnenlandse Zaken heeft ook gerapporteerd volgens mij over hoe vaak dat mechanisme gebruikt is van BZK om content te melden.
[1:44:56] Daarin is te vinden dat in ieder geval niks bij ons is gemeld.
[1:44:58] Er is niks gemeld bij ons in de periode voorafgaand aan de verkiezingen.
[1:45:05] Dan zei ik het net ook al, ik ben niet alleen uw voorzitter, ik ben ook fractie lid van de GroenLinks Partij van de Arbeid en ik heb ook een vraag voor u en ik weet eigenlijk niet zo goed waar te beginnen.
[1:45:18] Ik begin denk ik waar mevrouw Rijkovski ook is begonnen.
[1:45:21] Ik wil u van harte bedanken dat u hier bent, want u hoeft helemaal niet op onze uitnodiging in te gaan.
[1:45:28] Dus dat is hartstikke fijn.
[1:45:32] En ik vind sociale media ook heel leuk, maar dat vond ik ook voor 2016, toen we nog niet gepersonaliseerde algoritmes gebruikten.
[1:45:39] En misschien zit er hele grote spruitjeslucht aan, maar ik hou van spruitjes toen we hives hadden.
[1:45:43] En de eerste versie van Facebook was dat ook gewoon hartstikke leuk en kon je contact maken met de hele wereld.
[1:45:49] En vervolgens is er iets gebeurd.
[1:45:51] En er zijn nu platformen met miljarden gebruikers en daarvan is gewoon het verdienmodel hartstikke ziek.
[1:45:58] We hebben het net gewoon gehoord.
[1:46:00] En omdat er miljarden gebruikers zijn, maakt dat verdienmodel de rest van de wereld ook ziek.
[1:46:05] En wat u en uw platformen steeds doen, is sinaasprilletjes slikken tegen een chronische ziekte.
[1:46:11] En dan staat er een soort medicijn op dat nachtkastje.
[1:46:13] Dat doen we niet.
[1:46:14] We blijven maar sinaasprilletjes slikken en naar de dokter luisteren.
[1:46:20] en dat medicijn pakken en dat is gewoon keihard ingrijpen in die 4D modellen, in die algoritme die nu gewoon ongelooflijk veel risico's met zich meebrengen.
[1:46:30] Het is net gezegd, de rode loper voor verkiezingsinmenging die is gewoon uitgerold en dat komt door hoe onbedoeld of niet door hoe platformen werken.
[1:46:40] En niet alleen de rode loper, nee ook de spotlights, de microfoons en dat is allemaal geen vrijwilligerswerk.
[1:46:46] Er wordt gewoon heel veel geld aan verdiend.
[1:46:48] En ondertussen wordt onze democratie ondermijnd, worden onze jongeren ziek.
[1:46:54] Nou, ik kan er wel even doorgaan.
[1:46:57] Ondermijnen de criminaliteit, worden kinderen geronseld, noem het maar op.
[1:47:00] En u probeert ondertussen die sindasprilletjes te slikken en er alles aan te doen, allemaal heel welwillend, om te kijken of dat helpt.
[1:47:07] Nou, dat helpt niet, want er is maar één medicijn tegen die chronische ziekte.
[1:47:10] Ingrijpen in die verdienmodellen, teruggaan naar de tijd voor 2016 en gewoon hop,
[1:47:16] kappen met al die manipulerende trucjes die er op uw platformen te vinden zijn, te beginnen bij die algoritme.
[1:47:23] En wat let u?
[1:47:24] Waarom gaat u daar niet gewoon naar terug?
[1:47:26] Word gewoon weer het oude Facebook.
[1:47:28] Kijk gewoon weer naar huis.
[1:47:29] Al die Nederlanders vonden het leuk.
[1:47:31] Mensen hebben nog steeds nostalgie bij die krabbels.
[1:47:33] Wat let u om daar gewoon naar terug te gaan en de wereld eigenlijk gewoon minder ziek te maken?
[1:47:40] Vraag wil ik graag stellen als eerste aan de heer Haafman.
[1:47:45] Toen de verwijzing naar Facebook kwam, vermoedde ik inderdaad dat hij naar mij zou gaan.
[1:47:49] Maar serieus, ik herken hem niet in de kenschets van mevrouw Katman.
[1:47:59] In de zin dat er heel veel wordt toegeschreven aan personalisatie en algoritmes.
[1:48:05] Omdat ik juist denk dat...
[1:48:08] dat algoritmische tijdlijnen zorgen voor een prettige ervaring online, dat je in de enorme vergaarbak van dingen die je zou kunnen zien, juist de leuke dingen ziet en dat iemand inderdaad, als je een paar dagen niet online bent geweest, iemand heeft een paar dagen terug gepost dat hij gaat trouwen of juist de eerste leuke babyfotos heeft, dat je die niet mist omdat die eerder voorbij zijn gekomen en die juist in staat stellen om kwalijke content
[1:48:39] tegen te gaan.
[1:48:40] En ik denk ook, en dat misschien nog aanhaakt op eerdere vragen van wat doen we nog meer en wat kunnen we nog meer.
[1:48:45] Ik denk juist dat we ook kijken met specifieke groepen, zoals bijvoorbeeld jeugd, daar heb ik het heel specifiek over, of wat we doen met teenaccounts, dat we heel erg kijken van oké, hoe kunnen we selectiever zijn in welk content je ziet, hoe kunnen we selectiever zijn met wie je contact kunt hebben en hoe kun je selectiever zijn in
[1:49:04] in hoeveel tijd je online besteedt.
[1:49:05] En dat is ook op basis van gesprekken die we met jeugd en met ouders en andere experts ook hebben gevoerd en proberen dat ook een veilige en prettige omgeving te bieden.
[1:49:16] En daar denk ik dat we enorm veel stappen hebben gezet.
[1:49:18] Daar heb ik ook, en dat was trouwens ook bij een vorige ronde tafel hier ook heel hard gepleit, dat we hopelijk
[1:49:24] ...snel ook zaken als leeftijdsverificatie op de juiste manier in kunnen voeren, door kunnen voeren.
[1:49:30] En dan de eerlijkheid, we zijn nu een jaar verder, maar volgens mij had ik op dat punt juist meer verwacht en gehoopt.
[1:49:39] Ja, dan heb ik een tweede vraag en die wil ik dan toch het liefst aan de heer Marcel Huijzer stellen, want ik hoor hier ook gewoon toch weer allemaal sinaasprilletjes tegen een chronische ziekte.
[1:49:51] U zei net, ja het is ook kritisch voor onze business, dus daarom als wij ons laten onderzoeken wat gewoon mag van onze DSA, ja hoor dan bent u van harte welkom, komt u maar onder onze voorwaarden op ons terrein in een afgesloten ruimte waar je geen telefoontje
[1:50:04] mee mag nemen.
[1:50:06] Volgens mij is ook gewoon onze democratische rechtsstaat helemaal niet zo georganiseerd.
[1:50:10] We hebben hele goede, juiste systemen die gaan over onafhankelijk onderzoek en onder welke voorwaarden dat gebeurt.
[1:50:16] En u zei daarbij, want het is kritisch voor onze business, maar de wereld waar u zich in geeft of die u
[1:50:23] die u over de wereld uitstoort, zijn kritisch voor veiligheid, voor democratie, voor gezondheid.
[1:50:31] Dat is toch gewoon een belangrijker belang dan dat het kritisch is voor een business.
[1:50:36] Dus ik zou u willen voorstellen, want u zei hier allemaal...
[1:50:39] Wij zijn hartstikke welkom, mag ook onder het CSA, kom lekker onderzoeken.
[1:50:43] Wij hebben hier een kennisagenda, wij kunnen alle onderzoekers die we maar willen uit de kast drukken om dat te laten doen.
[1:50:48] Dat kunnen wij ook nog in een veilige, vertrouwde omgeving, maar wel onder onze voorwaarden.
[1:50:54] Ik zou het dan wel zo prettig vinden als u dan ook allemaal zegt, kom maar door dan, dan gaan we dat ook lekker doen.
[1:51:01] Nou, er ligt toch een klein misverstand dat wat ik als laatste zei over die op onze ruimte onder toezicht.
[1:51:07] Dat was één van de mogelijkheden voor een heel specifiek gedeelte.
[1:51:11] Er zijn natuurlijk gewoon wettelijke basis waarop de Europese Commissie data bij ons kan opvragen en ook toezicht op het algoritme kan houden die op hun voorwaarden gaan.
[1:51:20] Dus dat kan inderdaad al.
[1:51:22] Maar het was één van de aanvullende mogelijkheden die we bieden aan overheden die bijvoorbeeld
[1:51:28] geen toezichtsrelatie tot ons hebben, maar waarvan wij zeggen dat vinden wij belangrijk om dat inzicht te kunnen geven.
[1:51:32] We hebben dat bijvoorbeeld gedaan in de UK met het National Cyber Security Center, dat soort organisaties en die kunnen daar dan komen kijken.
[1:51:40] Dus volgens mij doen we dat dus al en proberen we daar ook nog daarbovenop nog extra mogelijkheden te bieden door bijvoorbeeld die Research API ook al te lanceren voordat artikel 40 geïmplementeerd was van de DSA.
[1:51:56] Dank u wel.
[1:51:56] Mevrouw Rijkhofsky.
[1:52:00] Dank.
[1:52:01] Een vraag aan TikTok, want op papier is TikTok Nederland of Europa, is dat een Europese bedrijf?
[1:52:11] Maar tot voor kort hadden developers vanuit China nog toegang tot het platform en de data en de algoritme.
[1:52:18] Dus dan vraag ik me af hoe Europees of Nederlands het dan ook daadwerkelijk is.
[1:52:22] Is dit nog steeds het geval?
[1:52:25] Of kan de Chinese overheid op geen enkele manier meer toegang hebben tot het Nederlandse platform of algoritme of de data?
[1:52:35] Dank u wel voor de vraag.
[1:52:37] We hebben vanuit TikTok in 2023 Portugalover gelanceerd.
[1:52:41] Bovenop de AVG, onze verplichtingen, gaan we eigenlijk veel stappen verder
[1:52:45] ...dan die vereist in de wetgeving.
[1:52:47] En Portoclover bestaat eigenlijk uit drie pijlers.
[1:52:50] Een van die pijlers is dat we alle Europese gebruikersgegevens in Europa opslaan.
[1:52:55] Dat doen we via het datacenter in Dublin.
[1:52:57] We hebben een datacenter in Noorwegen.
[1:52:59] We zijn er nu eentje aan het bouwen in Finland.
[1:53:02] Dus echt die datalocalisatie.
[1:53:04] Wat we daarnaast hebben gedaan in de tweede pijler is het bouwen van extra toegangscontrole tot wie er bij welke data kan.
[1:53:12] Nou, dat hadden we al.
[1:53:14] Dat hebben heel veel bedrijven, sommige bedrijven ook niet.
[1:53:19] Maar daar zijn we eigenlijk nog veel verder gegaan.
[1:53:21] Dus bijvoorbeeld limitaties op hoe lang kun je toegang tot bepaalde data krijgen.
[1:53:26] Kun je bewijzen dat je noodzaak hebt om bepaalde data in te zien?
[1:53:30] Inderdaad, kunnen we datasets...
[1:53:32] intern ook pseudonymiseren via verschillende technologieën.
[1:53:37] En daarmee gaan we eigenlijk, geen enkel bedrijf ter wereld doet dat op deze manier.
[1:53:42] En als laatste, en dat is misschien de meest verregaande maatregel, is dat we een extern cybersecuritybedrijf, de NCC Group,
[1:53:48] eigenaar van Fox IT in Nederland, die houdt hier toezicht op.
[1:53:52] Dus zij kunnen ook daadwerkelijk controleren of inderdaad de mensen die toegang mogen hebben tot die data, die toegang ook krijgen, of de data die we bijvoorbeeld...
[1:54:01] Het kan zijn dat data naar Brazilië of naar de VS moet, bijvoorbeeld omdat je iemand blokkeert die daar zit en dan moet die data wel daarnaartoe gaan.
[1:54:10] Dat ze dat ook kunnen controleren of dat door die beveiligingslaag heen gaat.
[1:54:14] Ze doen audits over fysieke controle over de datacenters, of daar niks in geplucht kan worden.
[1:54:21] Ze doen pentesten over penetratietesten tot die systemen.
[1:54:26] En ze mogen daar ook, en dat is dan de allervergaandste maatregel, ook met Nederlandse overheden, Europese overheden, mee overpraten, zonder dat wij erbij zijn, of zij dingen zien die niet door de boygroep kunnen.
[1:54:39] Dus dat zijn enorm vergaande maatregelen die wij nemen, die geen enkel ander bedrijf neemt.
[1:54:45] De heer Dassen.
[1:54:53] Nou, voorzitter, ik had het net over de baas van META, Zuckerberg.
[1:54:57] Die zegt dat de DSA en de Europese Unie dat dat censuur is.
[1:55:00] En inmiddels zit die natuurlijk heel dicht bij de Amerikaanse regering.
[1:55:03] En dat is ook de reden dat de DSA natuurlijk deels ook niet geïmplementeerd of nageleverd wordt of de Europese Commissie daar niet bovenop zit vanwege de geopolitieke belangen die daar inmiddels ook meespelen.
[1:55:13] De Amerikaanse overheid is duidelijk dat als wij als Europa gaan reguleren, dan volgen de handelssancties dan wel eventuele terugtrekking uit de NAVO.
[1:55:23] Ik ben benieuwd of de heer Havenman van mening is dat wat de heer Zuckerberg zegt over censuur, dat dat eigenlijk niet acceptabel is en dat hij daar afstand van neemt.
[1:55:34] En in lijn daarvan, ook van wat de heer Zuckerberg natuurlijk zegt over moderatie, dat dat niet meer nodig is en dat dat in de Verenigde Staten de trusted flaggers een soort van kapot zijn gemaakt, dat het niet oké is dat dat hier afgeschaft ooit zou mogen worden.
[1:55:51] De heer Havenman.
[1:55:53] Ik herkende niet gelijk helemaal de premissen waar de heer Dassel op bouwt.
[1:55:58] En bij de laatste keer zag ik het misverstand, zeg maar, dat moderatie niet nodig is.
[1:56:03] Dat is echt een totaal misverstand.
[1:56:05] Wat er vorig jaar op een gegeven moment door Mark Zuckerberg is aangekondigd, is dat we op een andere manier fact-checken in Amerika en de Verenigde Staten.
[1:56:12] Dus dat we daar werken met community-based community nodes, dus dat inderdaad via gebruikers loopt.
[1:56:19] ...en dat dus een aanpassing is van hoe we fact-checken en dus niet of we fact-checken... ...maar dat staat los van dat we natuurlijk gewoon onze richtlijnen hebben behouden... ...voor wat we dan niet toegeven op onze platformen... ...en dat we daar tienduizenden moderatoren voor hebben... ...en ze eerst trekken naar... ...hé, het is echt een totale misvatting dat we dat niet zouden doen en niet zouden mogen.
[1:56:41] Voorzitter, ik stel ook nog een andere vraag over het censuur... ...wat de heer Zuckerberg heeft uitgesproken over de DSA en de Europese Unie.
[1:56:50] Die quote ken ik ook niet.
[1:56:55] Voorzitter, er wordt wel weinig herkend, merk ik.
[1:56:58] Dan ga ik namelijk naar mevrouw Swinkels, maar daarvoor wil ik wel even de heer Marcel Huijzen erop wijzen dat we één minuut over de tijd zijn en ik wil iedereen de mogelijkheid geven om nog vragen te stellen, maar gelukkig heb ik nu zelfredzame kinderen.
[1:57:12] Ze zijn minder zelfredzaam dan ik hoop.
[1:57:15] Maar kunt u nog vijf minuten uitlopen?
[1:57:19] Ja, oké.
[1:57:20] Mevrouw Swinkels.
[1:57:23] Ja, dank, voorzitter.
[1:57:24] Dan heb ik meteen ook de gelegenheid om ook vanuit ons de waardering uit te spreken dat deze partijen hier vandaag aanwezig zijn.
[1:57:30] Ik had nog één nieuwe vraag en dat betreft de mensen die daadwerkelijk ook misbruik maken van jullie platforms.
[1:57:38] Ik ben heel erg benieuwd hoe jullie kijken naar het kunnen aanmaken van een account.
[1:57:42] Denk daarbij aan de Russen, zoals die in de vorige ronde al aan bod kwamen.
[1:57:47] Zelfs criminelen, maar met name ook anonieme accounts.
[1:57:51] Vanuit CDA zouden wij graag willen zien dat die mogelijkheid gewoon niet meer is.
[1:57:54] Dat je geen anonieme account meer kunt aanmaken op dit soort platforms.
[1:57:57] Hoe kijkt u daarnaar?
[1:57:59] Welke maatregelen treft u daarvoor?
[1:58:02] Hoe zou u daar dat soort beleid kijken?
[1:58:04] En u kunt hem aan één iemand stellen?
[1:58:08] Ja, dan stel ik hem aan de heer Havenman.
[1:58:12] Dank u wel.
[1:58:13] Interessante vraag.
[1:58:15] Sowieso geldt natuurlijk Facebook, Smoeleboek, dus daar wordt je geacht om in je eigen naam actief te zijn.
[1:58:21] Instagram biedt meer ruimte om ook een account aan te maken voor je kat of voor je hobby.
[1:58:26] Dus daar is meer ruimte.
[1:58:29] Wel is het zo natuurlijk dat op het moment dat jij onze regels overtreedt en als je dat een aantal keer doet of een overtreding van een bepaalde zwaard wordt dat je account geblokkeerd kan worden.
[1:58:38] Dat hoeft zich natuurlijk niet per se te beperken tot alleen de naam van het account, maar daar gaan we natuurlijk nog wel wat slimmer mee om dan dat, wil ik maar zeggen.
[1:58:46] Ik wil niet te veel uitweiden over hoe we dat precies doen, maar ook om kwalijke actoren niet per se wijzer te maken dan nodig.
[1:58:52] Maar een naam is natuurlijk niet per se het enige mechanisme om iemand te identificeren.
[1:58:57] Zij doet ook zaken als IP-adressen en andere elementen die daar een rol in spelen.
[1:59:05] Mevrouw Elbowjani.
[1:59:08] Yes, niet zo heel lang geleden, oktober 2025 volgens mij, heeft de Europese Commissie wel vastgesteld dat dus zowel TikTok en Meta het dus echt wel moeilijker maakten voor onderzoekers om toegang te krijgen, om daadwerkelijk goed onderzoek te kunnen doen.
[1:59:26] Nou ben ik heel erg benieuwd, hoe staan de platformen daar nu in?
[1:59:32] Zijn ze bereid om daar dus wel verandering in te brengen, om dus daadwerkelijk onderzoekers meer toegang
[1:59:38] te verlenen tot de platformen om dus onderzoek te kunnen doen.
[1:59:42] Aan wie stelt u de vraag?
[1:59:43] Ja, eigenlijk aan beide heren.
[1:59:46] Maar oké, dan ga ik voor de heer Haverman.
[1:59:53] Had jij nu toch in de weg gekund?
[1:59:54] Sorry, nee.
[1:59:56] Nou ja, heel simpel.
[1:59:57] De Europese Commissie is de toezichthouder en los van dat ook gewoon de wens van ons om het goed te doen en ook gewoon de wet na te leven, hebben we ook geen keuze dan dat op die manier te doen.
[2:00:10] Ik weet niet precies wat de datum is van de uitbreking en wat precies in die specifieke melding staat waar u naar verwijst, maar het is evident dat we dat moeten naleven.
[2:00:22] Dat is immers de wet.
[2:00:24] Dus het korte antwoord zou zijn ja.
[2:00:29] Toch stond er ook een vraag voor de heer Havenman.
[2:00:34] Mark Zuckerberg heeft excuses aangeboden vanwege censuur door Facebook in de coronatijd, onder druk van de Amerikaanse regering.
[2:00:40] Dat kan hij zich vast wel herinneren, denk ik.
[2:00:42] En nou is mijn vraag, met betrekking tot... Ja, met betrekking tot...
[2:00:45] Dat hoop je maar.
[2:00:46] Maar betekent dit tot de DSA en de Europese Unie ook die trusted vlekken, ons ministerie van Binnenlandse Zaken?
[2:00:51] Zijn er ooit weleens verzoeken gekomen vanuit de Europese Unie of vanuit ons ministerie om iets te verwijderen of aan te passen, wat dan ook, waarvan u buikpijn heeft, waarvan u dacht van ja ik word hier onder druk gezet, dit wil ik eigenlijk niet verwijderen.
[2:01:00] Is dat ooit gebeurd?
[2:01:02] Ik denk dat het goed om te benoemen is dat ik als hoofdbeleid voor de BNO's ga over beleid hier en ook de uitvoering en hoe wij onze invulling geven van onze verantwoordelijkheid.
[2:01:11] Meldingen van trusted flaggers komen uiteraard bij ons moderatieteam binnen.
[2:01:15] Dus die zie ik niet en ik heb ook niet toegang tot de achterkant ofzo en dat is maar goed ook denk ik.
[2:01:21] Dus ik kan helaas weer geen antwoord op die vraag geven, sorry.
[2:01:26] Dan heb ik één laatste vraag aan de heer Marchand-Huizer.
[2:01:29] Als we alle manipulatie en algoritme van uw platformen halen, heeft u dan nog een verdienmodel?
[2:01:42] Kunt u hem iets verder specificeren?
[2:01:44] Wat bedoelt u daarmee?
[2:01:46] Als we teruggaan naar 2015, chronologische tijdlijnen en de eindloze scroll bestaat niet, manipulerende, verslavende en polariserende algoritme ook niet, heeft u dan een verdienmodel?
[2:02:02] We bieden ook andere vormen van feeds.
[2:02:04] Dus je kunt een following feed, een friends feed doen.
[2:02:06] We hebben een science feed ook.
[2:02:08] We hebben ook een ontdek feed van dingen die dichtbij aan de buurt zijn.
[2:02:13] Dus er zijn heel veel verschillende manieren waar mensen voor kunnen kiezen om ons platform te gebruiken.
[2:02:18] We hopen natuurlijk dat mensen daar ook heel veel plezier uit halen.
[2:02:22] De meeste mensen gebruiken onze for you feed omdat ze dat gewoon heel erg leuk vinden om te gebruiken.
[2:02:26] om nieuwe dingen te ontdekken of om zelf creatief te zijn.
[2:02:30] Dus ja, die mogelijkheden zijn er al om dat platform zo te beleven.
[2:02:38] Dan gaan we bijna door naar het volgende blok.
[2:02:42] Niet voordat ik onze gasten heb bedankt voor het delen van hun kennis en hun tijd.
[2:02:47] Heel veel dank dat u er was.
[2:02:48] En dan gaan we plaatsmaken voor blok drie.
[2:02:52] Dat zijn de organisaties.
[2:11:43] Ja, welkom aan onze gasten.
[2:11:45] Excuses voor deze wat langere intermezzo.
[2:11:47] We gaan starten met blok drie, organisaties.
[2:11:51] En aanwezig in het laatste blok, fijn dat u er bent, zijn mevrouw Beek, beleidsadviseur bij Bitser Freedom.
[2:11:59] Mevrouw Stikker, oprichter en directeur-bestuurder van WAG FutureLab.
[2:12:03] De heer Sneep, mede-oprichter en expert kennis- en beleid van smartphonevrij opgroeien.
[2:12:10] Heel fijn dat jullie er zijn.
[2:12:11] Ook jullie hebben ons een position paper toegestuurd.
[2:12:15] Dank daarvoor.
[2:12:17] En ik zou ook jullie willen vragen om een korte introductie te doen.
[2:12:28] En mevrouw Beek, u kunt inderdaad van start.
[2:12:31] Bedankt en bedankt voor de uitnodiging.
[2:12:34] Ik ben de Slootje Beek van Bitter Freedom Stichting die zich inzet voor internetvrijheid.
[2:12:39] En wij maken ons zorgen om het publieke debat, net als jullie.
[2:12:43] Maar we zien ook kansen om het te redden.
[2:12:46] Eerste zorgen.
[2:12:48] Onze democratie is in sterke mate afhankelijk van een gezond publiek debat en dat wordt nu verstoord door online platformen.
[2:12:55] Een publiek debat valt of staat eigenlijk bij een goede informatiepositie van de mensen die daaraan meedoen, maar die aanbevelingsalgorithmen van sociale media die bepalen wat we te zien krijgen en dus welke informatie we tot ons nemen.
[2:13:07] En die algoritme zijn ontworpen om ons zo lang mogelijk online te houden, zodat we zoveel mogelijk advertentieinkomsten genereren voor die platformen.
[2:13:15] En wat houdt ons zo lang mogelijk online?
[2:13:17] Extreme content.
[2:13:19] Menno's Weer content, eetstoornis content.
[2:13:21] Ze krijgen vet makkelijk, vet veel schermtijd, maar ook bij de afgelopen verkiezingen bleek dat extremere partijen meer profiteerden van TikTok-algoritme.
[2:13:30] Terwijl het juist in verkiezingstijd van groot belang is dat mensen een goed geïnformeerde keuze kunnen maken.
[2:13:36] dan de oplossing.
[2:13:38] En allereerst, de huidige platformen zijn volgens ons deel van het probleem, niet van de oplossing.
[2:13:43] We kunnen niet van platformen verwachten dat ze uit zichzelf maatregelen nemen om het publieke debat te waarborgen, omdat die maatregelen hun verdienmodel kunnen schaden.
[2:13:53] Ze herkennen zich nergens in.
[2:13:55] Ze doen al heel veel, horen we net.
[2:13:57] Ze zijn bezig met transparantie en in de tussentijd staat de wereld in de fik en ook online.
[2:14:01] Wat wel werkt?
[2:14:03] Wetgeving en handhaving.
[2:14:05] En die wetgeving die is er deels al met de Digital Service Act.
[2:14:08] Wij starten in aanloop naar de vorige Tweede Kamerverkiezingen op basis van deze wet een rechtszaak tegen meta.
[2:14:14] Die wonnen we.
[2:14:15] En daardoor hebben gebruikers van Instagram en Facebook nu een echte keuze voor een feed die niet gebaseerd is op profilering.
[2:14:21] Maar dat is alleen in Nederland, alleen gebruikers in Nederland kunnen daarvan profiteren.
[2:14:27] In alle andere Europese lidstaten is dat nog niet zo.
[2:14:30] Wij moesten die rechtszaak beginnen omdat META dit niet uit zichzelf deed, nadat we hier ook al maanden geleden over hadden geklaagd bij zowel de Eerste Toezichthouder als de Europese Commissie.
[2:14:39] Waar jullie morgen mee spreken, de Europese Commissie en de ACM, vragen ze om de DSA te handhaven specifiek op dit punt en er zijn nog veel meer andere plekken waar ze zoveel kunnen betekenen met de handhaving.
[2:14:52] Daarnaast is er ook een nieuwe kans, de Digital Fairness Act, waarvan het wetvoorstel eind dit jaar wordt verwacht.
[2:14:58] Dat is volgens ons de uitgelezen kans om platformgebruikers echte autonomie te geven over hun online omgeving en dus hun informatiepositie.
[2:15:05] We hebben in onze position paper al gedeeld wat ideeën daarover, maar willen we ook altijd toelichten.
[2:15:11] En vooral over aanbevendingsalgorithmen denken we dat daar een hele grote slag te slaan is.
[2:15:16] Dus laten we ervoor zorgen dat Europeanen en Nederlanders altijd en dus ook tijdens verkiezingen zelf kunnen kiezen hoe hun informatiedieter uitziet en geïnformeerd het stemlokaal ingaan.
[2:15:27] Dank voor uw bijdrage.
[2:15:28] Dan is nu het woord aan mevrouw Stikker van de WAG.
[2:15:34] Ja, ik wou een nieuw begrip introduceren.
[2:15:38] Wat mensen vandaag de dag ervaren is een toestand van anomie.
[2:15:42] Anomie is een toestand van sociale instabiliteit die ontstaat wanneer de normen en waarden van de samenleving afbrokkelen en onduidelijk worden.
[2:15:49] De term is geïntroduceerd door de socioloog Emile Durkheim.
[2:15:53] Het beschrijft hoe mensen zich losgekoppeld, doelloos of onzeker kunnen voelen over wat juist is
[2:15:57] of wat van hen wordt verwacht.
[2:15:59] Het ontstaat vaak in tijden van snelle veranderingen of ongelijkheid, wanneer de gebruikelijke morele richtlijnen de samenleving niet langer bijeenhouden.
[2:16:08] En ik ben bang dat sociale media daarvan grotendeels de oorzaak zijn en min of meer ook ingezet worden als geopolitiek wapen.
[2:16:18] Ik denk dat waar we nu mee spreken is
[2:16:20] We praten nog steeds alsof we over sociale mediaplatforms hebben die we proberen een beetje te reguleren.
[2:16:25] Ik schrok eigenlijk heel erg dat de NCTV zegt, we blijven in gesprek.
[2:16:28] Waarom zijn we in gesprek?
[2:16:30] We hebben toch echt wel tools en gereedschappen om dit anders te kunnen doen.
[2:16:34] We hebben het al benoemd dat generatieve AI en sociale media in elkaar geschoven raken.
[2:16:39] Door generatieve AI wordt natuurlijk het vermogen om desinformatie te genereren en te verspreiden
[2:16:45] Het geturboot, om het zo te zeggen, inclusief ook wat het ook doet met waarheidsvinding en daarnaast heeft het ook nog een enorme invloed op de positie van media, omdat mensen niet meer terechtkomen bij de echte media, maar bij gefabriceerde media die dus gekleurd raakt, omdat ook AI zelf gekleurd is.
[2:17:07] Het is normatief, het wordt ingezet om daarmee ook bepaalde denkrichtingen wel of niet mogelijk te maken.
[2:17:14] Dus we hebben te maken met een heel complex vraagstuk van zowel sociale media, de verdienmodellen, maar eigenlijk veel meer nog met die geopolitieke dynamiek die eromheen is.
[2:17:23] We praten met z'n allen over strategische autonomie, maar we hebben geen enkele zeggingschap over die platforms.
[2:17:27] Dat hebben we net ook gemerkt.
[2:17:29] Het is een soort eend waar de druppels van afvallen.
[2:17:34] Daar zijn ze ook heel goed in getraind.
[2:17:36] Bovendien praten we hier ook niet met de echte bedrijven, maar met hele aardige Nederlanders.
[2:17:41] De regie op die bedrijven zit elders.
[2:17:44] Zelfs als je de vraag stelt...
[2:17:46] Ben je het eens met wat je baas zegt, dan zeggen ze, ik heb het eigenlijk niet gehoord, ik weet eigenlijk niet waar je het over hebt.
[2:17:53] Wat mij betreft is het volstrekt onvoldoende om ingesprek te blijven.
[2:17:56] Het is gewoon echt voorbij de tijd.
[2:17:58] We waren een beetje op zoek naar een metafoor.
[2:18:01] Elke restaurantkeuken kan permanent ingevallen worden, kan men kijken of er ergens muizenkeutels liggen.
[2:18:08] En als die muizenkeutels er liggen, dan hoef je niet aan te tonen dat er iemand er ziek van is geworden, dan word je meteen gesloten.
[2:18:13] Meteen.
[2:18:14] Omdat er muizenkeutels liggen.
[2:18:15] Nou, volgens mij heeft net de Post X Society van Pieter van Beemen een heleboel muizenpijtels aangetoond.
[2:18:23] Dus het idee dat we niet zouden kunnen ingrijpen, niet zouden kunnen handelen, daar zou ik echt heel graag voor willen pleiten dat we dat dus wel gaan doen.
[2:18:31] En daarnaast zie ik, en dat is interessant, dat met name dus uit de civiele samenleving, de bits of freedoms, de Post X Societies, dat daar dus een heleboel krachten zitten.
[2:18:41] In Europa heb je people versus big tech.
[2:18:43] Een grote beweging die iets van 70 miljoen Europeanen vertegenwoordigt, dat zijn echt grote bewegingen uit de samenleving die zich nu melden.
[2:18:51] Geef die meer ruimte, zorg dat je ze beter ondersteunt, want zij kunnen echt ook heel veel betekenen.
[2:18:55] Je hoeft het niet alleen maar van de politiek te hebben, gezien ook wat jij net liet zien met de rechtszaak.
[2:19:00] Maar, en ik denk dat dat voor mij toch het bangest is wat ik wil zeggen,
[2:19:04] Dat terugduwen op big tech, zelfs met rechtszaken en zelfs door aan te tonen hoeveel muizenkotels er liggen.
[2:19:14] Dat is eigenlijk helemaal niet een goed woord, nu realiseer ik me.
[2:19:16] Maar dat lijkt nog heel erg gezellig.
[2:19:18] Dat is het allemaal niet.
[2:19:21] We moeten ook echt gaan werken aan digitale publieke infrastructuur die wel maatschappelijk zich binnen de grenzen van onze rechtsstaat en de democratie behoudt.
[2:19:30] En dat is ook mogelijk, zowel op generatieve AI
[2:19:33] We hebben een fantastisch initiatief met GPTNL.
[2:19:36] Maak dat groot.
[2:19:37] Maak dat echt dominant.
[2:19:39] Zorg dat dat voor het onderwijs, voor het wetenschap, voor de overheden en voor het MKB beschikbaar komt.
[2:19:44] Iets waarvan je wat transparant, betrouwbaar is, wat niet met die bizarre verdienmodellen zit, die ook niet vanuit een Europese waarde zich kan verantwoorden.
[2:19:55] Datzelfde geldt voor sociale media.
[2:19:57] Die weg bij deze platforms is mogelijk, maar dan moeten we dat ook wel echt serieus gaan aanpakken.
[2:20:03] Dus de hele ontwikkeling van het federatieve open sociale media bestaat.
[2:20:07] Jullie kennen Mastodon, jullie kennen BlueSky.
[2:20:09] De grote doorbraak is nu dat BlueSky ook nu federatief is en dat je nu je aan kan melden op Eurosky.
[2:20:15] Nog steeds toegang tot iedereen die eraan deelneemt.
[2:20:17] Dus ik zou iedereen willen oproepen hier ook van de politiek.
[2:20:20] Jullie houden elkaar gevangen op die platforms.
[2:20:22] De media en de politiek houden elkaar gevangen op X en op TikTok.
[2:20:27] Want voor democratisch moet ik daar zijn of voor de jongeren te bereiken moet ik daar zijn.
[2:20:31] Ik zou willen zeggen zorg dat je een social.tweedekamer.nl hebt.
[2:20:35] waar je alles wat je op sociale media wil zeggen eerst daar plaatst.
[2:20:39] Zodat het ook voor iedereen zichtbaar is dat ik niet op TikTok een abonnee op TikTok moet zijn of dat ik op X nog moet kijken.
[2:20:46] Maar dat ik kan zien wat jullie elders posten.
[2:20:48] Zet het daarna door waar je wil.
[2:20:50] Het liefst ook op de Blue Sky en de Euro Sky omgevingen.
[2:20:56] Maar zorg dat je ook echt zelf bij gaat dragen aan de verandering en het alternatief.
[2:21:00] Ik heb het idee dat als we dat goed doen, die doorbraak ligt echt voor het oprapen nu, deze grote beweging in Europa, om dat mogelijk te maken.
[2:21:09] Ik zou heel graag ook willen oproepen, niet alleen terugduwen op big tech, maar ook echt aan de slag, heet het dan tegenwoordig.
[2:21:15] Gewoon bouwen, zelf ook bouwen, investeren en met elkaar onze creativiteit aanwenden om sociale media weer inderdaad gezellig te krijgen.
[2:21:26] Heel veel dank.
[2:21:26] En dan is nu het woord aan de heer Sneep.
[2:21:30] Ja, dank.
[2:21:31] Dank dat we hier vandaag mogen aanschuiven.
[2:21:34] Voor wie ons niet kent, smartphonevrij opgroeien is een beweging van ouders die met elkaar ruimte creëren om voor hun kinderen smartphones en sociale media uit te kunnen stellen.
[2:21:43] We spreken samen af om nog geen smartphone te geven tot ze minimaal 14 jaar zijn en sociale media uit te stellen tot minimaal 16 jaar.
[2:21:53] We zijn op dit moment een oude beweging van meer dan 60.000 ouders, actief op meer dan 70% van de basisscholen in alle 342 gemeentes in Nederland.
[2:22:01] De inbreng van ons als oude beweging vandaag begint met een simpele vraag.
[2:22:05] Als inmenging via sociale media plaatsvindt, en als kinderen en wetenden dat kinderen massaal op sociale media zitten, kunnen we dan de garantie krijgen dat onze kinderen niet blootgesteld worden aan ongewenste buitenlandse inmenging.
[2:22:20] En het antwoord, heeft u vandaag gehoord, is nee.
[2:22:23] Deze garantie kan niet worden gegeven.
[2:22:26] Sterker nog, het verdienmodel is zo ingericht dat we rekening moeten houden met allerlei vormen van ongewenste beïnvloeding, niet alleen door buitenlandse actoren.
[2:22:35] Vrijwel iedereen kan de aandacht van onze kinderen kopen of via sociale media beïnvloeden.
[2:22:42] Kinderen worden beïnvloed om producten te kopen.
[2:22:45] Hun zelfbeeld wordt beïnvloed.
[2:22:46] En hun wereldbeeld.
[2:22:48] Ze worden beïnvloed tot een bepaald wij-zij-denken.
[2:22:51] En beïnvloed om dingen te doen die ze eigenlijk niet willen.
[2:22:54] Dingen die gevaarlijk zijn.
[2:22:55] Dingen die schadelijk zijn voor zichzelf of voor anderen.
[2:22:59] Dingen die zelfs illegaal zijn.
[2:23:01] Het is een omgeving van beïnvloeding waarin de aandacht van onze kinderen dag en nacht wordt getrokken, vastgehouden, geanalyseerd, geprofileerd en doorverkocht.
[2:23:11] Allemaal voor de winst van een bedrijf.
[2:23:15] Waar is de standaard?
[2:23:16] Waar is de standaard dat als een bedrijf wil verdienen aan kinderen het eerst moet laten zien een veilige, gezonde en geschikte product te kunnen leveren?
[2:23:24] En als dit de platforms niet lukt, waarom krijgen zij dan toegang tot onze kinderen?
[2:23:30] Het gaat er niet alleen om dat onze kinderen toegang hebben tot de platforms.
[2:23:33] Het gaat er ook om wie er allemaal nog meer toegang krijgen tot onze kinderen via de platforms.
[2:23:39] Wij zeggen niet een leeftijdsgrens is het enige wat er moet gebeuren.
[2:23:43] Wij zeggen wel in deze omgeving verdienen kinderen de hoogste prioriteit.
[2:23:48] Stel op zijn minst een minimum leeftijd en wacht daar niet te lang mee.
[2:23:52] De urgentie is torenhoog.
[2:23:55] Want wij als ouders, wij kunnen een normverschuiving in gang zetten.
[2:23:58] Daar zijn wij mee bezig.
[2:23:59] Maar alleen u als beleidsmaker kunt structurele grenzen stellen aan een systeem dat beïnvloeding en het kapen van aandacht economisch beloont.
[2:24:08] Dank u wel.
[2:24:10] Dank voor uw bijdrage.
[2:24:11] En dan is als eerst het woord aan mevrouw Rijkhofsky van de VVD.
[2:24:17] Ja, dank u wel.
[2:24:18] Misschien dan als eerste de vraag aan de heer Sneep over het smartphone vrij opgroeien.
[2:24:25] Ik vind het goed dat de ouders zijn die dit soort initiatieven nemen.
[2:24:28] Ik zou willen dat jullie misschien wat meer gesteund zouden worden vanuit de overheidsbeleid.
[2:24:32] Er zijn door de voorgangers ook wat voorbeelden genoemd hoe dat zou kunnen.
[2:24:35] Zien jullie al resultaten bij kinderen die dan dus misschien hun telefoon is afgepakt of niet op social media kunnen hebben?
[2:24:44] Hebben jullie al voorbeelden van de verschillen hoe het dan mentaal ook met kinderen gaat die niet met smartphones en sociale media opgroeien?
[2:24:53] Ja, dank u wel.
[2:24:54] Ik denk dat het begint met, zien we echt daar de resultaten van en kunnen we dan zeggen van, oh, dus hier is gelijk het effect.
[2:24:59] Dat is nu moeilijk vast te stellen, maar we kunnen wel zeggen, wat we zien is dat er heel veel weerstand ontstaat is bij mensen van dat het heel moeilijk is en heel lastig is.
[2:25:08] En dat valt allemaal reuze mee.
[2:25:10] Dus uiteraard, ik bedoel, laten we wel wezen, als mijn kinderen 11, 12, 13 zouden zijn, dan zouden wij allang ook die smartphone hebben gegeven.
[2:25:18] Wij zijn er hier omdat de positie waar ouders zich in bevinden,
[2:25:22] eigenlijk op dit moment een onmogelijke keuze is, want iedereen is bezig met die smartphone te geven, iedereen is bezig met toegang te geven, het is genormaliseerd en we proberen hier de norm open te breken en te laten zien het kan ook anders en dat is een stuk makkelijker.
[2:25:37] En het gaat ook niet alleen om de mentale gezondheid hierin, het gaat ook om de fysieke gezondheid van drie, vier uur per dag naar een scherm getrokken worden.
[2:25:46] Kijk, zien we daar nu de resultaten van?
[2:25:48] Nog niet.
[2:25:48] Maar we moeten ook die norm gaan verschuiven voordat we daadwerkelijk de resultaten gaan zien.
[2:26:02] De vraag die bij mij een beetje blijft hangen, ook naar de volgende ronde, is van zijn we in staat
[2:26:07] met de wetgeving die we nu hebben, of we deze Amerikaanse techbedrijven op een goede manier kunnen reguleren.
[2:26:16] Of we daar ooit echt toe gaan komen.
[2:26:20] Dat is een vraag die ik misschien aan mevrouw Beek zou willen stellen, hoe zij daarnaar kijkt, ook gezien wat we net gehoord hebben en de ontwikkelingen die zij natuurlijk vanuit haar expertise heeft.
[2:26:32] Ik denk...
[2:26:33] Enerzijds hebben we dus al wetgeving met de Digital Services Act, maar ook de in de ronde hiervoor aangehaalde Digital Markets Act, rondom interoperabiliteit, dat zich hopelijk nog verder gaat uitbreiden.
[2:26:46] Die wetgeving ligt er allemaal.
[2:26:49] Er zou op het gebied van handhaving nog wel wat mogen gebeuren om de boel te redden.
[2:26:54] Maar daarnaast zijn er nog steeds heel veel problemen.
[2:26:58] En ook die moeten worden opgelost.
[2:27:01] En ik geloof dat dat ook kan met wetgeving vanuit Europa.
[2:27:04] We hebben een hele sterke Unie die dit hartstikke belangrijk vindt.
[2:27:08] Ze hebben onderzoek gedaan naar of het consumentenrecht nog geschikt is
[2:27:13] in dit digitale tijdperk.
[2:27:14] Dat is niet zo.
[2:27:16] Daarom willen ze nu nieuwe en extra regels, juist rondom dat verslavende ontwerp, want er zijn zoveel mensen die zoveel meer tijd en geld spenderen online dan dat ze zouden willen.
[2:27:27] En of dat nou in de rechtszaken in de VS wordt aangehaald, klinisch, wordt gezien als verslaving volgens de World Health Organization.
[2:27:38] Dat doet er niet altijd even erg toe, want ik denk dat de resultaten voor zich spreken.
[2:27:42] Dus die problemen die zijn er en die kunnen volgens mij ook worden opgelost met echt sterke regels, maar ook echt goede handhaving daarvan.
[2:27:50] Want daar gaat het soms nog wel een beetje mis.
[2:27:56] Ja, mevrouw Stikker.
[2:27:58] Nou, al eerder werd ook door Pieter van Bohemen eerder benoemd dat begrip interoperabiliteit.
[2:28:03] Volgens mij zou dat ook al enorm... Op een gegeven moment moet een aantal dingen van dat soort zaken gewoon gaan afdwingen.
[2:28:08] Dus er zijn...
[2:28:09] Een aantal zaken waar eigenlijk nauwelijks op gestuurd wordt nog, waar weinig op gehandhaafd wordt.
[2:28:15] Als je interoperatiteit en dataportabiliteit mogelijk maakt, zijn mensen minder gevangen in die platforms, waardoor ze makkelijker ook kunnen verplaatsen naar alternatieven die betere condities hebben.
[2:28:26] En ik denk, jij noemde in het begin nog de Digital Fairness Act, ik denk dat die cruciaal is.
[2:28:31] Dus dat is nieuwe wetgeving die in Europa er nog doorheen moet, terwijl precies op hetzelfde moment er al stemmen op gaan om juist de AVG
[2:28:38] het GDPR en de AIX juist af te zwakken, die je zei.
[2:28:43] Dus ik denk, het is nu wel een punt dat Europa wel sterk moet blijven staan en wat veel gebruikt wordt, en dat vind ik soms wel precair, dat in het Europese context gebruikt wordt dat die wetgeving, dat wij zelf meegaan van ja, Europa kan alleen maar wetten maken, maar de Amerikanen maken dan de spullen.
[2:28:59] Maar op dit moment zijn die regels die we aan het opstellen zijn en de AIX die we hebben,
[2:29:04] Die zorgen juist voor dat die markt weer opengebroken wordt.
[2:29:07] Het is een markt van monopolieposities, van gigantische machtposities, waar voor nieuwkomers bijna niet toe te treden is.
[2:29:14] Dus juist door de regels te handhaven en misschien zelfs wel wat aan te scherpen,
[2:29:19] maak je het mogelijk dat er weer innovaties mogelijk zijn, ook door spelers uit Europa.
[2:29:24] Ik vind het soms wat verwarrend dat we ons verontschuldigen voor de regels, want dat zou tegen innovatie in zijn.
[2:29:30] Ik denk dat innovatie alleen kan op het moment dat je een speelveld weer opnieuw bepaalt.
[2:29:34] En dat speelveld is het op dit moment niet eerlijk, omdat het sprake is van monopolieposities, machtsposities en informatieposities die voor nieuwkomers niet...
[2:29:44] niet mogelijk zijn.
[2:29:45] Dus ik denk dat we meer mogelijkheden hebben.
[2:29:49] En daarnaast ook nog, kijk, je hebt ook nog het innovatiebeleid.
[2:29:51] We hebben ook nog het Peter Wenning-verhaal met grote innovaties.
[2:29:54] en op AI in gaan zetten.
[2:29:56] Laten we dan zorgen dat we de innovatie zo richten dat ze het inderdaad over responsible AI gaat, responsible social media gaat.
[2:30:02] Laten we daar eens grote programma's op inrichten.
[2:30:05] We kunnen dit allemaal met elkaar maken.
[2:30:06] De kwaliteit van die platforms, zou ik wel eens zeggen, zijn ook weer niet zo fantastisch.
[2:30:12] Ik bedoel, we zijn eraan gewend geraakt, maar dit hoeft niet onze toekomst te zijn.
[2:30:17] We kunnen ook een andere toekomst maken met elkaar.
[2:30:19] Dus ik zou graag willen dat we ambitieuzer zijn in ons vermogen in Europa
[2:30:24] Onze creativiteit, onze IT-kennis, onze strategische kennis, om sociale media te maken die wel passend is bij zelfs kinderen.
[2:30:32] We hoeven kinderen niet sociale media te onthouden, zolang het maar respectvol omgaat met het individu.
[2:30:41] Behalve deze sociale media, die zou ik wel graag aan kinderen willen onthouden.
[2:30:45] Deze mag heel erg verboden worden, ja.
[2:30:48] De heer Datsch heeft een vervolgvraag.
[2:30:50] Ja zeker, want het klinkt heel interessant wat u zegt over de wetgeving die we ook hebben die zorgt juist voor dat we de markt ook openbreken.
[2:30:58] Dat is niet het dominante narratief wat je op dit moment hoort bij veel politieke partijen.
[2:31:03] Dat is namelijk inderdaad tegenovergesteld dat deze wetgeving juist heel beklemmend is.
[2:31:06] En dat daardoor we in Europa eigenlijk geen grote bedrijven hebben.
[2:31:10] Dus ik was benieuwd of u daar nog wat meer duiding aan kan geven.
[2:31:13] En u noemde de Social Responsibility Social Media.
[2:31:18] Grote programma's daarvoor opzetten van hoe we dat het beste kunnen doen, volgens u.
[2:31:22] Aan mevrouw Stikker.
[2:31:26] Als je een aantal criteria noemt waar je...
[2:31:30] Als je de waarden defineert waar je graag aan wil dat technologie aan voldoet, dan kun je dat ook heel duidelijk... Bijvoorbeeld interoperabiliteit, dataportabiliteit.
[2:31:38] Dat zijn hele specifieke gegevens die je mee kunt geven aan privacy by design.
[2:31:44] Heel mooi bijvoorbeeld het GPT-NL, het taalmodel dat we hier in Nederland aan het trainen zijn.
[2:31:48] Dat is compliant met de AI Act.
[2:31:51] AVG zit daarin.
[2:31:53] En het wordt netjes betaald voor de contentleveranciers.
[2:31:57] Het kan.
[2:31:58] Je kan dit soort technologie bouwen die netjes zich houdt aan rechtsstaat, democratie, normale economische ordening.
[2:32:05] Als je die regels niet expliciet maakt, we zien dat bijvoorbeeld met de cloud, als je niet expliciet zegt dat de data onder Europees recht moet vallen, maar je dat ambigu laat, dan is er voor datapartijen hier in Europa nauwelijks kans om een aanbesteding te winnen.
[2:32:24] Dat kan nu, op het moment dat je het onderdeel maakt van je procurement, van je aanbesteding,
[2:32:28] ontstaat er ruimte voor partijen om te zeggen, maar dat kunnen wij eigenlijk ook.
[2:32:31] Ik weet dat er nu een markt voor is, ik ga erop investeren.
[2:32:34] En dan ontstaat er dus wel een Europese datamarkt of cloudmarkt.
[2:32:38] Dus we zien eigenlijk nu al een verschuiving doordat strategische autonomie als een belangrijker argument gebruikt wordt dan prijs bijvoorbeeld.
[2:32:45] Daar zitten veel mogelijkheden in je economisch beleid om te zorgen dat je stuurt op het juiste.
[2:32:51] Als we kijken naar de grote programma's, er zijn een heleboel spelers... U weet misschien, ik kom uit de jaren 90 met de digitale stad.
[2:33:00] Toen was sociale media nog echt leuk.
[2:33:02] Daarna was Hives ook heel erg leuk.
[2:33:04] Facebook was nooit leuk trouwens.
[2:33:06] Dat was meteen al dat je data werd bestolen en dat je een beetje voor gek werd gehouden.
[2:33:11] Maar ik voel een beetje diezelfde tijd terug.
[2:33:14] Er zijn heel veel mensen die er ongelooflijk veel zin in hebben om het goede te gaan doen en het te gaan maken.
[2:33:20] Maar dan moeten we dat wel volle baan geven.
[2:33:21] Dus ik zou zeggen als je vanuit groeifonds bijvoorbeeld nadenkt over de grote thema's waar je iets op wil doen.
[2:33:27] Zet dan een groot ecosysteem op dit hele thema van digitale sociale media, inclusief ook AI.
[2:33:33] Zorg dat je daar alle spelers in een ecosysteem bij elkaar brengt om daar stevig op te gaan ontwikkelen.
[2:33:39] Doe dat ook in een Europees verband.
[2:33:41] En die doorbraak, daar zitten we eigenlijk best dicht tegen aan.
[2:33:46] Mag ik daar nog wat aan toevoegen?
[2:33:47] Zeker, mevrouw Beek.
[2:33:48] Dus er zitten best wel wat grote platformen ook in Europa.
[2:33:52] Maar ik denk dat we niet per se moeten hunkeren naar grote bedrijven in Europa als dat betekent dat dat ten koste gaat van onze privacy of vrijheid van meningsuiting of onze veiligheid.
[2:34:04] Dus het soort bedrijven dat nu in de VS of China zit, die willen wij helemaal niet hier.
[2:34:09] We willen alleen bedrijven die zich aan die regels houden.
[2:34:12] Daarom zijn ze er ook.
[2:34:14] Dus als ze dan niet gigantisch zijn, so be it.
[2:34:17] als ze maar onze mensenrechten respecteren.
[2:34:21] Mevrouw Swinkels.
[2:34:24] Dank u wel, voorzitter.
[2:34:25] Dank aan de drie sprekers.
[2:34:28] Met name ook aan de heer Sneep voor zijn uitgebreide warmpleidooi voor smartphonevrij opgroeien tot 16 jaar.
[2:34:36] Dat ondersteun ik van harte.
[2:34:38] Ik had nog wel een vraag.
[2:34:41] Ik was aan mevrouw Beek.
[2:34:43] Ik moet de namen niet door elkaar gaan halen.
[2:34:45] Aan mevrouw Beek, want ik wil graag in vraag stellen over dat publiek debat.
[2:34:49] U gaf aan dat op TikTok er opvallend veel ruimte is voor extreme partijen en politieke gedachtegoed.
[2:34:58] Ik vind het altijd lastig om zelf met een politieke pet op daar dan een heel erg sterk oordeel over te hebben, want dan denkt iedereen gelijk die wil alleen maar meer ruimte voor het CDA op TikTok.
[2:35:08] Dus ik vraag eigenlijk u daarom de vraag van wat zou TikTok kunnen doen om daar een betere balans in te faciliteren?
[2:35:21] Ik denk, we moeten niet TikTok gaan vragen om iets te doen.
[2:35:25] We moeten gewoon wetgeven en handhaven, want anders gebeurt het niet.
[2:35:29] Want dat schaat men, denk ik, wel redelijk in een verdienmodel.
[2:35:32] En zoals we net hebben gehoord, is dat ook heel belangrijk.
[2:35:36] Maar wat we zien, is dat extreme berichten het goed doen op dit soort algoritme.
[2:35:45] Heel goed onderzoeken kunnen we dat niet, want deze algoritme zijn best wel geheim en niet open source, dus we kunnen daar niet aan de achterkant kijken.
[2:35:56] Maar wat we wel kunnen doen, is gepersonaliseerde algoritme
[2:36:01] verbieden of inzetten op het mogelijk maken van algoritme die ontworpen worden door derden.
[2:36:07] Dus op dit moment zijn alle feeds of tijdlijnen die je online ziet, die zijn, die algoritme daarachter, die zijn bedacht door die platformen zelf.
[2:36:15] Dus je hebt natuurlijk de for you of for jou pagina waar je al die gepersonaliseerde content ziet, waar dus alles helemaal fout gaat.
[2:36:26] En dankzij die DSA hebben platformen nu ook vaak een
[2:36:30] Een tijdlijn die niet is gebaseerde profilering.
[2:36:33] Maar er zijn nog veel meer verschillende tijdlijnen mogelijk.
[2:36:36] Dus stel je eens voor een tijdlijn die alleen maar zwart-wit content laat zien... of hele saaie filmpjes of hele genuanceerde filmpjes of... Nou ja, ga zo maar door.
[2:36:46] Of eentje die alleen maar filmpjes laat zien van twintig minuten... of eentje die alleen maar filmpjes laat zien van vijf minuten.
[2:36:52] Ja, je kan er zoveel bedenken en het zou zo tof zijn als alle computernerds van heel Europa allemaal supercoole algoritme konden ontwerpen die wij dan kunnen gebruiken op die platformen, zodat we ook wat meer keuzevrijheid hebben in wat we te zien krijgen, want op dit moment hebben wij eigenlijk helemaal niks te zeggen over welke informatie we tot ons nemen en dat is altijd schadelijk, want democratie hebben we altijd, maar zeker in verkiezingstijd, omdat je juist dan ziet dat bepaalde politiek content meer profiteert van die algoritme.
[2:37:26] Nee, ik ben heel erg blij met het antwoord.
[2:37:28] Ik ben natuurlijk nog benieuwd naar wat we nog meer kunnen doen op dit vlak.
[2:37:33] Maar laten we daar contact over houden.
[2:37:34] Voor nu geen verdere vragen.
[2:37:41] Dank u wel.
[2:37:43] Ik wil even terugpakken op wat mevrouw Stikker zei, want daar ben ik het echt helemaal mee eens.
[2:37:47] Dat we niet moeten wijken voor onze eigen Europese wet en regelgeving, want die belichamen ook gewoon onze Europese normen en waarden en onze democratie die we zo belangrijk vinden.
[2:38:00] Dus ik denk ook dat het heel goed is dat we juist innoveren binnen die kaders die we al hebben.
[2:38:07] En dat brengt mij ook wel op het volgende, want mevrouw Beek begon daar straks al over de Digital Fairness Act.
[2:38:13] Als u zo hoort wat dus in het vorige blok is gezegd door de drie platformen, wat voor kansen ziet u dan met de Digital Fairness Act in die hoedanigheid?
[2:38:28] kansen om ook daadwerkelijk concrete actie af te dwingen.
[2:38:32] Dus ik vind dat we niet moeten vertrouwen op gedragscodes of zelfregulering, want deze platformen hebben een verdienmodel, een heel succesvol verdienmodel.
[2:38:41] Het zijn de rijkste bedrijven ter wereld.
[2:38:43] Dus ik denk dat het heel belangrijk is dat we echt handhaafbare, effectief handhaafbare wetgeving hebben.
[2:38:51] En ik denk dat in de Digital Fairness Act daar heel veel kansen voor liggen.
[2:38:56] Dus onder andere het reguleren van die aanbevelingsalgoritme en hoe je daar keuzes tussen maakt, zodat wij niet rechtzaken hoeven te beginnen om dat af te dwingen.
[2:39:06] Maar ook het verbieden van al dat verslaafde ontwerp waar mevrouw Katman net ook over begon.
[2:39:14] Al die endless scrolls, die automatisch afspelen van video's.
[2:39:18] Toen ik het position paper van Meta las, wilde ik op de links klikken en moest ik honderd cookies accepteren en kon ik ze bijna niet weigeren.
[2:39:28] Daar moeten we gewoon van af, van dat soort ontwerp.
[2:39:30] Verslaafd ontwerp, ja, dat is gewoon hartstikke manipulatief.
[2:39:34] En als mensen op sociale media zich willen bewegen, dan moet dat op hun eigen voorwaarden.
[2:39:39] En op dit moment is dat niet zo.
[2:39:41] Dus ik zie daar heel veel kansen voor in de digital fairness act.
[2:39:47] Ja, dank u wel.
[2:39:48] En volgens mij hoorde ik mevrouw Beek daar straks ook noemen, de digitale omnibus.
[2:39:54] Of was dat mevrouw Stikker?
[2:39:56] Oké, mevrouw Stikker, dan een vraag voor u.
[2:39:59] Want wat voor risico's zit u daar aan of juist niet aan de digitale package omnibus die nu dus op tafel ligt binnen de EU?
[2:40:10] Welke risico's of geen risico's zitten er aan met betrekking tot de grote platformen die we hebben?
[2:40:17] Het begint ermee dat we ons zo kwetsbaar maken door ons te ontschuldigen voor wetgeving.
[2:40:29] In eerste instantie al mis, we hebben privacy-wetgeving.
[2:40:34] En als ze dan zeggen, daarom heb je nou die cookies, dat is dus niet waar.
[2:40:39] Dat je dan niet kan zeggen, nee je hebt die cookies omdat je wilt tracken en tracen.
[2:40:44] Je kan een goed website hebben zonder cookies, als je dat niet doet.
[2:40:47] Als je geen Google Analytics in je website hangt,
[2:40:50] dan hoef je ook geen koekjes te vragen.
[2:40:53] Dus er wordt heel vaak het spel gespeeld dat die wetgeving dan, omdat de overheid de politiek wetgeving wil hebben en regels, dat we daardoor een slechtere ervaring hebben als consument.
[2:41:06] Dat moet je echt gaan pareren, want je wordt daar zelf ook als wetgever voortdurend mee in het
[2:41:11] in een hele verkeerde positie geplaatst.
[2:41:13] En wat nu rondom die omnibus gebeurt... Europa wordt gewoon helemaal plat gelobbyd.
[2:41:19] En als je dan kijkt wat daar aan...
[2:41:21] Dat is natuurlijk totaal uit evenwicht.
[2:41:24] Dus ik denk niet dat jullie lobbyisten daar hebben zitten.
[2:41:27] We hebben E3.
[2:41:29] Er zit een krachtig veld vanuit de privacybeweging.
[2:41:35] Dat is niet bij te houden.
[2:41:38] Als je ziet hoe vatbaar men is om bevriend te blijven met Trump en Vance.
[2:41:46] De baas van Meta komt ons vertellen dat wij antidemocratisch zijn.
[2:41:54] Je ziet dat dat de verkeerde druk is.
[2:41:57] Versimpelen.
[2:42:00] Er zijn altijd voldoende redenen om te zeggen, regels moeten simpel en uitvoerbaar zijn.
[2:42:07] Maar dat moet dan wel vanuit een intrinsieke behoefte zijn.
[2:42:10] Maar dat moet nog steeds gebaseerd zijn.
[2:42:11] En een van de grootste problemen, vind ik zelf, van de wetgeving die we nu hebben, is allemaal consumenten gebaseerd.
[2:42:17] Dus we hadden het al over, moet je niet op andere gronden ook rechten aan mensen toeschrijven, bijvoorbeeld grondrechten?
[2:42:23] Het recht op integriteit, dat hebben we wel over ons lichaam.
[2:42:30] We worden niet geacht onderdelen van ons lichaam te verkopen, dat mogen we ook niet, dat hebben we wettelijk zo bepaald.
[2:42:35] Maar we brengen wel mensen in de positie dat ze hun integriteit van een persoon verkopen, dus dat ze informatie van zichzelf
[2:42:42] omdat ze ergens op ja gaan klikken.
[2:42:43] Dus dat er een soort opt-in überhaupt mogelijk is, dat je persoonsdata moet verkopen.
[2:42:48] Dus omdat we alles als een markt zijn gaan beschouwen, hebben we een probleem dat we dus vooral consumentenrecht hebben.
[2:42:54] Dus ik denk dat je naar mensenrecht alleen bij de AI, ik zie dat een beetje terug, maar het vraagstuk van de integriteit en de onschendbaarheid van de persoon, dat zou wat mij betreft ook echt een grond kunnen zijn om wetgeving op te gaan baseren.
[2:43:06] En ik zie daar nog te weinig van.
[2:43:07] Maar ik zou dus die omnibus intact laten.
[2:43:10] Ik wil zorgen dat je niet zwicht voor die druk die vanuit met name Amerika komt.
[2:43:16] En ook vanuit intern, vanuit bedrijven die zeggen dat ze anders ook niet kunnen concurreren met Amerika.
[2:43:21] En laatst wat ik nou wil zeggen is, de boel is natuurlijk wel flink geëscaleerd sinds de minister van oorlog.
[2:43:28] aangeeft dat alle AI-infrastructuur en sociale media-infrastructuur onderdeel van het militaire, van GenAI.mil is geworden.
[2:43:37] We praten over technologie die gemilitariseerd is in een volledig geëscaleerde wereld op dit moment, met een Amerika die niet meer onze vriend is.
[2:43:46] Dus ik vraag me soms ook af hoe we ons moeten verhouden tot bedrijven als Meta en OpenAI, die gewoon onderdeel van het pentagonsysteem zijn geworden.
[2:43:55] Ik vraag me af of we het probleem al voldoende in de bek hebben gekeken om te weten waar we voor staan als Europa inmiddels.
[2:44:05] Ja, en om daar dan nog een klein beetje op aan te vullen.
[2:44:07] Inderdaad, in Amerika hebben ze het over een culture war die uitgevoerd wordt op social media.
[2:44:13] Op onze kinderen.
[2:44:14] En dat is inderdaad mijn toevoeging.
[2:44:16] Dus als we kijken dat Netanjau het vorige maand het zevende front noemt.
[2:44:20] TikTok is het zevende front waar Israël oorlog op voert.
[2:44:25] Ja, laten we wel wezen, we sturen kinderen, als er wordt gezegd offline en online is verwoven, we sturen kinderen ook niet offline naar het front.
[2:44:35] Ja, dan wil ik daar graag een vraag over stellen, want dan wordt het natuurlijk ook gewoon een zaak van nationale veiligheid.
[2:44:41] Ik denk dat we op andere terreinen, als het over technologie gaat, misschien al wel goed op de bril hebben dat we dus meer onze
[2:44:53] eigen broek op moeten houden, meer dingen zelf moeten doen, onafhankelijker moeten worden.
[2:44:57] Maar dat we als we het hebben over zeker sociale media platformen specifiek, dat echt nog veel te weinig hebben.
[2:45:04] En mijn vraag wil ik graag stellen aan mevrouw Stikker.
[2:45:06] U zei net van er is een
[2:45:09] eigenlijk als soort community van 75 miljoen Europeanen.
[2:45:13] Zorg dat je daar ook meer bij aansluit, dat die meer ruimte krijgen.
[2:45:18] Waar bestaat nou die community uit?
[2:45:20] Hoe zorg je ook dat je die beweging alleen nog maar groter maakt?
[2:45:25] Want eigenlijk gaat het erom
[2:45:27] Als we in actie willen komen dan vaak in de offline wereld weten we nog wel hoe we ons moeten verenigen.
[2:45:33] Online vinden we dat heel moeilijk.
[2:45:35] Wat kunnen wij nou als Tweede Kamer doen om dat beter te faciliteren en die ruimte dus te geven?
[2:45:43] Allereerst is het gewoon heel fijn om daarover te mogen praten, te kunnen praten dat die beweging er is en dat die begrepen wordt en dat de kracht ervan ook gewoon begrepen wordt.
[2:45:54] Omdat we vaak kijken naar het bedrijfsleven, komt die met iets?
[2:45:57] Of we kijken naar de kennisinstellingen, komt die met iets?
[2:46:00] En hier zie je gewoon de civic society, de grassroots zijn het aan het maken al.
[2:46:06] Daar zit ook heel veel ondernemerschap in trouwens, dus het is een combinatie van beide.
[2:46:11] Wat je ziet is dat er twee grote open protocollen zijn, dat is het ActivityPub-protocol en het AT-protocol.
[2:46:17] BlueSky leeft op het AT-protocol en Mastodon op het andere ActivityPub.
[2:46:23] Je ziet een ontzettend heel ecosysteem van nieuwe interfaces, allerlei toepassingen die heel aantrekkelijk ook kunnen worden voor gebruikers.
[2:46:32] Net zo aantrekkelijk als wat TikTok nu is.
[2:46:34] Het kan heel goed concurreren straks.
[2:46:36] Maar wat interessant is, het is open, het is transparant.
[2:46:39] Heel veel verschillende aanbieders kunnen dat gaan aanbieden.
[2:46:42] Er is niet één partij die dat aan gaat bieden.
[2:46:44] Moderatie kan ook gedeeld worden door verschillende partijen.
[2:46:47] Er is niet één ergens soort onzichtbare moderator die je niet kan horen, zien, die je niet kan spreken.
[2:46:55] Er zijn heel veel voorwaarden dus die daarmee ingelost worden.
[2:47:00] Je ziet dat uit die People vs Big Tech is de Free Your Feets-beweging ontstaan.
[2:47:05] Uit de Free Your Feets is die beweging van Eurosky ontstaan.
[2:47:10] Je hebt Public Spaces, een grote coalitie hier in Nederland die partijen bij elkaar brengt uit de cultuur, de samenleving, de goede doelen, de mediaorganisaties die aangesloten zijn vanuit de wagen van een groot programma Public Notes, waar alle grote mediabedrijven bij aangesloten zijn, die allemaal ook vanuit de journalistiek en de media nadenken van Big Tech en deze platform, zei voor ons, dan zijn we ten dode opgeschreven, echt letterlijk ook.
[2:47:35] Dus er is gewoon geen business meer te halen voor onze mediapartijen, ook niet onze commerciële
[2:47:40] media.
[2:47:41] Dus je ziet een sterke beweging van partijen die met elkaar gaan samenwerken op dat vlak.
[2:47:46] En wat je zou als overheid kunnen doen, is eerst het erkennen, we hebben nog nooit echt een stevig digitale samenlevingsprogramma gehad.
[2:47:53] We hebben nog nooit een soort basisinfrastructuur voor de digitale samenleving gehad, waarin je fondsen beschikbaar stelt voor ontwikkeling, voor rollen die, dus al die rollen die de Bits of Freedoms en de Post X Societies en dergelijke allemaal innemen of de Public Spaces.
[2:48:07] Dat zijn allemaal projecten die echt veel, ja, eigenlijk als een soort civic society aanwezigheid zouden moeten hebben.
[2:48:14] Ik zou daar echt eens op aan willen sturen.
[2:48:16] Want wat nu digitale samenleving heet bij de overheid, is de overheid die loketten inricht voor de samenleving.
[2:48:23] Maar als we de digitale samenleving serieus nemen, dan moet je ook echt een digitaal publiek domein hebben, wat niet van het bedrijfsleven is en ook niet van de overheid is.
[2:48:32] Je wilt echt een trust of een commons in het midden daarvan hebben.
[2:48:36] Ik denk dat de technologie daarvoor rijp is, ik denk dat de spelers daarvoor rijp zijn.
[2:48:40] En ik denk dat het belangrijk is dat in het nationale actieplan van de elektronische snelweg uit 1994, die zou ik er nog eens bij pakken,
[2:48:53] Het is de eerste keer dat de overheid een strategisch plan maakt voor het internet.
[2:48:57] En daar staat nog een hele mooie beschrijving.
[2:48:59] Daar staat de overheid heeft ook verantwoordelijkheid voor het digitale publieke domein vanwege pluriformiteit.
[2:49:05] Prachtige regels en allemaal.
[2:49:06] Ga daar naar terug en maak daar een programma op.
[2:49:08] Dan heb je volgens mij een stimuleringsprogramma waar je eigenlijk ook een antwoord hebt op hoe het wel zou kunnen in plaats van alleen maar terug te duwen op wat we niet willen.
[2:49:20] Zeker.
[2:49:22] om daar nog aan toe te voegen en ook misschien tegenover te stellen.
[2:49:24] Dus enerzijds ruimte maken voor die alternatieven, maar ook de deur dicht houden voor big tech.
[2:49:32] Dus als jullie ze uitnodigen, dan is het om verantwoording af te leggen.
[2:49:36] Dat hebben jullie net heel goed gedaan, volgens mij.
[2:49:39] Maar dit zijn geen bedrijven die deel zijn van de oplossing.
[2:49:44] Jullie zijn de volksvertegenwoordigers.
[2:49:46] Ga van Big Tech af.
[2:49:47] Geef het goede voorbeeld en maak gebruik van die alternatieve platformen, want die zijn er.
[2:49:51] Wij hebben een fantastische campagne.
[2:49:52] Weg van Big Tech.
[2:49:54] We kunnen er echt van af en jullie ook.
[2:49:55] En ik denk, als iemand het goede voorbeeld moet geven, dan zijn het de mensen aan deze tafel.
[2:50:03] Dan kijken we nog even naar de linkerzijde.
[2:50:07] Ja, mevrouw Rijkhofsky.
[2:50:09] Ja, dankjewel.
[2:50:11] Altijd ook fijn als de verantwoordelijkheid bij ons weer terug wordt neergelegd.
[2:50:14] Dan moeten wij natuurlijk ook aan de slag.
[2:50:15] Dat klopt.
[2:50:18] We hebben morgen een gesprek met de ACM, met de Europese Commissie en ook nog met de REACT.
[2:50:23] Dat lukt niet meer publiekelijk, dus dat doen we via videocall.
[2:50:26] Wat zou wat jullie betreft dan de belangrijkste vraag zijn die wij kunnen stellen aan de Europese Commissie en de ACM, dus de toezichthouders?
[2:50:36] We hebben nu de DSA, we kunnen die aanbevelingsalgoritme controleren.
[2:50:41] Zit het er dan vooral op waarom wordt er niet gehandhaafd en worden die algoritme eigenlijk niet met de groep wetenschappers gecontroleerd?
[2:50:50] Of zitten jullie zorgen nog op andere vlakken?
[2:50:54] Jullie hebben een hele hoop genoemd natuurlijk al, dat snap ik.
[2:50:59] Wat ik nu ga zeggen gaat heel egoïstisch klinken, maar zo is het niet bedoeld.
[2:51:03] Want ik ga het hebben over onze rechtszaak en die heeft impact op heel Europa.
[2:51:10] Waarom moesten wij een rechtszaak beginnen om af te dwingen dat mensen een echte keuze hadden op meta, terwijl dat gewoon zo in de DSH besloten is?
[2:51:19] Waarom is dat nu alleen nog in Nederland zo?
[2:51:21] De Europese Commissie heeft dat toezicht, heeft die macht.
[2:51:24] Ze kunnen hier gewoon nu iets mee doen en dat moeten ze zo snel mogelijk doen.
[2:51:32] Ja, en voor ons is het ook zo, zolang dat we met elkaar blijven accepteren dat een bedrijf mag verdienen op het trekken en houden van aandacht, dan blijven de economische prikkels bestaan om ook nieuwe features te ontwikkelen die niet alleen binnen de huidige wetgeving gaan vallen, dus ook de randjes gaan opzoeken van de wetgeving, de algoritmes te blijven optimaliseren om toxische content te tonen die, nou ja, inmenging in de hand werken, maar vanuit ons perspectief ook de grenzen van kinderen ver voorbij gaan.
[2:52:02] Dus die prikkel willen we graag laten doen.
[2:52:06] Ik zou die vraag willen stellen.
[2:52:08] Men heeft de opdracht.
[2:52:10] Men heeft de wet.
[2:52:12] Waarom handelt men niet?
[2:52:14] Dat voorbeeld net met elke restaurantkeuken wordt bezocht en dan mag je gewoon alles bekijken.
[2:52:21] Onder de pannen, in de oven.
[2:52:24] Je mag de koeling controleren.
[2:52:27] Je mag alles controleren.
[2:52:28] Waarom controleren we niet?
[2:52:29] Waarom is men zo terughoudend om gewoon
[2:52:32] naar binnen te stappen, te zeggen we willen de algoritmes zien.
[2:52:34] Ik hoorde net dat je, we trekken de trollen er zo uit, hoorde ik net.
[2:52:42] GELACH Gewoon, laten we eens wat gaan doen.
[2:52:44] En laat gewoon, als dan de deur dicht gaat, en zorg dat je een goed spotteam hebt, een goed toegerust, zwaar goed toegerust team, wat binnen kan stappen en zegt we willen eens even onder de pannen kijken, of in de pannen kijken.
[2:53:01] De heer Dassen.
[2:53:02] Mevrouw Swinkels heeft nog een vraag.
[2:53:09] Ja, dank voorzitter.
[2:53:10] Ik was nog wel benieuwd naar één ding en dat is...
[2:53:12] Ik stelde net die vraag over de ruimte voor extreme partijen, bijvoorbeeld op TikTok, met name gericht op jongeren.
[2:53:19] Ik merk dat ook als ik op middelbare scholen bijvoorbeeld langskom.
[2:53:23] En ik ben wel benieuwd welke adviezen of tips deze drie sprekers hebben voor ons als het gaat om het investeren in digitale vaardigheden en weerbaarheid van onze volgende generatie.
[2:53:40] Ik denk dat het heel moeilijk is om dat te gaan vragen aan de volgende generatie en ook deze generatie, want we hebben er allemaal last van, denk ik.
[2:53:49] Ik vind het moeilijk om die verantwoordelijkheid te leggen bij de gebruikers van de platformen zelf, want dit zijn, nogmaals, de rijkste bedrijven ter wereld die heel veel geld en tijd steken in slimme trucs bedenken om ons om de tuin te leiden.
[2:54:05] Zelfs ik, bij Bitter Freedom werk ik, kan nog wel eens totaal mezelf kwijtraken in zo'n algoritme.
[2:54:12] Dus om het maar even te illustreren, denk ik dat de grootste kans ligt toch echt in dat handhaven.
[2:54:23] En voor de weerbaarheid kijk ik even naar mijn buurman.
[2:54:31] Eén van de dingen die we vanuit Waagboot zijn gaan doen is... ...de minor Het internet is stuk, maar we kunnen het repareren.
[2:54:39] En daar zijn studenten, maar dat zijn ook programma's... ...die op het voortgezet onderwijs, zelfs primair onderwijs... ...is dat je, in plaats dat je alleen maar ze leert om een goede gebruiker te zijn... ...dat je ze leert om een goede maker te zijn.
[2:54:52] Dan snap je er namelijk meteen veel meer van.
[2:54:55] Dus ik zou heel erg voor zijn om het onderwijs, dus het IT-onderwijs en het creatieve...
[2:54:59] culturele onderwijs bij elkaar te brengen, dat die vaardigheden verder gaan dan alleen maar leren hoe een algoritme werkt, maar ook zien zelf een keertje eentje maken.
[2:55:12] Je leert er echt ongelooflijk veel van, dus ik zou ze veel meer als een maker...
[2:55:16] Ik loop naar mijn buurman.
[2:55:19] Ik begrijp heel goed waarom jij een verbod wil.
[2:55:23] Ik snap heel goed.
[2:55:24] Ik wil een minimum leeftijd.
[2:55:26] Maar ik zou zo graag willen dat juist jongeren meehelpen en meebouwen aan de toekomst.
[2:55:32] En dat zij, als je ze pas op hun zestiende daarop aanspreekt, je moet ze gewoon veel vroeger daarop aanspreken.
[2:55:38] Dus ik zou ze graag willen zien als onze nieuwe makers voor de toekomst.
[2:55:42] En die kunnen dan zorgen dat het er beter uit komt te zien.
[2:55:45] Dat betekent dus dat ik me helemaal met je eens dat waarom je dit vraagt, snap ik, maar ik vind het ook wel heel restrictief en ik denk dat er in die potentie van de jongeren ook nog heel veel mogelijkheden zitten om juist het ten goede te keren.
[2:55:59] Dus ik zou heel graag willen dat we daar dan ook programma's op inrichten.
[2:56:01] Dus niet alleen verbieden, maar ze dan ook betrekken bij het ontwikkelen van de toekomst.
[2:56:07] Ja, dan heb ik nu heel veel daarop in te brengen.
[2:56:10] Dus als we het hebben, we willen het woord verbieden, werkt voor heel veel mensen als een rode lap op een stier.
[2:56:16] En we hebben het hier over de heroverweging van wat we als maatschappij genormaliseerd hebben.
[2:56:21] En dat is iets anders, dat is het hebben met elkaar over de problematiek, net zoals dat u het beschrijft eigenlijk vanuit uw kant ten aanzien van het hele internet en de social media waar we nu op zitten.
[2:56:31] En verbieden gaat gelijk over het probleem, de oplossing, en dat mensen daar elkaar over in discussie gaan van waarom dat dat niet werkt.
[2:56:41] En dat is geen handige woordkeuze, dus ik zou ook aan iedereen willen vragen als je de keuze hebt om het woord minimumleeftijd of het woord verbod te gebruiken, gebruik dan het woord minimumleeftijd.
[2:56:53] Dan ingaan op de vraag van de school.
[2:56:58] Laten we ermee beginnen.
[2:56:59] Wat is de primaire functie waarom we kinderen naar school sturen?
[2:57:02] Dat is om te leren.
[2:57:04] En een smartphone...
[2:57:06] De nadelen van een smartphone doen afbreuk aan de primaire functie van het leren.
[2:57:14] En de voordelen van een smartphone voegen niks toe aan de primaire functie van een school.
[2:57:19] Met andere woorden, een smartphone heeft geen plaats in school, wat ons betreft.
[2:57:25] Dan welke vaardigheden moeten dan geleerd worden?
[2:57:27] Ja, heel bazaal gezegd...
[2:57:31] Als we seksuele voorlichting geven, dan verwachten we ook niet dat de kinderen gaan praktiseren.
[2:57:36] Dus met andere woorden, ze hoeven niet tegelijkertijd erop te zitten.
[2:57:39] Als we het hebben over het maken... Dus dat de maken... Sorry.
[2:57:44] Nee, oké.
[2:57:45] Nee, ja.
[2:57:47] Ja.
[2:57:48] Nou ja, ik heb andere voorbeelden ook nog.
[2:57:50] Maar het idee van maken staan wij helemaal achter.
[2:57:54] Het idee van digitale vaardigheden bijbrengen staan wij helemaal achter.
[2:57:57] En er zijn ontzettend veel slimme mensen in Nederland hier ook mee bezig.
[2:58:01] En dat is helemaal prima.
[2:58:02] Maar het is geen of, of.
[2:58:03] Het is en, en.
[2:58:04] Op dit moment is de omgeving niet veilig, niet gezond, niet geschikt voor kinderen.
[2:58:10] Met andere woorden,
[2:58:11] We kunnen ze dan zeggen, ja, we leren ze ermee omgaan.
[2:58:14] Ik had nog een paar statistiekjes voorbereid van vandaag, maar als de jeugd 70% van de jeugd wekelijks nepnieuws tegenkomt en 20% dagelijks, ja, wat vraag je aan kinderen om te filteren op wekelijks basis, om informatie te verwerken wat wellicht niet waar is.
[2:58:31] Als we kijken naar een Belgisch onderzoek, dat van de 13 tot 17-jarigen een derde
[2:58:38] haatdragende content tegen minderheden tegenkomt.
[2:58:41] 11% gaat er zelf naar op zoek, wat al mindblowing is, maar bijna 90% krijgt ongevraagd haatdragende content tegen minderheden binnen.
[2:58:52] Een kwart van hen op wekelijkse basis.
[2:58:54] Sorry, maar dat is op dit moment, daar kun je niet de digitale vaardigheden op bijbrengen.
[2:58:59] Dat ongevraagde kun je als ouder niet tegenopvoeden.
[2:59:02] Dit soort ondermijning
[2:59:04] kunnen we niet tegenopvoeden.
[2:59:06] Dus het is en-en.
[2:59:07] Het is nu een minimum leeftijd.
[2:59:10] Het is het liefst zo snel mogelijk, die urgentie is er.
[2:59:14] Het staat in het regeerakkoord, duw erop, echt waar.
[2:59:18] Maar daarnaast, ja, dan moet er ook geïnvesteerd worden in nog verdere digitale vaardigheden.
[2:59:24] Dat helemaal eens.
[2:59:26] Dus het is en-en en het is op dit moment de kraan dicht.
[2:59:31] En als een bedrijf daaraan wil verdienen, dan moeten ze gewoon laten zien, dit is een gezonde, veilige en geschikte omgeving.
[2:59:37] Ik weet niet of dat de vraag beantwoord, maar dan...
[2:59:39] Mevrouw Obudjani had u nog een vraag?
[2:59:43] Nee?
[2:59:44] Dan kunt u u vervolgens vraag heel snel stellen.
[2:59:45] Mevrouw Sikkels en dan ronden we af.
[2:59:47] Ja, dank voorzitter.
[2:59:48] Ik wilde alleen aangeven dat ik het er helemaal mee eens ben dat het en en moet zijn en dat ik gewoon gelet op die gespreide verantwoordelijkheid naast die minimum leeftijd die ik van harte deel voor 16 jaar.
[3:00:01] Daarnaast ben ik gewoon benieuwd wat is de verantwoordelijkheid vanuit de overheid, vanuit de markt, vanuit die platforms en dus ook vanuit ouders, scholen.
[3:00:09] En ik ben dus aan het kijken van stel je voor dat we als Tweede Kamer zeggen we gaan als
[3:00:12] Overheid ook investeren hierin, waar doen we dan goed aan?
[3:00:15] Wat zijn de juiste effectieve zaken om te doen?
[3:00:20] Ik geef geen vervolgvraag voor nu, maar dat was ook een beetje de achtergrond van mijn vraag.
[3:00:25] Sorry, dan... Kijk, daar is één test handig om bij te houden.
[3:00:30] Op het moment dat het het verdienmodel van de bedrijven raakt, dan weet je al dat je op de goede weg bent.
[3:00:35] En als het deflect naar andere dingen waar jullie extra op moeten investeren, luister dan naar...
[3:00:40] de mensen hier naast me over wat dan de juiste type investeringen zijn.
[3:00:44] En ja, niet naar de partijen die op dit moment dik, dik verdienen, onder andere aan kinderen.
[3:00:52] Heel veel dank voor uw bijdrage.
[3:00:53] Het was echt heel fijn dat u er was, dat u kennis met ons heeft gedeeld.
[3:00:56] Ook de position papers.
[3:00:59] En wij hopen dat we dit allemaal meenemen.
[3:01:01] Snel naar debatten en dan vooral actie.
[3:01:03] En ik sluit dit rondetafelgesprek over sociale media en inmenging.
[3:01:08] Dank.