Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.
Gesprek met afvaardiging van de Europese Commissie en de ACM inzake effectiviteit en uitvoering van Europese wetgeving t.a.v. inmenging op grote sociale media platforms
[0:00:00] Vandaag hebben we een gesprek met de afvaardiging van de Europese Commissie en de ACM in zaak en effectiviteit en de uitvoering van Europese wetgeving ten aanzien van inmenging op grote sociale media-platforms.
[0:00:15] Ik zeg het allemaal nu nog even in het Nederlands.
[0:00:17] We gaan dit gesprek half in het Nederlands en half in het Engels voeren.
[0:00:22] En daarom ga ik even in het Engels onze Engelse gast welkom heten.
[0:00:28] Welcome, Mr. Agarwal, your acting director for online platforms at the European Commission's DG Connect, where you lead the enforcement and strategic development of landmark regulations such as the Digital Services Act.
[0:00:42] Very warm welcome to you.
[0:00:43] And I was just saying to our guests here, but also the people who are watching online, that we're going to do this conversation
[0:00:50] met u in het Engels en dan met de ACM in het Nederlands en dan hebben we ook een vraag rond en we zullen dat ook doen voor u in het Engels en de andere deel in het Nederlands, maar een zeer warm welkom en bedankt dat u hier bent.
[0:01:09] Ik denk dat er enkele members van het parlement aanwezig zijn, maar het is een drukke dag vandaag, dus veel mensen
[0:01:15] hebben een drukke schedule, dus ik hoop dat ze ons erg snel zullen ondersteunen.
[0:01:21] En ik denk dat we jullie nu de vloer gaan geven voor een kleine introductie.
[0:01:27] En heel erg bedankt voor de tijd om deze gesprek met ons te hebben.
[0:01:33] Heel erg bedankt, mevrouw chair, en het is een plezier om hier met u te zijn, hoewel we op afstand zijn.
[0:01:40] En ik moet vertellen dat ik mijn professionele carrière in Nederland begon, en ik leerde Nederlands terug
[0:01:45] back then and I used to speak it also.
[0:01:49] So I think, I don't want to insult you by trying to speak it now, but if in the Q&A there is a question to me addressed in Dutch, I think I will be able to understand it, but I may respond in English.
[0:02:05] Dus, nogmaals, bedankt voor het met me te hebben vandaag.
[0:02:13] Mijn naam is Prabhat.
[0:02:13] Zoals u al zei, ben ik hier in de Europese Commissie verantwoordelijk voor het versterken van het Digitale Services Act samen met mijn collega Rita Wezenbeek, die u misschien kent.
[0:02:25] Zij zorgt ook voor wat we de economische aspecten van het Digitale Services Act noemen,
[0:02:31] Digital Markets Act, een tweede flagship digitale platformregulatie die de Europese Commissie superviseert.
[0:02:39] Ik ben verantwoordelijk voor wat we hier noemen de sociale aspecten van de Digital Services Act.
[0:02:45] Dit beoordeelt een enorme aandeel van verschillende schade in de online omgeving.
[0:02:53] Ik zal over
[0:02:54] 10 tot 15 minuten, en wat ik zou willen doen, is dat ik jullie doorgaat door onze huidige werk in drie basale elementen.
[0:03:04] Het eerste element dat ik wil toepassen, is om de basale architectuur van het Digitale Services Act te herinneren.
[0:03:11] Ik weet dat veel van jullie er al zijn.
[0:03:13] familiar with the Digital Service Act, so it's not meant to be a lecture on the Digital Service Act, but more a refresher of the architectural elements, and I'll start with that.
[0:03:23] My second element will be just to recall some of the enforcement actions that we've been taking since we have been empowered to take action, and some of them
[0:03:35] Samen met collega's van het ACM en andere nationale regulators.
[0:03:44] Terug naar de prioriteiten die we op dit moment bezoeken.
[0:03:51] Dat betekent zowel de online bescherming van miners, de veiligheid van online marktplaatsen en uiteindelijk ook de integriteit van de electies, wat ik denk dat het belangrijkste is voor de discussie van vandaag in uw committee hier, hoewel het alleen maar een klein deel van ons overal werk is.
[0:04:09] Dus met dit, laat ik me beginnen met het herinneren
[0:04:12] Wat is de Digital Services Act?
[0:04:19] Wat is de DSA?
[0:04:19] In 2020 stelde de Europese Commissie twee landbouwregels voor het regelen van de verantwoordelijkheid van online platforms.
[0:04:30] En door online platforms bedoel ik die services
[0:04:33] Zij intermediëren content of services tussen iemand die content of service vervoert en een gebruiker die content of service vervoert.
[0:04:46] Online-platformen komen in veel verschillende vormen en grootte.
[0:04:51] Ze bevatten natuurlijk de beroemde social media-service, zoals TikTok of Instagram.
[0:04:56] Maar ze bevatten ook andere services, zoals e-commerce-services, zoals Timo of Amazon.
[0:05:05] Zoals zoekmachines, zoals Google Search of Bing.
[0:05:11] Maar ook andere platform-services, zoals de Apple en Google App Stores.
[0:05:17] Zoals mapping-services en een hele aantal andere
[0:05:21] categorie.
[0:05:22] Dus mijn eerste punt die ik wil maken is dat de scope van het Digitale Dienstenact, en vergelijkbaar met het Digitale Marketsact, niet alleen sociale media is, hoewel in de publieke mind natuurlijk veel problemen over sociale media ontstaan in politieke gesprekken, maar de scope van de DSA en de DMA is veel breder.
[0:05:45] Het tweede punt is dat deze twee landbouwregen twee verschillende objectieven hadden.
[0:05:50] Eén, het Digitale Marketsact,
[0:05:51] ...was more aimed at creating fair and contestable conditions in the online environment... ...where you have a small number of gatekeepers that intermediate between business users... ...like your local shop and end users.
[0:06:06] And we wanted to make sure that these gatekeepers...
[0:06:12] een bepaalde set of ground rules that ensure fair access to consumers by these business users.
[0:06:22] Maar het Digitale Services Act, het onderwerp van onze gesprek vandaag, had een ander doel.
[0:06:29] Het was om fundamentele rechten in de online omgeving te beschermen en om gebruikers tegen een serie verschillende schade te beschermen door de verantwoordelijkheid van online platforms in het bredere ecosysteem te verklaren.
[0:06:45] Deze regels zijn niet veranderd sinds in 2003, of zelfs in 2000, toen de Commissie net na de eerste internetbubbel, het eerste set van regels voor zo'n online platform had geadopteerd, die de regels van tot nu toe in de Verenigde Staten schijnen.
[0:07:07] Maar in 2020
[0:07:08] de legislatief besloot dat er een nieuw verantwoordelijkheidsraam moest worden geïnstalleerd.
[0:07:16] Het belangrijkste punt over deze twee wetten is dat ze zich specifiek op de zeer grote platformen zetten.
[0:07:24] Hoewel het DSA-scoop breder is, bevat het ook kleinere platformen.
[0:07:27] Maar voor de DSA is de overzicht over de zeer grote platformen in de handen van de Europese Commissie.
[0:07:33] Door zeer groot bedoelen we die platformen die meer dan 45 miljoen gebruikers hebben.
[0:07:36] En de kleinere is voornamelijk onder de verantwoordelijkheid van nationale autoriteiten, zoals het ACM in Nederland.
[0:07:43] En de verantwoordelijkheden zijn vooral voor die platformen die worden geïnstalleerd in de gegeven member-staat, waar de nationale regeringsleider is geïnstalleerd.
[0:07:56] Nu, voor heel grote online-platforms is er een nuance, en we zullen daar terugkomen, waarin we ook bepaalde verantwoordelijkheden met nationale autoriteiten delen.
[0:08:01] En ik ben er zeker van dat dit ook een gesprek zal zijn met ACM-collega's die met u in de kamer of online zijn.
[0:08:06] Er zijn drie architectonische elementen van de DSA die vandaag belangrijk zijn voor deze overspraak.
[0:08:12] Eén is dat op het hart van de DSA een verantwoordelijkheid is, een bredere verantwoordelijkheid op transparantie.
[0:08:21] Vroeger, voor de DSA, was er weinig transparantie op
[0:08:27] content moderation practices of algorithmic practices.
[0:08:33] It was basically a black box.
[0:08:35] There was some voluntary disclosure by some platforms, but it was not harmonized and basically platforms, as a general rule, disclosed only that information which made them look good.
[0:08:45] And so, with the advent of the Digital Services Act,
[0:08:52] We hadden een nieuw paradigma waarin we een serie van verduurzamingsobligaties op platformen stelden die drie verschillende elementen hadden.
[0:09:05] Eén was gebruikersgevende verduurzaming.
[0:09:09] Dus voor een normaal gebruiker zoals u en ik, die elke dag een bepaalde platform gebruiken,
[0:09:13] Het moet in een eenvoudige taal verstaanbaar zijn wat de huisregels zijn, welke soort content is toegestaan op de platform, wat niet toegestaan is, wat zijn de regels voor kinderen op een bepaalde platform.
[0:09:25] Dit moet in een eenvoudige taal verstaanbaar zijn en niet in legalistische termen van dienst.
[0:09:29] En dit was één belangrijke element.
[0:09:37] Er is een tweede element van transparantie die naar het expertpubliek gaat.
[0:09:44] Dus er zijn civiele samenlevingen, acteurs, er zijn academici, er zijn experts die legitime vragen hebben over de details.
[0:09:53] over platform-content-moderatie-praktijken.
[0:09:55] Journalisten ook, die investigatief journalistisch werk doen.
[0:10:03] En zij zijn niet alleen tevreden met de transparantie op hoog niveau van de gebruikers, maar ze vragen legitieme vragen over hoe platforms werken.
[0:10:10] En voor die hebben we wat ik zou noemen de expert-level-transparantie.
[0:10:14] Dat bevat een database van alle content moderation beslissingen, waarvan er nu miljoenen verschillende beslissingen zijn gemaakt door de DSA, die een licht willen zetten op de verschillende elementen van content moderation online.
[0:10:30] Welke content-moderaties worden aangepast door algoritmes, welke worden aangepast door menselijke moderatoren, hoeveel worden aangepast, enzovoort.
[0:10:37] En dan is er een derde laag van transparantie, dat is de transparantie richting de regulator.
[0:10:42] De regulators onder de DSA zijn verantwoordelijk om afgevraagde vragen te stellen aan platformen in hun functie.
[0:10:48] En de manier waarop we het willen bedenken, is de mogelijkheid om onder de hoed van de auto te kijken, wanneer we vragen hebben.
[0:10:57] Dus niet alleen om het te kunnen rijden, zoals een normale gebruiker,
[0:10:59] om het te inspecteren of te vergelijken met een expert publiek, maar door de DSA krijgen we krachten om in de hoek te kijken.
[0:11:07] Dus dit is het eerste architectonische principe van de DSA, transparantie.
[0:11:11] Het tweede is over gebruikersrechten.
[0:11:15] Met de DSA wilden we ervoor zorgen dat gebruikers hun rechten in de online omgeving hebben.
[0:11:21] Vroeger, voor de DSA, toen een contentmoderatie- beslissing werd neergelegd op het content dat je uploadte, bijvoorbeeld een fotograaf of iets op een online omgeving, of je probeert een service of een bedrijf in je omgeving te verkopen via een online marktplaats,
[0:11:38] Voordat de DSA begon, hadden gebruikers geen gereguleerde rechten.
[0:11:44] Een van de rechten die we met de DSA creëerden... ...was een mandatorie complaintsmechanisme... ...voor contentmoderatiedecenties die platformen zouden nemen.
[0:11:53] Dit bevat natuurlijk eerst informatierechten... ...maar om je wat statistieken te geven... Meta kreeg tussen de periode van april 2024 en juni 2025... Meta betekent Facebook en Instagram...
[0:12:07] ontvangen 68 miljoen vervelingen door het mandatorieel mechanisme van interne vervelingen onder de DSA.
[0:12:18] 68 miljoen beslissingen in de EU werden neergelegd.
[0:12:20] Bijna 21 miljoen vervelingen resulteerden in een beslissingsreversie.
[0:12:24] Dat betekent dat een derde van de beslissingen die META neergelegd had, over deze miljoenen beslissingen over contentmoderatie, fout was.
[0:12:31] En ze werden omgekeerd na de vermoedingsmechanisme die onder de DSA werd toegevoegd.
[0:12:40] Dit is een duidelijk voorbeeld van de soort gebruikersrechten die in het hart van de DSA de tweede architectonische pilaar zijn.
[0:12:48] Een derde belangrijke pilaar is een nieuwe accountabiliteitsstandaard.
[0:12:53] En dit heeft veel verschillende aspecten.
[0:12:56] Omdat mijn tijd kort is, zal ik me alleen focusseren op het risicomanagement framework.
[0:13:00] Voordat de DSA begon, markeerde de platformen hun eigen thuiswerk.
[0:13:08] En ze besloten of een bepaald gebied van risico's materiaal is op hun platform of niet.
[0:13:12] We hebben veel publieke documenten gezien waarin platformen de risico's van hun eigen services misverwachten als het gaat om de bescherming van miners.
[0:13:22] Onder de DSA hebben we een framework geplaatst dat niet zo anders is als de soort risico-management-frameworken die systemische banken eerder hadden, waarin risico-assessies noodzakelijk zijn.
[0:13:34] De risico's moeten door het publiek worden afgesloten op een jaarlijkse cycle, omdat de risico's natuurlijk ook veranderen.
[0:13:39] En de mitigaties die plattformen in plaats zetten voor het hele risico-landschap dat ze zelf hebben geïdentificeerd, moeten ook publiek worden gemaakt, zodat de expert-publiek kan scrutineren of de plattformen een comprehensieve test maken van de soort risico's die beschikbaar zijn op hun service,
[0:13:58] en hoe deze worden verminderd.
[0:14:00] We hebben vorig jaar een erg comprehensief rapport gepubliceerd rond dit in november 2025.
[0:14:06] Het eerste risikogelandschapsrapport onder de DSA, dat alle informatie van twee jaar van risicoassessies van deze platformen samenvalt, van nationale regulators hun ervaringen met risicogelandschappen in een lokale context, in een nationaal context en
[0:14:23] van expert publieken, onderzoekers en specialiseerde gemeenschappelijke organisaties.
[0:14:29] En we hebben dit allemaal in een rapport gezet, waarvan ik denk dat het een heel interessant onderzoek is, omdat het een licht schijnt op de soort risico's die beschikbaar zijn, wat we online zien en hoe ze worden verminderd.
[0:14:42] Nu, dit is het eerste element van mijn korte opmerkingen, en de tweede en derde zullen veel korter zijn.
[0:14:51] Mijn tweede punt, na deze architectonische herinnering van het Digitale Diensten Act, wilde ik een paar woorden zeggen over de beveiligingsmiddelen die we hebben neergezet.
[0:15:05] We hebben gewonnen onder de DSA om de heel grote online platforms te beheersen.
[0:15:12] En aan de commissie zijn deze machten nu al meer dan twee jaar in plaats.
[0:15:18] En in deze twee jaar hebben we 16 verschillende procedures opengemaakt tegen een aantal verschillende platforms, inclusief X, Facebook, Instagram en TikTok.
[0:15:30] ook voor pornografische platforms, zowel als online marktplaatsen zoals Timo en Chien.
[0:15:39] Een aantal van deze gevallen zijn al gesloten, en sommige met betrouwens.
[0:15:44] Twee setjes betrouwens werden gegeven voor TikTok en één met een finale tegen X.
[0:15:51] En een aantal andere bevrijdingsacties zijn
[0:15:54] Zij bedekken gebieden zoals de bescherming van miners.
[0:16:02] Een hoogtepunt die ik graag wil noemen, is de recente beveiligingsmaatstap tegen TikTok op addictief ontwerp, waarin we preliminair besloten hebben dat TikTok het Digital Services Act-verantwoordelijkheidsraam heeft afgesloten.
[0:16:16] door de verwijdering van de beperkingen om de addictiviteit van hun service te mitigeren.
[0:16:25] Dit is een stap die we niet zo lang geleden namen en ik ben blij om het publieke materiaal met jullie te delen.
[0:16:33] Laat me sluiten met het derde element, dat voor deze committee het belangrijkste is, onze werk op de electies.
[0:16:40] Nu, ik moet stellen dat de digitale dienst niet elektrische processen of politieke debatten online reguleert.
[0:16:49] Dit is een gemeen misverstaanbaarheid, maar het onderwerpen en het organiseren van electies is de exclusieve en enige competentie van member-staten in de Europese Unie.
[0:16:58] Wat de DSA doet, is om ons gereedschappen en informatie nodig te geven om platformen verantwoordelijk te houden onder de wet.
[0:17:06] Het Digitale Services Act heeft een specifieke voorziening dat platformen risico's moeten beoordelen en vermijden aan civieke discours en electoraal processen.
[0:17:16] Een aantal concrete voorbeelden.
[0:17:18] In 2024 stelde de Commissie geen verbindingen voor de risico's die er gebeuren, in particulier in de electorale processen.
[0:17:27] Bijvoorbeeld de distributie van deepfake-content of risico's die verkeerde informatie over de
[0:17:36] voetbalprocedures, of je kunt voetballen met de juiste kleur van een pen, of of de voetbalplaatsen dicht of open zijn op een bepaalde tijd.
[0:17:46] Maar onze emphasis was altijd op de structuren en de procedures die de platformen hebben in plaats, in het context van voetbalschade ook.
[0:17:56] In 2025 hebben de Commissie en de nationale regulators een toolkit voorbereid dat publiek beschikbaar is, waarin optionele maatregelen
[0:18:05] voor de veiligheid van de electie, integriteit online, op online platformen.
[0:18:09] De Commissie ondersteunt de electie-rondetafels die worden georganiseerd door nationale regulators, als die zo worden gevraagd.
[0:18:18] Dat gebeurt niet altijd.
[0:18:19] Of zelfs een in-depth zogenaamde electie-stress-test.
[0:18:23] We hebben 16 nationale regulators ondersteund bij hun vraag naar rondetafels.
[0:18:30] Deze rondetafels hebben een doel om ervoor te zorgen
[0:18:33] dat online platforms weten wie de juiste acteurs zijn in een nationaal context.
[0:18:37] Ze hebben het doel om ervoor te zorgen dat hun informatie en contactpunten in voorhand goed bekend zijn, dat er een gemeenschappelijk verstaanbaarheid is van het online risico-landschap en dat rapide reactie-mechanismen zijn in plaats, in geval, bijvoorbeeld, dat er uneerlijke ontwikkelingen zijn die een reactie op de kant van de platformen nodig hebben.
[0:19:00] stress testen gaan een beetje verder, ze zijn een soort wat-if-scenario simulaties en we hebben tot nu toe drie georganiseerd.
[0:19:11] Engageren met platformen om te vragen hoe hun systemen en praktijken opgeroepen over verschillende juridictionen is volledig normaal en ook een voldoende deel van een reguliere dialoog.
[0:19:21] En we vragen hen steeds als er nieuwe risico's ontstaan, vooral rond artificiële intelligentie, waarover ik zeker ben dat jullie in uw committee ook debatteren.
[0:19:30] Vier formele voorbereidingen en ook bestemmingen om data te beheersen over systemische risico's voor electrische processen en civieke discours hebben of worden nu geconducteerd.
[0:19:44] Nu, ik wil mijn opmerkingen afsluiten door te stellen dat het een
[0:19:52] Samen, niet alleen met het ACM, maar ook met de Zoveel Sociëteit, gebruiken we de oplossingen die de wet ons onder de DSA biedt, in onze opzicht effectief, terwijl we natuurlijk de grenzen van onze krachten respecteren, ook als het gaat om nationale electies.
[0:20:11] Ik ben blij om alle vragen te beantwoorden die u misschien hebt, en ik ben heel erg dankbaar voor de kans om vandaag bij uw committee te praten.
[0:20:18] Heel erg bedankt.
[0:20:19] Thank you very much, Mr. Agawel, for your presentation.
[0:20:22] And we will now proceed with our other guests, the ACM.
[0:20:28] Warm welcome to mevrouw Leijten en mevrouw Schoch.
[0:20:31] En we hebben ook afgesproken dat we dat verder in het Nederlands gaan doen en dat jullie eerst een presentatie geven en dan gaan we over tot het stellen van vragen.
[0:20:40] En dan is het woord aan u.
[0:20:42] Dank je wel, mevrouw de voorzitter.
[0:20:46] Heel kort door
[0:20:48] onze presentatie en ons Nederlands kader kunnen lopen.
[0:20:53] We zullen het kort doen, want verschillende onderwerpen zijn al aan bod geweest.
[0:20:58] De ACM, Autoriteit, Consument en Markt.
[0:21:01] Wij zijn een onafhankelijke toezichthouder met 850 mensen.
[0:21:06] die als missie hebben markten goed laten werken voor mensen en bedrijven nu en in de toekomst.
[0:21:12] Wat doen wij?
[0:21:13] Zoal, wij houden toezicht op eerlijke concurrentie, consumentenbelangen en reguleren specifieke sectoren, zoals energie, telecom, vervoer, post en in toenemende mate digitale markten.
[0:21:29] Vanuit die optiek houden wij toezicht op onder andere de DSA, de DMA en de Data Act.
[0:21:36] Sinds februari 25 zijn wij formeel bevoegd als toezichthouder en aangewezen als Digital Service Coordinator.
[0:21:45] Ik kwam kort al naar voren.
[0:21:50] Wat doet die DSA?
[0:21:52] Die draagt bij aan een veilige, betrouwbare online omgeving.
[0:21:57] En het is echt grensverleggende wetgeving.
[0:22:01] die heel belangrijk wat offline verboden is, is hiermee ook online verboden en platforms worden verantwoordelijk gehouden voor wat er op hun platform gebeurt.
[0:22:14] En het kwam net al even aan de orde, dat was daarvoor echt heel erg lastig.
[0:22:20] De DSA beschermt rechten van gebruikers, ook de vrijheid van meningsuiting.
[0:22:26] Wordt uw account geblokkeerd, content verwijderd, dan heeft u duidelijke rechten.
[0:22:34] Er moeten duidelijke klacht- en meldprocedures zijn en er moet een duidelijke goede motivatie zijn en de aanbevelingsalgoritmes moeten transparant zijn.
[0:22:47] En ontzettend belangrijk komt straks ook terug, dat melden bij die platforms.
[0:22:53] En als u geen antwoord krijgt of onbevredigend antwoord, meldt u bij ons.
[0:22:59] Die meldingen zijn voor ons echt superbelangrijk, want zijn de basis van ons toezicht.
[0:23:05] Met genoeg meldingen kunnen wij zorgen dat de juiste problemen de juiste aandacht en juiste tijd krijgen.
[0:23:12] Tot slot kwam net ook al even naar voren, voor de allergrootste platforms gelden bijzondere verplichtingen voor systeemrisico's, onder andere rond verkiezingen, om die risico's tijdig te detecteren, te beoordelen en passende maatregelen te nemen.
[0:23:31] Dan even terug, we zijn een jaar bevoegd.
[0:23:33] Wat hebben we nu eigenlijk gedaan als ACM?
[0:23:37] Want wij horen ook gisteren uw ongeduld en die begrijpen we ook.
[0:23:42] Basis op orde.
[0:23:45] Nieuwe wetgeving vraagt voorlichting.
[0:23:47] Dus we hebben guidance gegeven aan bedrijven in allerlei vormen.
[0:23:53] We hebben informatie gegeven aan gebruikers en vorig jaar een grote campagne gevoerd.
[0:24:01] Heel belangrijk in wat wij doen, want wij moeten ook prioriteren, is bescherming van minderjarigen.
[0:24:08] Daar hebben wij vorig jaar start gemaakt met twee
[0:24:11] concrete onderzoeken op dit onderwerp, de illegale verkoop van vapes aan minderjarigen op snap.
[0:24:21] En de tweede, recent gestart, maken we ons ook serieus zorgen
[0:24:27] een onderzoek naar Roblox en de bescherming van minderjarigen al daar.
[0:24:32] En het derde grote blok wat vorig jaar onze tijd en aandacht heeft gevraagd is het uitbouwen van het ecosysteem, daarover later meer, en onze rol bij de verkiezingen.
[0:24:47] Dan, heel belangrijk, we hebben het wel eens over het team DSA.
[0:24:54] Het Digital Services Act is Europese wetgeving en wij vinden dat maar goed ook.
[0:25:00] Dit zijn wereldwijd opererende platforms en toezicht dat ophoudt bij de landsgrenzen van Nederland is niet effectief en niet behulpzaam, ook niet voor Nederlandse gebruikers.
[0:25:14] Dus het is samenwerking tussen ons en de Europese Commissie, maar ook met andere nationale toezichthouders, waar bijvoorbeeld de Ierse toezichthouder heel belangrijk is, want veel van de grote platforms zijn gevestigd.
[0:25:30] De Europese Commissie houdt primair toezicht op de grote flops, X, Facebook, Instagram, YouTube en Snap.
[0:25:41] De ACM houdt toezicht op de grote flops.
[0:25:45] die platforms en die bedrijven die in Nederland gevestigd zijn.
[0:25:50] Voor de grote, zoals bijvoorbeeld Snap, doen we dat samen met de commissie of ondersteunen we de commissie.
[0:25:57] En voor degene onder de grens, Roblox, Reddit bijvoorbeeld, of Discord, zijn wij de primaire toezichthouder met alle bevoegdheden die daarbij horen.
[0:26:08] In Europa werken we samen
[0:26:11] in de Digital Services Board.
[0:26:13] Daar komen in de zes weken, onder leiding van de commissie, al die Digital Service Coordinators bij elkaar om de afstemming te realiseren van die handhaving.
[0:26:25] Superbelangrijk met platforms die overal werken.
[0:26:29] In Nederland hebben we ook afstemming, want belangrijk dat er geen witte vlekken ontstaan in het digitale toezicht of overlap.
[0:26:38] Dus we hebben een samenwerkingsplatform digitale toezichthouders.
[0:26:42] het SDT en we hebben wat breder in Nederland de DSA-kamer, waar de commissie ook bij aansluit, maar bijvoorbeeld ook het OM en de politie en de ATKM, zodat als het moet we snel kunnen schakelen.
[0:26:58] Ik ben bijna aan het einde, want ik kan me ook voorstellen dat u ongeduldig bent, maar de effectiviteit van de DSA steunt niet alleen op toezicht, maar ook heel nadrukkelijk op dat ecosysteem.
[0:27:12] De betrouwbare vlaggers die illegale content kunnen opsporen, die met voorrang behandeld worden.
[0:27:20] Er kenden onderzoekers die goed onderzoek kunnen doen naar bijvoorbeeld die algoritmes en de maatschappelijke organisaties, waarvan u daar gisteren ook een aantal gesproken heeft.
[0:27:37] Nog en tot slot superbelangrijk weer die meldingen.
[0:27:41] Meldingen zijn
[0:27:43] Cruciaal voor ons, en we hebben afgelopen periode gemerkt, we krijgen steeds meer meldingen, maar eigenlijk nog lang niet zoveel als we hadden verwacht.
[0:27:53] Dus de bekendheid moet vergroten.
[0:27:56] Dan, wat hebben we gedaan bij de verkiezingen?
[0:28:00] Bij de verkiezingen hebben we vooral een rol als coördinator, want die grootste platforms vallen onder het directe toezicht van de commissie en zijn goedeels gevestigd in Ierland.
[0:28:14] Maar we hebben daar een coördinatorsrol en die pakken we serieus op.
[0:28:19] We hebben bij de verkiezingen in 2025 eigenlijk die toolkit, dat Europese draaiboek, hebben we
[0:28:27] Afgelopen, wat hebben we gedaan?
[0:28:30] Ik denk goed besteed te staan.
[0:28:31] We hebben door middel van brieven en vragenlijsten de platforms op hun verplichtingen gewezen en we zijn met die platforms in gesprek gegaan.
[0:28:41] We hebben een ronde tafel georganiseerd, zoals veel lidstaten.
[0:28:47] Daar waren de verschillende autoriteiten aanwezig, maar bijvoorbeeld ook het ministerie van Binnenlandse Zaken, maatschappelijke organisaties, wetenschappers en de platform.
[0:28:58] nadrukkelijk als doel kennis uitwisselen.
[0:29:04] We hebben processen opgezet om snel te kunnen handelen bij signalen en tot slot hebben we platforms gevraagd hun acties rond de verkiezingen te evalueren.
[0:29:15] Nu staan er wederom verkiezingen voor de deur.
[0:29:18] Wat zijn we daar aan doen?
[0:29:21] Ongeveer hetzelfde als bij de nationale verkiezingen, alleen geen ronde tafel.
[0:29:27] Waarom niet?
[0:29:28] Nou, het zat heel dicht op elkaar en die kennisuitwisseling hadden we net gedaan.
[0:29:35] We hebben wel extra geïnvesteerd in de relatie met de VRG en om in contact te komen en voorlichting te geven aan raadsleden en kandidaatraadleden.
[0:29:47] Zo hadden we een infographic in Binnenlands Bestuur en sluiten wij maandag aan bij een grote sessie van de VNG.
[0:29:56] Tot slot een spreuk die wij zelf vaak zeggen binnen de ACM.
[0:30:05] We begrijpen het ongeduld, maar de DSA is pas twee jaar van kracht en we zijn een jaar bevoegd.
[0:30:12] Het is grensverleggende wetgeving die voor het eerst de verantwoordelijkheid ook bij die platforms neerlegt.
[0:30:20] De eerste resultaten zijn zichtbaar.
[0:30:22] Er worden steeds meer onderzoeken opgestart.
[0:30:25] Eerste boetes opgelegd.
[0:30:29] Maar het vraagt ook een lange adem.
[0:30:31] Het is geen quick fix.
[0:30:35] Transparantie is de key van de DSA.
[0:30:39] Wij staan daar vol achter, maar vraagt doorzetten en lange adem.
[0:30:46] In 2027
[0:30:48] wordt de DSA zowel Europees als door het ministerie van EZ, die hier de wetgever is, geëvolueerd.
[0:30:57] En ik denk goed al de suggesties daar ook in mee te nemen.
[0:31:03] Voor ons is het beeld te vroeg om te zeggen is het effectief of niet.
[0:31:08] Wij zien dat er heel nadrukkelijk stappen gezet worden en wij gaan alle vertrouwen
[0:31:14] vol door met handhaven.
[0:31:16] Er is genoeg te doen en we doen het met overgraven.
[0:31:20] Heel veel dank voor uw presentatie.
[0:31:22] Dan gaan we over naar de zijde van de Kamer, naar de vragen.
[0:31:26] Het is handig als u zichzelf even duidelijk aangeeft aan wie u de vraag stelt, maar waarschijnlijk zal de een in het Engels zijn en de ander in het Nederlands, dus dan wordt het snel duidelijk.
[0:31:35] Het woord is aan mevrouw Swinkels van het CDA.
[0:31:37] We gaan gelijk over tot beantwoording en mocht er een vervolgvraag zijn, dat kan, maar dan wel gewoon een korte en echte vervolgvraag.
[0:31:47] Heel erg bedankt.
[0:31:48] Ik vroeg naar de Europese Commissie over versterking, want ik begrijp dat je de nationale grenzen moet respecteren.
[0:31:57] Maar zoals de voorbeelden laten zien, is er maar één fijn.
[0:32:04] Ik begrijp dat.
[0:32:07] de belangrijkste instrumenten die we hebben in die verantwoordelijkheid.
[0:32:11] Dus wat kunnen we doen?
[0:32:14] Kijken naar de uitdagingen die we ontmoeten.
[0:32:17] Zijn er nog andere maatregelen om te ondernemen in die verantwoordelijkheid?
[0:32:25] Ik ben echt benieuwd naar dat.
[0:32:27] Ja, dank je wel, mevrouw.
[0:32:28] We hebben een brede toekomst onder de verantwoordelijkheidsmogelijkheden van het Digitale Diensten Act.
[0:32:35] En deze mogelijkheden worden eigenlijk van Antitrust
[0:32:38] Regulaties, en die bevatten niet alleen de fijn die u noemde, wat altijd het element is dat de meeste headlines maakt, maar er zijn ook een hele andere serie verschillende beveiligingsmiddelen die we gebruiken.
[0:32:53] Ze bevatten ook informatieverzameling krachten.
[0:32:55] In een aantal gevallen hebben we gezien dat deze informatieverzameling krachten zichzelf leiden te veranderen in behaar van platformen.
[0:33:04] Bijvoorbeeld, we vroegen een van de
[0:33:08] generatieve AI-search engines over de antwoorden die ze werden gegeven aan vragen over electies in Europese taal.
[0:33:18] En gewoon de vragen te vragen leidde eigenlijk tot het gevolg dat die bepaalde service de mogelijkheid om zo'n vragen te vragen veranderde, omdat ze zichzelf realiseerden, misschien vanwege onze vragen, dat sommige van deze antwoorden niet veilig getest werden volgens hun eigen regels.
[0:33:37] We hebben de kracht om bedrijven documenten te houden die we in twee gevallen hebben gebruikt.
[0:33:50] Bijvoorbeeld hebben we X besteld om al zijn algoritme documentatie te houden over zijn recommendatiesysteem en de laatste keer ook in het context van onze onderzoek tegen Grok.
[0:34:03] We hebben de kracht om middelmaatregelen uit te sturen die we tot nu toe niet hebben gebruikt.
[0:34:09] We hebben het een keer beoordeeld.
[0:34:12] Je kunt je herinneren dat TikTok de Europese Unie met twee member-staten in Frankrijk en Spanje introduceerde.
[0:34:19] een nieuw service genaamd TikTok Lite, waarbij je bepaalde monetaire rewarden kunt winnen door meer content te verbruiken op het service.
[0:34:33] Dit service was niet goed geassesseerd, zoals het nodig is voor mentale gezondheidsrisico's voordat het in de Europese Unie werd uitgelegd, en we beoordeelden
[0:34:44] dat we een interim beoordeling zouden stellen voor een afstandsbediening in de Europese Unie in de afstand van een goede beoordeling.
[0:34:53] En dat leidde tot de volwassenen van TikTok volwassenen hun bediening over de hele Unie te verwijderen.
[0:35:02] Dit is ook, trouwens, net om te vergelijken met wat mijn collega van de ACM net zei, de kracht van de regulatie, dat dit niet is gedaan, member-staat door member-staat, maar
[0:35:11] over de hele Unie.
[0:35:13] Er zijn nog meer krachten.
[0:35:14] Ik wil niet in te veel details gaan, maar één kracht die ik wil uitleggen is de mogelijkheid om verbindingcommitmenten te nemen van bedrijven wanneer we openbare onderzoeken hebben.
[0:35:24] Ze maken veranderingen.
[0:35:25] We kunnen deze veranderingen verbinden.
[0:35:28] En als ze deze commitment niet respecteren, dan is het onmiddellijk een brug van de DSA die kan leiden tot een onmiddellijke finale.
[0:35:34] Dit is een oplossing die we in een aantal gevallen effectief hebben gevonden.
[0:35:40] De Chinese e-commerce platform Aliexpress is committeerd aan een bredere verandering van de service na de openbare onderzoeken van vorig jaar.
[0:35:50] Deze committees kunnen ook heel snel doorgaan.
[0:35:53] In een paar weken is TikTok Lite committeeerd aan het nooit-deployeren van zijn TikTok Lite-service in de Europese Unie.
[0:35:59] En we hebben in het context van onze investigaties tegen TikTok andere commitmenten opgenomen.
[0:36:06] Dus dit is gewoon een smaak.
[0:36:10] We kunnen ook een judge vragen om een service te stoppen, maar dit is wat we de ultima ratio noemen.
[0:36:18] Dit is na meerdere
[0:36:20] Nadat we basically alle andere maatregelen hebben uitgevoerd en er een serieuze oorzaak tot leven of criminele activiteit is op de platform, maar dit is geen beslissing die de Commissie kan nemen, is deze uiteindelijke beslissing tot een nationale judge.
[0:36:41] Heel erg bedankt voor de antwoord.
[0:36:44] Ik vroeg me af over de escalatie die u al introduceerde in deze beperkingen.
[0:36:51] Op welke manier voel je je ondersteund door de Europese Staten om die ladder van escalatie op te gaan in die beperkingen?
[0:37:07] Ik bedoel, zoals u weet,
[0:37:09] De bedrijven die we beheersen zijn de meest krachtvolle bedrijven in de economische geschiedenis van de wereld.
[0:37:18] In termen van hun financiële kracht, maar ook in hun mogelijkheid om technologieën te beheersen die echt historisch zijn.
[0:37:27] Dus we vertrouwen in ons werk op de zeer sterke steun van member-staten en het Europese Parlement.
[0:37:34] maar ook van de civiele samenleving enzovoort.
[0:37:38] We hebben de achterstelling van al deze ondernemers nodig in onze werk.
[0:37:42] Nu specifiek, de beslissingen die we nemen, hangen niet af van de politieke steun van een of andere member-staat.
[0:37:53] Ik denk dat het onze, zoals ACM is een onafhankelijke autoriteit, de bottlenecks daar zijn meer vergelijkbaar met
[0:38:03] We hebben de mogelijkheid om verantwoordelijke staf te ontvangen en te beheersen in voldoende grote hoeveelheden, zodat we legaal geluidige verantwoordelijkheidsacties kunnen nemen.
[0:38:20] Het zal je niet verrasten dat veel van de bedrijven
[0:38:22] regulating have big legal teams in place to defend their rights, which is their good right to do.
[0:38:31] But this is clearly one area where we have increased our recruitment.
[0:38:36] Now we are around 200 people altogether.
[0:38:40] But if you consider that we are responsible for more than 25 different very large online platforms, then the number of staff per platform is still quite low.
[0:38:50] Er zijn nog andere boodschappen die we hebben uitgemaakt in termen van onze interne procedures.
[0:38:57] Zoals de collega al zei, is dit een relatief nieuwe legislatie.
[0:39:00] De machinekamer moest opnieuw gebouwd worden binnen de Europese Commissie.
[0:39:04] En dit is wat we ook met de andere nationale regulators hebben gedaan.
[0:39:09] Er is echt geen vergelijkbare wetten in de hele wereld met de DSA, dus een heleboel innovatie, institutionele innovatie, moest ook plaatsvinden om goede legale procedures en administratieve procedures binnen de Commissie te plaatsen.
[0:39:25] Ik denk dat we genoeg verandering hebben gemaakt en u zult zien dat de snelheid van onze vervoerswerkzaamheden ook veranderen.
[0:39:34] Dat zou mijn antwoord zijn op uw vraag.
[0:39:36] Dank u wel, mevrouw Rakowski van de VVD.
[0:39:40] Ja, en heel erg bedankt.
[0:39:45] Mijn vraag is ook beantwoord aan de Europese Commissie.
[0:39:49] De DSA is een relatief korte framewerk, zoals in existentie.
[0:39:57] Aan de andere kant is het ook bijna drie jaar oud, denk ik, want in augustus 2023 werden de FLOPs al aangesloten om FLOPs te worden.
[0:40:09] Gisteren hebben we gesproken met Somflops en hun verhaal was dat het een relatief nieuwe regulatie is.
[0:40:22] En in mijn mening is het een regulatie die we al veel jaren hebben gesproken en die al bijna drie jaar in plaats is.
[0:40:29] Dus dat is misschien voor mij een ander punt van uitzicht.
[0:40:35] Dus wat ik ben benieuwd over is dat
[0:40:36] Ik hoopte eigenlijk dat zo snel de DSA naar werk zou komen, dat de Europese Commissie
[0:40:43] knokken aan de deuren in Silicon Valley en zeggen, oké, we hebben een team van wetenschappers met ons nu, laat ons je algoritmes zien, we willen bekijken hoe ze werken.
[0:40:57] En als ik je nu hoor, heb je veel van, natuurlijk moeten ze informatie bieden, enzovoort, enzovoort, en je beoordeelt ook wanneer ze echt te ver gaan, zoals met TikTok Lite.
[0:41:08] Maar waarom heb je de deur niet gesneden naar Seneca Valley en gevraagd om hun algoritmes met je te delen?
[0:41:20] Oké, een uitstekende vraag.
[0:41:21] Er zijn twee delen aan dit.
[0:41:25] Eén is wat langzaam is en wat snel is.
[0:41:31] Dus ik denk dat als je werkt zoals ik of mijn collega als regeringsleider,
[0:41:36] mensen die denken dat dingen te lang gaan en anderen die denken, in dit geval de platforms, dat dingen te snel gaan.
[0:41:43] Heel moeilijk om de juiste balans te vinden.
[0:41:45] Misschien, de manier waarop ik de snelheid van ons werk denk, is dat we een regulatieframewerk gebruiken, een beveiligingsframewerk, een procedureframewerk, dat komt van Antitrust en is ook niet zo anders van dataprotectie-authoriteiten.
[0:41:59] Nu, als je de snelheid van onze beveiligingsactie vergelijkt met
[0:42:02] Procedures in data protection or in antitrust, I think we are much faster than those procedures.
[0:42:09] So I think, and we will, I think, still increase our time to close cases more quickly in the future also because we have learned some lessons ourselves on this as well.
[0:42:21] Natuurlijk ben je ook recht dat we in veel gevallen te lang zijn, omdat de snelheid van verandering in onze online omgeving veel sneller is dan de snelheid met wie we op dit moment aanwezig zijn.
[0:42:41] Ik denk dat het eerlijk is om te zeggen dat we sneller zijn dan vele bevestigde regulatieframeworks ter wereld.
[0:42:49] Ik weet niet of er nog een digitale regulatieframework is,
[0:42:51] dat is sneller dan onze.
[0:42:53] In veel gebieden hebben we digitale wetten die helemaal niet worden geënforceerd, zowel op nationale als op Europese niveau, met geen enkele infringementprocedure aanwezig.
[0:43:01] Dus we hebben behoorlijk veel geënforceerde acties aangepast en we zijn ongeveer sneller dan
[0:43:09] dat we zelfs hebben.
[0:43:12] Maar we zijn ook niet blij met de snelheid van onszelf.
[0:43:15] We zitten niet terug en zeggen dat alles goed is, want we zien de snelheid van de onderdelen ontwikkelen en generatieve AI is een voorbeeld.
[0:43:22] Ik bedoel, de technologie ontwikkelt zo snel dat als we jaren gaan duren voor een beveiligingsactie die leidt tot verandering, dan verliezen we de schade die wordt geïnflicteerd in de wereld waar kinderen
[0:43:36] En in sommige gevallen zorgen ook ouders er echt voor.
[0:43:40] Dus we moeten de pas opbouwen en tools gebruiken.
[0:43:43] Dat is mijn mening over de snelheid.
[0:43:45] Waarom hebben we niet op de deuren van de bedrijven in Silicon Valley geknokt?
[0:43:49] Eigenlijk hebben we op hun deuren geknokt en we hebben meer gedaan.
[0:43:51] We hebben informatie op hun algoritmes besteld.
[0:43:55] Maar om ook realistisch te zijn, je vraagt ons waarom we niet op dag 1 de wetenschappers brachten.
[0:44:01] Op dag 1 hadden we de wetenschappers niet in plaats.
[0:44:04] Je moet ze eerst vinden en ze in een werkmarkt ontvangen waar wat de Europese Commissie betaalt, is een klein deel van wat algorithmische wetenschappers kunnen verdienen op de vrije markt.
[0:44:18] Dus ik moet zeggen, het duurde wat tijd om een team op te bouwen.
[0:44:21] En dan alleen de wetenschappers te hebben, is niet genoeg.
[0:44:24] Want deze wetenschappers hebben apparatuur nodig.
[0:44:28] en infrastructuur.
[0:44:30] Ze hebben een erg krachtige computereinfrastructuur nodig, en dat is niet wat een normale bureaucratie, zoals de Europese Commissie, in de kamer heeft.
[0:44:42] Dus we moesten dit opbouwen en het heeft ons wat tijd gekost om dit te doen.
[0:44:45] Maar we hebben nu een erg krachtig centrum genoemd, het Europese Centrum voor Algorithmiële Transparantie.
[0:44:49] En het is heel diep ingebouwd in ons werk, vooral op recommendator-algoritmes.
[0:44:54] En we hebben ook deze krachten gebruikt in onze beveiligingsonderzoeken.
[0:44:59] Meneer Agarwal, we zijn heel blij en dankbaar dat u hier bent, maar we hebben veel vragen, dus als het mogelijk is, kun je de antwoorden een beetje kort houden, want ik denk echt dat er veel mensen zijn die meer vragen willen vragen, maar we zijn heel blij en dankbaar dat u hier bent.
[0:45:19] Mevrouw Elboujani.
[0:45:27] Ja, dank u.
[0:45:29] Dit is ook een vraag voor de Europese Commissie, voor meneer Agarwal.
[0:45:35] Mijn vraag is, de mensen die gisteren hier zaten met ons, en we hebben het ook over de regulatie en over de DSA gesproken, en eigenlijk, mevrouw, Marleen Stikker en het verliezen van stukken vrijheid, ik denk dat het
[0:45:51] Van Beek.
[0:45:53] Ze vertelden ons dat ze zien dat de versterking van de DSA... een beetje sterker zou kunnen worden... omdat die plattformen nog steeds niet volgen de regels van de DSA.
[0:46:08] Ik hoor dit over en over weer van veel andere organisaties en mensen.
[0:46:12] Dus mijn vraag is of de plattformen nu genoeg doen.
[0:46:16] of misschien eigenlijk hun uiterste om aan te vliegen met de DSA hier in Europa?
[0:46:26] Nee, ik denk niet dat ze hun uiterste doen.
[0:46:28] En dit is ook de reden waarom we deze beveiligingsactie moeten nemen.
[0:46:32] Ik geloof ook dat we meer beveiligingsacties kunnen doen, maar de platforms kunnen zeker ook meer doen om aan te vliegen.
[0:46:38] Ik denk dat we ons werk moeten opstappen, maar misschien is er één ding dat je moet bedenken,
[0:46:46] In ons gebied zie je wat er is overblijfst.
[0:46:52] Wat je niet ziet, is wat er is overblijfst.
[0:46:55] En als we over dingen overblijfsten, dan zijn er altijd dingen die nogal problematisch zijn.
[0:47:03] Dus de judgement over de succes van de DSA's verantwoordelijkheid moet niet alleen zijn wat over is gebleven in termen van onontvolledige jobs, problemen die er zijn, maar ook over wat al is bereikt.
[0:47:19] En als het committee geïnteresseerd is, zijn we blij om een document te delen dat op een hoog niveau verzamelt wat van het werk dat al is bereikt.
[0:47:32] Bedankt.
[0:47:33] Een vraag naar de Commissie.
[0:47:35] Heb je een belangrijke antwoord gekregen van TikTok in de laatste maanden over de mogelijke interferentie in de Romeinse presidentieelelecties?
[0:47:42] En als dat zo is, zou je deze bevindingen in de nabije toekomst openmaken?
[0:47:48] En in lijn met dit, als de platformen ook hun systeem veranderen om een coördinator van onauthentieke gedrag te intercepteren tijdens de electies, bijvoorbeeld in Hongarije, Hongarije volgend maand?
[0:48:03] Vanaf het begin hebben we een onderzoek geopend naar TikToks gedrag tijdens de Romeinse electies, die al een tijdje geleden gebeurde.
[0:48:18] In deze onderzoek kijken we of de systemen, vooral de AI en algoritme systemen die TikTok heeft in plaats,
[0:48:27] de grote manipulatie van hun diensten goed in plaats te zetten en of ze effectief zijn of niet.
[0:48:37] We hebben een verantwoordelijkheid om al onze bevindingen te publiceren als we een onderzoek afsluiten, maar tijdens het onderzoek worden de documenten beschermd door confidentialiteitsbeperkingen en dit is hetzelfde voor alle andere onderzoeksprocesen zoals onder dataprotectie of antitrust.
[0:48:52] We zijn in die manier geen verschil, maar de uiteindelijke beslissingen van de Commissie moeten en zullen publiek zijn.
[0:49:00] Sorry chair, ik had een volgende vraag over dit, ook met de vraag of plattformen hun systeem veranderen naar een interceptcoördinator van onauthentieke gedrag voor de electies in Hongarije.
[0:49:15] Ik heb geen specifieke informatie over de electies in Hongarije.
[0:49:20] Ik kan verzekeren dat vandaag een rondtablediscussie gebeurt, maar ik zei eerder in mijn introductie dat deze rondtablediscussies niet in
[0:49:27] de details of individual platforms mitigations or not.
[0:49:30] Just maybe to see the way that we think about coordinated inauthentic behavior is we're really looking at things like bots, bot account, large-scale fake accounts, large-scale manipulation when
[0:49:43] You may have seen that millions of people post the same identical videos, which may have been seeded somewhere else.
[0:49:51] Or when these fake accounts are all simultaneously become active.
[0:49:56] And there's good suspicion to believe that behind these accounts, there are automated tools available.
[0:50:03] This is what we mean by coordinated inauthentic.
[0:50:04] Coordinated means that it happens at large scale at the same time.
[0:50:08] Inauthentic, it means that there's not a real person behind it.
[0:50:12] And this is the,
[0:50:13] over het boord, iets wat we hebben toegevoegd in de vrijwillige electiebeleidingen, maar in het geval van TikTok-Romanië hebben we een specifieke onderzoek open, maar in het context van de Hongaarse electies hebben we op dit moment geen specifieke data of informatie die ik kan delen.
[0:50:31] De risico's voor interferentie in de verkiezingen zijn echt.
[0:50:35] We hebben volgende week lokale verkiezingen in Nederland.
[0:50:37] Dus als parlement hebben we verkiezingen om te beschermen.
[0:50:42] En gisteren hoorden we van de grote technische bedrijven over alle manieren om risico's te vermijden.
[0:50:47] Maar ik ben niet echt ervan overtuigd dat die acties eigenlijk betekenen, zolang de recommendatie-algoritmes zo werken.
[0:50:55] Denk je dat er altijd risico's zullen zijn op social media, zolang de bedrijfsmodel van deze bedrijven... ...radicaal verandert en ze sterker gereguleerd zijn?
[0:51:07] Ja, daar zijn we geconcerneerd over, maar ik wil gewoon zeggen...
[0:51:10] Het is dus waar dat het ontwerp en misschien ook de incentives... ...van bepaalde bedrijfsmodellen niet voldoende zijn...
[0:51:22] optimale veiligheid en veiligheid online.
[0:51:25] Als het over het algemeen gaat, en als het specifiek gaat om bepaalde ontwikkelingen van recommendatie-algoritmes, wil ik alleen één ding zeggen.
[0:51:34] Onze werk focust niet alleen op recommendatie-algoritmes.
[0:51:38] Het focust ook op advertising in de context van, bijvoorbeeld, de electies.
[0:51:44] We hebben een onderzoek gedaan tegen Meta over de zogenaamde doppelganger-drempel waar ads worden geplaatst.
[0:51:51] tegen geld, die lijken op legitieme nieuwsbrievenwebsites.
[0:51:58] En ze rijden klikbeet door fake websites die lijken op
[0:52:03] Het is niet alleen de recommendatie-algoritme die u noemde, het is ook de advertising-vector die we hebben.
[0:52:13] Toen we dit werk begonnen, zagen we dat er in de member-staten een oncoördinatie was.
[0:52:20] Ik ben niet super bekend met de context in Nederland.
[0:52:25] Maar in veel landen hebben we gezien dat er veel verschillende autoriteiten waren die zich niet met elkaar koordineerden en dat ze op verschillende plattformen praten met soms ook contradictorieën.
[0:52:36] En een van onze vroegere delen van het werk, en een heel belangrijke deel van ons werk onder de electioneerlijnen, is gewoon om wat leiding te geven over hoe deze interactie moet worden gestreamlineerd.
[0:52:49] Ja, mevrouw Singels, ja.
[0:52:54] Ik ben ook wel heel erg benieuwd richting de gemeenteraadsverkiezingen.
[0:53:07] Ik heb eerder samen met een collega van de Brink vragen gesteld over trollenlegers die wel of niet zouden zijn ingezet rondom de Tweede Kamerverkiezingen.
[0:53:14] Daar werd toen als antwoord gegeven dat we eigenlijk geen inmenging konden constateren.
[0:53:20] En tegelijkertijd hebben we gisteren
[0:53:22] in verschillende gesprekken met de sprekers toch ook echt signalen gekregen dat wel degelijk dit soort invloeden hebben plaatsgevonden, dat ze trollen letterlijk tevoorschijn kunnen trekken.
[0:53:33] En ik ben heel erg benieuwd hoe de ACM hiernaar kijkt en wat de ACM hierop kan doen, aanvullend op voorlichting geven aan raadsleden.
[0:53:43] Want aantonen dat het ook echt een verschil heeft gemaakt in de verkiezingsuitslag is natuurlijk iets heel anders dan aankunnen tonen dat er niks wordt gedaan aan met meldingen dat er trollenlegers pogingen hebben ondernomen.
[0:53:56] Dus ik hoor daar graag nog iets meer verdieping op.
[0:53:59] Ik doe een aftrap en dan neemt Mickey over.
[0:54:06] De ACM is niet de autoriteit die bevoegd is en geëquipeerd is om 24-7 te monitoren wat er op internet gebeurt.
[0:54:19] Dus wij monitoren niet de internet.
[0:54:21] de hele verkiezingen.
[0:54:23] Zo is de DSA niet opgezet.
[0:54:25] We houden wel onze ogen en oeren open, hebben korte lijntjes met het ministerie van Binnenlandse Zaken, met maatschappelijke organisaties die u gisteren heeft gesproken en werken ook meldingen en signaal gedreven.
[0:54:43] We hebben natuurlijk alle rapporten gelezen en veel van deze ervaringen zijn
[0:54:51] ook gemeld bij ons en baren ons ook zorgen.
[0:54:55] Dus wij delen de zorg en we hebben geen integraal volledig beeld.
[0:55:02] En het blijft ontzettend belangrijk dat partijen meer bij ons melden, want dat is de basis voor ons werk.
[0:55:11] En rond de verkiezingen hebben we eigenlijk heel weinig meldingen gekregen.
[0:55:19] Dat is eigenlijk al een heel volledig antwoord.
[0:55:21] Ik denk, zeg maar, wat we ook echt willen onderstrepen is melden.
[0:55:25] Dat is een van de belangrijkste punten die ik in de presentatie zat.
[0:55:28] En wat ik nog zei, als er dingen zijn of als dingen komen bij ons, melden bij de ACM.
[0:55:36] Dan kunnen wij er ook mee aan de slag.
[0:55:39] Dank u wel.
[0:55:42] Mijn vraag is ook voor de ACM.
[0:55:45] Ik krijg van Trusted Flaggers terug dat als zij een melding of een klacht willen doen dat er dan niet een speciaal klachtenportaal voor die Trusted Flaggers is.
[0:55:55] Dus als ze bij de ACM een melding willen doen, dan moet het via het algemene openbare klachtenportaal.
[0:56:01] En dat ze dan wel te horen krijgen, ja, we gaan jullie klacht met prioriteit behandelen.
[0:56:09] Maar dat het dan alsnog soms anderhalf jaar kan duren.
[0:56:11] Dus hoe faciliteren jullie zich ook aangeven van, we vinden eigenlijk dat we minder klachten krijgen dan dat we hadden verwacht.
[0:56:20] Wat doen jullie er dan aan om te zorgen dat die klachten ook zoveel mogelijk bij jullie komen zodat jullie een compleet beeld hebben en ook kunnen handhaven?
[0:56:33] Het tijdstip is bijna voorbij en ik kan me voorstellen dat u nog vragen heeft en makkelijker voor ons dan voor de commissie.
[0:56:41] Zouden wij jullie als ACM heel graag uitnodigen voor een werkbezoek zodat er meer tijd is om de verschillende vragen ook met onze experts te beantwoorden?
[0:56:52] Dat is één.
[0:56:53] Twee.
[0:56:55] Qua meldingen, we hebben vorig jaar een campagne gedaan om meer te wijzen op de mogelijkheid tot melden.
[0:57:01] Dat gaan we dit jaar in een nieuwe vorm herhalen.
[0:57:07] En we zijn het proces steeds aan het verbeteren op basis van feedback.
[0:57:11] Dus alle feedback welkom.
[0:57:13] Maar de bedoeling is dat als je bij ons meldt, dat je een antwoord krijgt.
[0:57:20] Dat als wij zelf niet de bevoegde autoriteit zijn, wat kan?
[0:57:24] Dat wij zorgen dat het op de juiste plek terechtkomt.
[0:57:28] Dat als we meer meldingen krijgen van eenzelfde type incident, dat we ook nabellen.
[0:57:34] Het blijft wel systeemtoezicht waarbij niet op iedere melding een een-op-een actie is, maar de bedoeling is om dit zo strak mogelijk te organiseren.
[0:57:47] Er zijn goede stappen gezet en het kan en moet ook nog strakker en beter dat mensen sneller en meer horen wat er met hun meldingen gebeurt.
[0:58:00] JOURNALISTE 1 Yes, dank u wel.
[0:58:01] U gaf net als antwoord aan mevrouw Swinkels ook dat dus rondom de verkiezingen u weinig meldingen heeft gekregen.
[0:58:10] Maar dan denk ik ook weer aan mensen die gebruik maken van een platform die misschien eigenlijk ook niet zo heel goed weten hoe bijvoorbeeld inmenging eruit kan zien.
[0:58:20] Dus ziet u daar misschien nog ruimte voor mogelijkheden daarin om dat dus ook te verbeteren?
[0:58:30] Goeie vraag, dank.
[0:58:34] Ik denk dat het belangrijk is, want wij kunnen zeker nog stappen zetten om meer voorlichting te doen.
[0:58:39] Daar zijn wij ook mee bezig.
[0:58:40] Dit zijn ook hele goeie punten die we van u horen en deze nemen we ook mee in de toekomst om dat goed op te pakken.
[0:58:50] Meneer Dassen.
[0:58:52] Ja, zowel het ACM als de Europese Commissie zijn vermoord door censorship door het Jordan-rapport.
[0:59:00] Ik vroeg me af hoe je deze vermoordingen ziet en hoe dit wordt behandeld.
[0:59:09] Vooral omdat de vraag over de vertrouwde vlaggen werd gevraagd.
[0:59:13] We hoorden gisteren dat ze ook worden genoemd en dat heeft een chillende effect.
[0:59:17] Ik vroeg me ook af wat je voor hen doet.
[0:59:20] Het is een tweevolde vraag.
[0:59:22] En het is voor beide.
[0:59:26] Meneer Agarwal.
[0:59:29] Heel erg bedankt.
[0:59:31] In het begin hebben we categorisch deze vermoordheden in het rapport over censorship uitgenodigd.
[0:59:40] En we geloven echt dat de DSA aan de andere kant
[0:59:46] is een beschermende element voor de vrijheid van uitdaging.
[0:59:50] Ik heb al eerder in mijn gesprek genoemd dat er vandaag wat data-punten zijn over gebruikersrechten en veranderingsraten.
[0:59:58] De grote majoriteit van het content dat online wordt gemoderateerd, wordt gemoderateerd doorwege de eigen regels van de platform.
[1:00:10] En het is die regels die onze informatie-omgeving vormen, niet
[1:00:12] niet de DSA of zoiets.
[1:00:16] Dus we denken echt dat het rapport misleidend is.
[1:00:21] We denken dat het factueel onrechtelijk is.
[1:00:26] We hebben ons meegemaakt met het House Judiciary Committee op verschillende plekken en hebben ons perspectief op dit gevraagd.
[1:00:38] Dus dat is onze positie op het bepaalde rapport.
[1:00:42] Ik denk dat we het over de chilling effect meenemen.
[1:00:46] Er is een potentiële chilling effect door thread's en intimidatie.
[1:00:53] Ik bedoel, het is belangrijk om te herkennen dat het mechanisme van vertrouwde vlaggen een veiligheid heeft onder het Digitale Services Act.
[1:01:04] Je moet eerst laten zien dat je expertise hebt in een gebied waar je een vertrouwde vlaggen bent.
[1:01:09] Een beroemd set van vertrouwde vlaggen zijn specialiseerde vlaggen op kinderseksuele abusmateriaal.
[1:01:13] Dat betreft een bepaalde expertise en oefening om zo'n materiaal te identificeren.
[1:01:22] En dit is een categorie van vertrouwde vlaggen.
[1:01:24] We hebben vertrouwde vlaggen die scams ontdekken, online enzovoort.
[1:01:28] Dus je moet een bepaalde expertise laten zien.
[1:01:31] En tweede, als je je privilegie als vertrouwde vlaggen abuseert, zijn er beveiligingen in plaats dat de status kan worden uitgevoerd.
[1:01:39] Ze moeten objectief zijn in hun testen.
[1:01:41] En in de zin van de Commissie is ook deze objectiviteitsverdrag een bepaalde hoeveelheid onafhankelijkheid nodig, vanwege beperkingen van de autoriteiten of van de platformen zelf.
[1:01:52] Dus dit zijn wat van de veiligheden die ik wil uitleggen.
[1:02:00] Maar ja, ik bedoel, ik denk dat er een risico is die wordt geassocieerd met het werk van de beperkingen, niet alleen voor Transatlantische Vlaggen, maar ook voor onafhankelijke onderzoekers in de Europese Unie.
[1:02:10] en ook verantwoordelijk zijn met de overheid van de VS.
[1:02:23] Dank u.
[1:02:25] Heel kort van onze kant.
[1:02:27] Wij sluiten graag aan bij de commissie.
[1:02:29] Wij herkennen ons in het geheel niet met hetgeen dat geschetst is in het rapport.
[1:02:36] Wij staan pal voor de democratisch tot stand gekomen.
[1:02:40] DSA voor ons werk, voor onze mensen en ook voor het hele ecosysteem van trusted flaggers en onderzoekers.
[1:02:51] En ja, we hebben onze mensen bij elkaar geroepen en aangegeven dat wij als werkgever alles doen om onze mensen te beschermen.
[1:03:00] En wij gaan door met het doen van ons wat wij ervaren als belangrijk werk, handhaven van de DSA.
[1:03:10] Eén laatste vraag en dan gaan we afronden.
[1:03:12] U zegt terecht van melden, melden, melden en dat zal ook nog even tijd kosten.
[1:03:16] Zo'n campagne moet landen en iedereen moet weten waar ze moeten zijn.
[1:03:21] Maar gisteren was hier Post X Society te gast.
[1:03:25] U zei zelf al, wij zijn geen observatorium.
[1:03:28] Maar dat zijn zij wel en zij gaven een hele waslijst van dingen die zij voorbij hebben zien komen, van platforms grijpen nauwelijks in, 97% van de gemelden extremistische content blijft gewoon online staan, desinformatie over verkiezingsfraude gesignaleerd, extremistische content en bedreigingen worden actief aanbevolen op platforms.
[1:03:48] Dat is eigenlijk één grote lijst met allemaal meldingen.
[1:03:51] Hoe gaat u daar nou mee om?
[1:03:54] Hoe is het nou ook dan de samenwerking met zo'n club en met deze best wel hele gerichte en bizarre meldingen?
[1:04:01] Ja, we hebben met de contact met de maatschappelijke organisaties, ook met Post X en met veel van de anderen die u gisteren gesproken heeft, wij zijn die relaties aan het verbreden en verdiepen.
[1:04:18] En ja, dat is er wat ik er op dit moment over kan zeggen.
[1:04:22] en zorgelijk.
[1:04:27] Dus dat delen.
[1:04:49] Dank je wel om hier te mogen zijn en de uitnodiging voor een werkbezoek bestaat.
[1:04:55] Daar zullen we zeker op ingaan.
[1:04:57] Heel veel dank voor de uitnodiging en ik sluit dit gesprek.
[1:05:00] Dank je wel.