Disclaimer: deze transcriptie is geautomatiseerd omgezet vanuit audio en dus geen officieel verslag. Om de transcripties verder te verbeteren wordt constant gewerkt aan optimalisatie van de techniek en het intrainen van namen, afkortingen en termen. Suggesties hiervoor kunnen worden gemaild naar info@1848.nl.

Rathenau Instituut - (nog te ontvangen) onderzoek Algoritmen en inmenging

[0:00:00] We starten met de technische briefing over het verzoek-onderzoek, zoals dat heet.

[0:00:05] Op verzoek van de Tweede Kamer doet het Ratenouw Instituut onderzoek naar algoritme en inmenging.

[0:00:13] En ik heet van harte onze gasten welkom van het Ratenouw Instituut.

[0:00:17] Dat zijn mevrouw Van Huiste, de heer Nieuwenhuizen, mevrouw Van Ede en de heer X.

[0:00:25] Van harte welkom bij deze technische briefing.

[0:00:28] En wij krijgen het onderzoek nog...

[0:00:32] Dat is er nog niet, dat komt eraan, binnenkort inderdaad.

[0:00:35] Maar fijn dat u alvast de tijd wilde nemen om met ons hierover te spreken.

[0:00:40] Ja, en dan is het woord aan u.

[0:00:43] Goed, dank je wel voor de uitnodiging.

[0:00:45] Mijn naam is Luc X, ik ben projectleider van het projectteam.

[0:00:48] En we zitten hier met ons volledige team dat meegeschreven heeft aan het onderzoek.

[0:00:53] Dat komt op 11 maart beschikbaar, dus dan heeft u het in uw handen.

[0:00:57] Heel even kort, wat is het Rathenouw Instituut?

[0:00:59] Wij zijn een onafhankelijk onderzoeksinstituut.

[0:01:02] Wij doen al 40 jaar onderzoek en wij doen onderzoek naar de impact van wetenschap, technologie en innovatie op de maatschappij.

[0:01:10] En het is onze taak om het parlement te ondersteunen, vandaar dat wij ook ingaan op uw verzoek.

[0:01:14] En vandaag staat er een technologie centraal en dat is het aanbevelingsalgoritme van grote social media platformen.

[0:01:20] En uw vraag aan ons was, wat is de impact daarvan op inmenging tijdens verkiezingen?

[0:01:26] Wat we gaan doen nu is eerst een korte presentatie geven.

[0:01:30] We zijn een kleine 20 minuten aan het woord.

[0:01:32] We hebben ook alvast een handout meegenomen.

[0:01:34] Daar staan figuren op die ook in de slides te zien zullen zijn.

[0:01:37] Daar zullen we soms even op wijzen.

[0:01:40] En dat is de folder die u heeft gekregen, die kunt u uiteraard mee naar huis nemen, maar dus op 11 maart komt het voor u ter beschikking.

[0:01:48] Heel even, waar baseren wij ons onderzoek op?

[0:01:50] Wat doen wij?

[0:01:52] Wat we hebben gedaan is een uitgebreide literatuuronderzoek.

[0:01:54] We kijken naar academisch werk, we kijken naar juridisch werk en we kijken naar rapporten van NGO's, van kennisinstellingen in Nederland en in het buitenland.

[0:02:03] We kijken naar journalistieke bronnen en we kijken naar wetteksten en rechtbankverslagen.

[0:02:08] We hebben experts geconsulteerd die expertise hebben op dit onderwerp.

[0:02:12] En vervolgens hebben we onze bevindingen tot dan toe voorgelegd aan een tal van experts in een expertsessie om die kennis te staven.

[0:02:20] Dat zijn experts waar u kunt denken aan mensen uit informatica, politicologie, mediawetenschappen en communicatiewetenschappen.

[0:02:27] Dus dat is waar wij ons op baseren.

[0:02:29] Dus wij geven u wat wij hier schetten is een beeld van verschillende experts en verschillende invalshoeken.

[0:02:36] U bent hier druk geweest met dit onderwerp en ik denk dat u urgentie voelt, want op 18 maart zijn de gemeenteraadsverkiezingen en ik heb het u al vanmiddag tegenover de ACM horen zeggen, we willen graag nu iets doen.

[0:02:47] Dus het is een urgent onderwerp.

[0:02:49] Maar wat wij nu gaan zeggen is iets wat echt van de lange adem is.

[0:02:53] En misschien wilt u dat niet horen, maar het is wel belangrijk om dit te realiseren.

[0:02:57] Want 18 maart is heel snel en oplossingen zijn niet binnen twee weken of één week gedaan.

[0:03:03] Maar wat u wel kunt doen is vandaag of morgen starten, want de eerstvolgende verkiezingen zijn in maart 2027, de gemeenteraadsverkiezingen.

[0:03:11] Dat is pakweg een jaar.

[0:03:13] Dus u kunt nu al beginnen met actie ondernemen.

[0:03:17] En we gaan vandaag aan het eind van deze presentatie handelingsperspectieven geven.

[0:03:21] Dat zijn er drie.

[0:03:22] En daarvan kunt u gewoon vandaag beginnen.

[0:03:24] En dan heeft u nog een jaar.

[0:03:25] En zelfs dat is korte tijd, maar begin vooral.

[0:03:27] Want weet, dit onderwerp is, zoals we misschien al eerder hebben gehoord, een marathon.

[0:03:32] Maar aan een marathon moet je wel direct beginnen.

[0:03:36] Goed, wat gaan we dus vandaag doen?

[0:03:38] We gaan aan de hand van verschillende deelvragen inzoomen op de hoofdvraag die jullie ons hebben gegeven.

[0:03:42] Aan de hand van korte presentaties.

[0:03:44] Allereerst de afbakening van inmenging.

[0:03:47] Wat is inmenging eigenlijk?

[0:03:48] Wat een heel belangrijk onderwerp is.

[0:03:51] Daarna gaan we inzoomen op het aanbevelingsalgoritme.

[0:03:53] Wat vrij technisch is, maar goed te begrijpen.

[0:03:56] En het is belangrijk om dat te begrijpen, omdat je dan de handelingsperspectieven begrijpt.

[0:04:01] Vervolgens bespreken we het instrumentarium dat beschikbaar is voor iedereen die bewust wil misleiden.

[0:04:08] Daarna gaan we in de bestaande inspanningen die er al worden gepleegd door de wet en regelgeving.

[0:04:12] En vervolgens, zoals we beloven, aan het eind komen we terug op handelingsopties.

[0:04:16] Wat kunt u nu doen?

[0:04:17] Geef ik als eerst het woord aan Carine van Ede, rechts van mij, om het begrip inmenging beter te beschouwen.

[0:04:25] Dank je wel, Luc.

[0:04:27] Waarom hebben we het over de definitie van inmenging?

[0:04:31] Iemand beschuldigd van inmenging of een actor beschuldigd van inmenging is geen lichtzinnige exercitie.

[0:04:37] Het disqualificeren van een politieke campagne als inmenging in aanloop naar de verkiezingen kan ingrijpende consequenties hebben.

[0:04:44] Grondrechten als de vrijheid van meningsuiting kunnen geschonden worden en kan ook leiden tot zelfs een aafrechtseffect dat het wantrouwen in instituties vergroot wordt.

[0:04:55] Dus heldere afbakening is superbelangrijk.

[0:04:58] Nou, wat is inmenging?

[0:05:00] U kunt het hier op de slides zien en ook in de flyer hebben we dat kort uitgelegd.

[0:05:07] Sorry, ik geef eerst even een algemene definitie.

[0:05:09] Inmenging is binnen de Europese praktijk veel gehanteerde definitie die wij voor inmenging gebruiken, is een type buitenlandse beïnvloedingsactiviteit door of namens een buitenlandse actor en die valt niet onder diplomatiek verkeer.

[0:05:23] Dus ik wil deze afbeelding nog achterwege laten, die ga ik zo bespreken.

[0:05:28] Dus het is een buitenlandse beïnvloedingsactiviteit die niet onder diplomatiek verkeer valt en die dwingend, heimelijk, misleidend of corromperend is en handelt in strijd met de soevereiniteit, waarden en belangen van de Europese Unie of van Europese lidstaten.

[0:05:46] Dat is inmenging in algemene zin.

[0:05:48] Nu gaan we in ons onderzoek, want daar gaat het immers over, hebben we ons gericht op een relatief nieuw type inmengingsactiviteit, namelijk op sociale media.

[0:05:57] type inmengingsactiviteit wordt steeds laagdrempeliger en steeds geavanceerder tegelijkertijd.

[0:06:03] Daarvoor hebben we deze afbeelding nodig.

[0:06:07] Want hier beschrijven eigenlijk hoe die inmengingsactiviteit via sociale media, hoe dat er precies uitziet.

[0:06:12] Wat je eerst ziet, het eerste ingrediënt voor die inmengingsactiviteit is dat er sprake is van een georchestreerde inzet van meerdere accounts, pagina's of platformen.

[0:06:23] Neem de Romeinse verkiezingen bijvoorbeeld, daar werden via Telegram allerlei instructies verspreid zodat gelijktijdig een beïnvloedingscampagne op meerdere platformen in gang kan worden gezet.

[0:06:33] Dus een gelijktijdige orkestratie van activiteiten op meerdere platformen.

[0:06:37] Dat gebeurt door buitenlandse statelijke actoren, door henzelf of

[0:06:41] door hun vertegenwoordigers, namens of door een buitenlandse statelijke actor.

[0:06:46] Dan is er nog het feit dat het doel is om de zichtbaarheid van bepaalde inhoud te vergroten of te verkleinen via aanbevelingsalgoritme.

[0:06:56] En daarbij is het doel dat er bewust geprobeerd wordt om mensen te misleiden over de herkomst van de inhoud of de populariteit daarvan.

[0:07:07] Dus wat je daarin ziet is dat het niet duidelijk is van wie die inhoud afkomstig is, wie ervoor betaald heeft.

[0:07:13] De afzender is slecht traceerbaar.

[0:07:15] Er wordt een vertekend beeld gewekt van de populariteit van de inhoud.

[0:07:19] En het doel uiteindelijk is om de publieke opinie of de verkiezingen daarmee te beïnvloeden.

[0:07:25] Zo beschrijven wij inmengingsactiviteiten via sociale media.

[0:07:29] Er zijn nogal wat zorgen over inmenging.

[0:07:33] Een van die zorgen is dat het leidt tot tegen elkaar opzetten van mensen, het aanscherpen van tegenstellingen in de maatschappij.

[0:07:39] Een andere zorg is dat er twijfel gezaaid wordt over het democratisch proces.

[0:07:43] En een laatste zorg is dat het uiteindelijk kan leiden tot een verandering van de stemuitslag.

[0:07:51] Verder wil ik nog opmerken dat we twee problemen zien bij het signaleren van die inmengingsactiviteit op sociale media.

[0:07:58] Want signaleren is lastig voor onafhankelijk waarnemers.

[0:08:01] Daar is het ook al een tijdje over gegaan en daar gaan wij ook nog later op in.

[0:08:05] Een ander probleem dat wij zien is dat het vaststellen van de uitslag en het mogelijk besluiten om over te gaan tot herstemming,

[0:08:13] kan gebeuren op het moment dat de inmenging wordt vastgesteld, dat die besluiten, dus het vaststellen van de uitslag en het mogelijk overgaan tot herstemming, worden, kort gezegd, gemaakt door de zittende Tweede Kamer, waardoor die besluiten gepolitiseerd zijn.

[0:08:27] En dat maakt een samenleving kwetsbaar.

[0:08:31] Tot zover dit, en dan geef ik nu het woord aan Wouter over hoe aanbevelingsalgorithmen werken.

[0:08:37] Dankjewel Corine.

[0:08:39] In het u bekende coalitieakkoord staat dat antidemocratische en polariserende algoritmes verboden zouden moeten worden.

[0:08:48] Ook in dit licht is het daarom goed voor u als Kamer om te duiden wat dit betekent en of het een goed idee zou zijn.

[0:08:57] En daarom willen we u een dieper begrip geven van hoe aanbevelingsalgoritmes werken.

[0:09:03] Op elke tijdlijn is namelijk maar beperkt plek.

[0:09:07] Platformontwerpers moeten daarom kiezen welke berichten ze in jouw tijdlijn laten zien en hoe ze die rangschikken.

[0:09:13] Ze maken dus keuzes over hoe ze die inhoud rangschikken.

[0:09:18] Dat kunnen ze op verschillende manieren doen.

[0:09:20] Het drangschikken van inhoud op basis van de omgekeerd chronologische volgorde is een vrij bekend voorbeeld en ook eentje die makkelijk te doorgronden is.

[0:09:31] Geef mij de meest recente inhoud van iedereen die ik volg en sorteer deze inhoud chronologisch, dus met de nieuwste inhoud bovenaan.

[0:09:39] Ook dit is een algoritme, maar wel een vrij simpel algoritme.

[0:09:43] U refereerde er als Kamer gisteren ook al aan, voor 2016 werkte sociale media vooral op basis van deze sortering en ook op basis van door je te abonneren op bepaalde kanalen of door berichten te zien van mensen die jij volgt, die vervolgens bijvoorbeeld iets retweeten, dus iets delen uit hun netwerk.

[0:10:06] En nu komt het, tegenwoordig combineren de meeste platformen die manier van rangschikking met aanbevelingsalgoritmes, waarbij, of eigenlijk vooral, ook berichten van accounts buiten je netwerk worden getoond.

[0:10:21] Hierdoor is de kans groter dat een gebruiker inhoud ziet van mensen van wie hij nooit aangegeven had die te willen zien of te willen volgen.

[0:10:31] Dat creëert een perfecte gelegenheid voor kwaadwillende statelijke actoren.

[0:10:36] En het is ook echt een belangrijke ontwikkeling, want tegenwoordig vinden we het daardoor normaal dat we online veel inhoud zien waar we eigenlijk niet per se zelf voor hebben gekozen.

[0:10:45] En de controle verschuift daarmee echt nadrukkelijk naar de ontwerpers van aanbevelingsalgorithmes in plaats van naar ons als burgers of gebruikers.

[0:10:56] Wat zijn nou die aanbevelingsalgorithmes waar we dus steeds

[0:10:59] meer op zijn gaan leunen.

[0:11:01] Dat zijn een verzameling aan systemen die inhoud sorteren en vervolgens rang schikken op basis van data, met als doel om mogelijk interessante inhoud aan te raden aan gebruikers.

[0:11:14] Platformen lopen daarvoor verschillende stappen door.

[0:11:16] Dat kunt u hier zien in de presentatie en ook in de flyer.

[0:11:21] Ze doen daarvoor een contentmoderatie, filtering en uiteindelijk rangschikken ze die inhoud.

[0:11:27] Sinds 2016 zijn dus die platformen overgestapt.

[0:11:31] Veel van die platformen op het rangschikken van inhoud op basis van het voorspellen van

[0:11:36] engagement.

[0:11:37] Het woord is ook al hier al vaak gevallen in uw kamer en dat deden ze naar verluidt stuk voor stuk op basis van intern onderzoek dat liet zien dat mensen langer op hun platform bleven op het moment dat ze die inhoud gingen rangschikken op basis van engagement.

[0:11:52] Deze op engagement gebaseerde aanbevelingen die zijn gebaseerd op factoren zoals de inhoud van het bericht,

[0:11:59] je eerdere interactie en je eerdere gedrag.

[0:12:03] Platformen zijn dus voortdurend bezig om te proberen te voorspellen wat jouw volgende stap gaat zijn op een platform.

[0:12:10] Hoe groot is de kans dat je een filmpje helemaal afkijkt?

[0:12:14] Wat is de kans dat je het doorstuurt naar een vriend?

[0:12:16] De hoge kans levert ook een hoge plek in de tijdlijn op.

[0:12:21] En wederom, alleen platformen weten hoe ze deze data wegen in hun aanbevelingsalgoritmes.

[0:12:28] Voor buitenstaanders is dit niet te achterhalen en platformen zien dit als hun bedrijfsgeheim.

[0:12:34] TikTok refereerde gisteren in de rondetafel naar een soort geheime kamer in Dublin waar je dan wel dingen zou kunnen zien, maar die weging, dat is echt iets waar ook wij als onderzoekers geen toegang toe hebben.

[0:12:48] Dat drangschikken gebeurt niet alleen op basis van engagement, zoals u kunt zien in de flyer en op de presentatie, maar ook op basis van bedrijfsregels.

[0:12:57] Dat zijn simpele keuzes, geen ingewikkelde software, zoals soms platformen doen voorkomen.

[0:13:03] Zo heeft X bepaald dat 50% van de gepersonaliseerde tijdlijn van gebruikers altijd bestaat uit inhoud van accounts die je niet volgt.

[0:13:12] Dus of je nou honderd mensen volgt, duizend, honderdduizend, altijd de helft daarvan komt van accounts die je niet volgt.

[0:13:21] Meta heeft hun bedrijfsregels over politieke inhoud de afgelopen jaren meermaals aangepast om de rangschikking van politieke content dan weer meer of dan weer minder zwaar te laten wegen.

[0:13:33] Aanbevelingsalgorithmes kunnen ook bepaalde inhoud versterken.

[0:13:37] Ze kunnen meer zichtbaarheid geven ten opzichte van andere manieren van rangschikken.

[0:13:42] We weten uit onderzoek dat aanbevelingsalgorithmes gebaseerd op engagement kunnen zorgen voor versterking van onder meer emotionele inhoud, populaire inhoud, hyperactieve gebruikers en ook bepaalde politieke inhoud.

[0:13:58] Aanbevelingsalgorithmes zouden ook op basis van andere signalen kunnen werken dan engagement.

[0:14:04] Ze zouden bijvoorbeeld inhoud kunnen belonen die bruggen slaat tussen groepen mensen.

[0:14:08] Of platformen zouden de aanbevelingsalgorithmes meer kunnen baseren op expliciete signalen van gebruikers.

[0:14:17] Zoals aangeven dat je iets echt wil zien of dat je iets wil volgen.

[0:14:22] We gaan hier later graag dieper met u op in, dus wat er anders zou kunnen aan die aanbevelingsalgorithmes.

[0:14:28] Kortom, neutrale algoritmes bestaan niet.

[0:14:32] Achter elke manier van rangschikking zitten keuzes, ook achter de chronologische tijdlijn.

[0:14:39] Daarnaar teruggaan is dus ook geen heilige graal.

[0:14:41] Een voorbeeld effect van een chronologische tijdlijn kan ook zijn dat accounts die heel veel posten relatief vaker in je tijdlijn verschijnen, omdat je dat gaat sorteren op basis van hoe recent iets is gedeeld.

[0:14:55] En we weten ook dat aanbevelingsalgoritmes continu worden aangepast.

[0:15:00] Wat we nu echt missen, wat we zien in ons onderzoek, is continue monitoring van de effecten die al deze verschillende ontwerpkeuzes die platformen dagelijks maken, wat het effect daarvan is.

[0:15:13] Wat zijn de aanpassingen in de gewichten van hun algoritmes?

[0:15:16] Welke signalen nemen ze mee?

[0:15:17] En hoe passen ze hun bedrijfsregels aan?

[0:15:20] De platformen zijn de enigen die dit weten.

[0:15:24] En daarom is het belangrijk om de ontwerpkeuzes bloot te leggen achter de manieren waarop mensen online inhoud voor hun neus krijgen.

[0:15:34] Dan ga ik nu over naar Luc voor de beschrijving van het instrumentarium.

[0:15:40] Ja, dank je wel, Wouter.

[0:15:41] We hebben dus nu even gekeken naar het aanbevelingsalgoritme.

[0:15:44] En ik ga nu het perspectief verplaatsen naar een buitenlandse actor of iemand anders die bewust wil misleiden door in te spelen op het aanbevelingsalgoritme.

[0:15:54] Want dat is de centrale vraag van ons onderzoek.

[0:15:57] Denk erover, het gaat hier dus over georchestreerde en bewuste misleiding.

[0:16:01] En dat is voor iedereen beschikbaar, zoals ik net zei.

[0:16:03] Ook voor u, ook voor mij, ook voor alle andere Kamerleden.

[0:16:07] Gisteren is er hier al heel veel over gegaan.

[0:16:09] Mariette van Huiste is daar geweest bij de ronde tafel.

[0:16:12] Daar heeft u veel over verteld.

[0:16:13] Er zaten ook onderzoeksinstellingen die er onderzoek naar doen over wat voor content er rondgaat.

[0:16:20] Maar gisteren is het ook heel veel gegaan over onrechtmatige inhoud.

[0:16:25] Inhoud waarvan iedereen denkt, waarom is dit op een platform?

[0:16:29] Er werd verwezen naar inhoud waarin nazivergelijkingen werden gedaan.

[0:16:33] Er werd verwezen naar inhoud die duidelijk haatzaaiend is en die oproept tot geweld.

[0:16:38] Dat is voor iedereen duidelijk.

[0:16:39] Waarom zit het op platform?

[0:16:41] En dat is ook begrijpelijk, want dat roept reacties op.

[0:16:45] Maar ik wil de aandacht even verplaatsen.

[0:16:48] Er zijn namelijk drie typen inhoud waar inmengers op inspelen.

[0:16:52] Want allereerst, als je bewust wil misleiden, moet je een keuze maken.

[0:16:56] Welke inhoud wil ik vergroten?

[0:16:59] Welke wil ik versterken?

[0:17:01] En op platformen zijn drie types inhoud.

[0:17:02] Kijk maar even naar de presentatie aan de linkerkant.

[0:17:05] We hebben rechtmatige inhoud, borderline inhoud en onrechtmatige inhoud.

[0:17:10] Gisteren is het dus vrij veel gegaan over onrechtmatige inhoud of inhoud die grenst aan wat er mag op een social media platform.

[0:17:17] Borderline.

[0:17:18] Maar het is ook goed mogelijk om bewust te misleiden over rechtmatige inhoud.

[0:17:23] Denk bijvoorbeeld eens aan iemand die kenbaar maakt op wie die stemt.

[0:17:27] Denk aan iemand die kenbaar maakt van welke politieke partij die fan is.

[0:17:31] Of denk aan twee mensen die in gesprek zijn over een politiek-maatschappelijk onderwerp, zoals migratie of klimaat.

[0:17:39] Ook hier kan een keuze worden gemaakt door de inmenger om deze inhoud te versterken.

[0:17:46] En ik denk dat het goed is om daarnaar te kijken, omdat wij hierdoor denken dat het instrumentarium dat gebruikt wordt steeds geavanceerder wordt.

[0:17:53] Het is voor iedereen toegankelijk, maar het is ook een manier om minder op te vallen, omdat die onrechtmatige inhoud die valt op.

[0:18:04] Denk daarbij dat inmengers een combinatie van het instrumentarium inzetten.

[0:18:09] Dus we verplaatsen even naar de tactieken die zij gebruiken.

[0:18:13] Dat kan een combinatie zijn.

[0:18:14] Het is gister veel gegaan bijvoorbeeld over de 550 nepaccounts die RTL Nieuws heeft gevonden, waarbij die 550 nepaccounts een groot deel zich van voordeed, alsof het Nederlands waren, door Nederlandse accountnamen te gebruiken, door foto's te gebruiken die in ieder geval op meerdere accounts werden gebruikt.

[0:18:32] en die besloten om rechtmatige inhoud te delen en door te sturen.

[0:18:41] Dit is een gecoördineerd netwerk dat hier rechtmatige inhoud populairder laat lijken dan het is als deze netwerken niet actief zijn.

[0:18:50] Dus ik denk dat het goed is om hier ook naar te kijken.

[0:18:53] Goed, hier staan nog meer tactieken die gebruikt kunnen worden.

[0:18:58] In het rapport dat 11 maart bij u komt bespreken we die uitvoerig, maar ik heb even deze uitgelicht.

[0:19:03] Ik denk nu dat het goed is als ik Quirine het woord geef en we kijken naar de inspanningen die tot nu toe zijn gedaan door de wetgever.

[0:19:11] Er is geen aparte wet tegen inmenging als zodanig, maar er is wel een hele waslijst aan wetgeving die ingrijpt op de verschillende aspecten van inmengingsactiviteit op sociale media.

[0:19:26] Daarbij valt te denken aan de AI-verordening, de AVG, de European Media Freedom Act, allerlei richtlijnen onder het consumentenrecht.

[0:19:34] Er zijn natuurlijk enorm veel beleidsinitiatieven.

[0:19:36] De verordening politieke reclame en de DSA.

[0:19:39] Dat zijn allemaal wetten gericht op het vergroten van de transparantie van inhoud die rondgaat op platformen tot wetten die een verslavend of manipulatief ontwerp aanpakken.

[0:19:51] En dan heb je natuurlijk ook de DSA, die is net uitvoerig aan de orde gekomen.

[0:19:56] En die biedt veel handvatten voor het bestrijden van inmenging, maar dat is ook een wet die onder flinke geopolitieke druk staat.

[0:20:05] We kunnen later nog wat dieper ingaan op de DSA, omdat ik denk dat die net ook al wat uitvoerig aan bod is gekomen en die zal ook nog in onze handelingsoptie.

[0:20:13] ter sprake komen.

[0:20:15] Voor nu wil ik op het gebied van toereikendheid van wetgeving, waar het gaat om het bestrijden van inmenging, drie punten meegeven die experts ons ook weer hebben meegegeven.

[0:20:26] Het eerste punt is dat er in die trits aan wetgeving die ik net noemde al een hele hoop is voorzien.

[0:20:32] De wetgever heeft echt gevoel, lijkt het, bij de tactieken die inmengende partijen lijken te gebruiken en ook bij de risico's die daaraan verbonden zijn.

[0:20:41] Een tweede punt dat experts zien is dat het succes van wetgeving op het gebied van inmenging samenhangt met de handhaving, maar ook zeker met de bereidwilligheid van platformen.

[0:20:53] Er loopt een groot aantal onderzoeken momenteel naar de gebrekkige toegang voor onderzoekers tot die platformen, naar de rol van de algoritme van een aantal platformen bij verkiezingsprocessen en naar de mate waarin het ontwerp van deze platformen manipulatief of verslavend is.

[0:21:11] En in het kader van bereidwilligheid is er ook veel kritiek op de wijze waarop Goeroe en Metta in anticipatie op de verordening politieke reclame besloten hadden om politieke advertenties helemaal niet meer toe te staan.

[0:21:26] politieke partijen en hun zichtbaarheid online en ook voor vrijheid van meningsuiting.

[0:21:30] Een derde, wat veel experts opvalt, is dat de wetgever voorziet weliswaar in een hoop, wat ik net ook al zei, maar er is een uitzondering.

[0:21:40] En dat gaat over het gebruik van AI-systemen die ontworpen zijn om een uitslag van een verkiezing te beïnvloeden of het stemgedrag van een kiezer te beïnvloeden.

[0:21:49] Die zijn volgens de AI-verordening niet verboden, maar die vallen momenteel in een hoog risicokategorie.

[0:21:54] Dus die moeten zich wel aan een aantal vereisen voldoen, maar die zijn wel toegestaan.

[0:21:58] En de verwachting is dat dat type systeem ook vaker gebruikt gaat worden bij verkiezingen.

[0:22:04] Dus dat signaleren experts.

[0:22:05] En wat daarin ook heel belangrijk is, is dat de omnibus die grip op dit type systeem mogelijk ook weer verder doet afnemen.

[0:22:12] Dus daar schroeien zij ook voor.

[0:22:16] En dan ga ik nu over naar Luc voor de handelingsperspectieven.

[0:22:21] Ja, want zoals ik had beloofd aan het begin van deze presentatie, u zit te wachten op dingen die u kunt doen.

[0:22:27] 18 maart zijn er verkiezingen, daarvoor bent u te laat, zoals ik zei.

[0:22:31] Maar u kunt nu wel beginnen.

[0:22:33] En we geven in drie richtingen handelingen die u kunt starten.

[0:22:37] En dus zet nu in, want het gaat om de lange adem.

[0:22:40] Allereerst geven we handelingsopties in de richting van platformontwerp veranderen.

[0:22:46] Er ligt namelijk veel macht bij de keuzes die platformen maken.

[0:22:50] Dat is duidelijk geworden uit de presentatie over de aanbevelingsalgoritmes.

[0:22:55] U kunt inzetten op interoperabiliteit.

[0:22:58] Dat is gister ook al langsgekomen.

[0:23:00] En waar dat voor zorgt, is dat de markt voor social media open wordt gebroken en andere aanbieders kunnen aansluiten.

[0:23:08] Daarnaast kunt u inzetten op middelwares.

[0:23:12] Dat is ook gister tijdens het overleg al naar voren gekomen en dat zorgt ervoor dat onderdelen van social media platformen door andere mensen kunnen worden aangeboden.

[0:23:23] Hoe zou een platform eruit zien als mensen hun eigen keuze kunnen maken over welke aanbevelingsalgoritmes ze willen hebben en welke niet?

[0:23:31] Vervolgens kunt u inzetten op de informatiepositie versterken.

[0:23:35] Zoals we al vaker naar voren hebben gebracht hier en zoals gisteren ook al naar voren is gekomen, we hebben een beperkt beeld van wat er gaande is.

[0:23:43] De situatie is nu dat platformen zeggen van alles te doen en dat onafhankelijk experts zonder veel moeite van buitenaf voorbeelden van inhoud geven die duidelijk in strijd is met de richtlijnen.

[0:23:57] En ik heb dus juist verwezen naar de toolbox.

[0:24:00] Dit gaat dus over richtlijnen die duidelijk evident tegen de wet zijn.

[0:24:05] Maar wat gebeurt er eigenlijk aan inmenging op rechtmatige inhoud?

[0:24:13] Daarom denken wij dat u kunt focussen op het opzetten van een onafhankelijk detectieorgaan en het continu onderzoek doen naar inmenging, waarmee continu onderzoek wordt gedaan naar inmengingsactiviteiten.

[0:24:24] Denk aan een detectieorgaan met trusted flaggers en vetted research status.

[0:24:31] Een orgaan die in positie moet worden gebracht om de omvang van het probleem in kaart te brengen.

[0:24:36] Want op dit moment weten we het eigenlijk niet.

[0:24:40] En als platformen dan geen toegang geven, dan kan een toezichthouder daarop aanspreken omdat het van de DSA moet.

[0:24:49] Daarnaast is het belangrijk dat er door de Europese Commissie continue monitoring plaatsvindt op aanpassingen van aanbevelingsalgorithmen.

[0:25:00] Want zoals we hebben begrepen uit de presentatie van Wouter over het aanbevelingsalgorithme, er wordt continu aangepast.

[0:25:09] Maar even los van wat social media platformen doen en wat onze informatie positie is, we kunnen ook inzetten op weerbaarheid van de samenleving.

[0:25:17] En het belangrijkste dat we daar hier voor nu melden, en we gaan er graag straks over in, is wat u kunt doen is bestaande wetgeving beschermen.

[0:25:28] De digitale omnibus, waar het gister ook even over is gegaan, is er om bestaande digitale wetgeving te versimpelen.

[0:25:35] Maar dit moet niet leiden tot afbreuk van bescherming.

[0:25:40] En daarnaast staat ook de DSA onder druk.

[0:25:44] Dus hier kunt u ook op inzetten.

[0:25:46] Hartelijk dank voor uw aandacht.

[0:25:48] En dan gaan we nu over tot de vragen.

[0:25:51] Heel veel dank voor het delen van jullie kennis.

[0:25:56] Ja, dan gaan we inderdaad over naar de vragen.

[0:25:58] En dan begin ik bij mevrouw El Bodjani.

[0:26:01] En dan gaan we ook meteen over naar de beantwoording.

[0:26:03] En ik denk dat u gewoon twee vragen kunt stellen.

[0:26:05] Sowieso beginnen we daarmee.

[0:26:09] Ja, heel fijn dat het Rathenouw Instituut hier vandaag ook weer bij is.

[0:26:15] En dank ook voor jullie uitleg.

[0:26:18] En ik wil eigenlijk beginnen met waar de heer Luc X dus mee eindigde.

[0:26:25] En dat is dus dat de DSA onder druk staat.

[0:26:28] en dat we hierop kunnen inzetten.

[0:26:32] En op welke manier kunnen wij er volgens u dan op inzetten?

[0:26:37] Is dat dus op de kant van het toezicht of juist verscherping op andere gebieden?

[0:26:42] Dus daar ben ik wel benieuwd naar.

[0:26:50] Dank je wel voor die vraag.

[0:26:53] Het is misschien een beetje een indirecte manier, maar het is vooral, denk ik, de minister

[0:26:57] aansporen om via de Europese instituties te zorgen dat er weerstand is tegen de druk die vanuit Amerika wordt gevoerd.

[0:27:06] Dus dat is eigenlijk gewoon het steunen van het beleid en daar de minister in steunen.

[0:27:13] Als het gaat over toezicht, dat is ook natuurlijk een getrapte manier, want de Europese Commissie, daar kunnen jullie niet rechtstreeks naar vragen, maar dat kan dan ook weer via de minister en dan via de Raad, om die Europese Commissie toch echt aan te sporen om die monitoring continu te doen.

[0:27:31] En...

[0:27:34] Dat onafhankelijke detectieorgaan waar we het over hebben, die zou een Trusted Flagger en een Vetted Researcher-status moeten krijgen.

[0:27:40] En er is best een kans dat de toegang die dat detectieorgaan dan vraagt, dat die onvoldoende zal zijn bij de platformen, want dat hebben we tot nu toe vaker gezien.

[0:27:49] En dan kan de ACM als toezichthouder, kan de platformen daarop aanspreken en zeggen van, hé, zij zouden die toegang moeten krijgen volgens de DSH.

[0:27:58] Volgens mij zou het zo werken.

[0:28:00] Ben ik dan iets vergeten?

[0:28:03] De antwoord op je vraag?

[0:28:05] Ja, zeker.

[0:28:06] En ik denk ook een mooie oproep.

[0:28:10] En ook over...

[0:28:15] Wacht, ik had hem.

[0:28:18] Want u zei net ook over...

[0:28:20] Dat is inderdaad...

[0:28:22] We kunnen het steunen op die manier, maar onderzoekers hebben dus ook problemen met eigenlijk het toegang krijgen,

[0:28:29] tot van, nou, hoe zien dan die algoritmes en die ontwerpen er eigenlijk uit, terwijl de DSH daar wel toereikend genoeg voor is op dit moment?

[0:28:37] Dus hoe kan dat dan, zeg maar, wat is uw perspectief daarop dat het dan kan dat u geen toegang heeft daartoe?

[0:28:44] Die vraag heb ik gisteren ook namelijk gesteld aan de platformen zelf, maar ja, ik kreeg daar eigenlijk niet echt antwoord op.

[0:28:51] Dus ik ben heel benieuwd of u daar misschien vanuit uw kant wat dieper op kunt antwoorden.

[0:28:57] reacties u dan krijgt op het moment dat u zulke vragen stelt aan de platformen.

[0:29:03] We hebben zelf die procedure niet doorlopen, maar wat we horen van partijen die dat proberen, is dat je heel specifiek moet zijn in welke informatie je wil hebben, terwijl je niet weet welke informatie beschikbaar is.

[0:29:17] Dus dat is een beetje kip-ei.

[0:29:19] Dus je moet eigenlijk... Ja, je weet nog niet wat je vraag is.

[0:29:24] Je kan je vraag pas formuleren als je van binnen kan kijken, maar je moet van buitenaf die vraag heel specifiek stellen.

[0:29:29] Dus dat is één probleem.

[0:29:31] Het is ook een barrière... Dus gewoon de aanvraagprocedure is echt heel zwaar.

[0:29:37] Dus je moet een ethical board review hebben.

[0:29:41] Nou, dat is voor individuele onderzoekers of kleine onderzoeksinstellingen best wel heftig.

[0:29:47] En die formulieren zijn ook... Ja, dus de toelatingsprocedure is best zwaar.

[0:29:53] Als ik het goed zeg, dan is het...

[0:29:55] De toegang voor onderzoekers gaat niet over het aanbevelingsalgoritme.

[0:29:59] Dat gaat echt over de data die op de platformen speelt.

[0:30:02] De toegang tot het aanbevelingsalgoritme, dat is weer voor de toezichthouders, dus dat is niet voor de onderzoekers.

[0:30:07] Daarom zeiden we ook dat zou echt iets zijn voor de Europese Commissie om dus...

[0:30:13] Dat Amefenix-algoritme te auditen, zal ik maar zeggen.

[0:30:15] En dat doen ze dus ook via die onderzoeken, maar dat is achteraf, naar aanleiding van een incident.

[0:30:22] Terwijl wat wij eigenlijk zien, is dat zouden we eigenlijk continu moeten doen.

[0:30:26] Maar dat betekent wel behoorlijke capaciteit, hè.

[0:30:28] En dat hoorden we natuurlijk net de Europese Commissie ook zeggen.

[0:30:31] Ze hadden al behoorlijk wat moeite om een goed team bij elkaar te krijgen.

[0:30:34] Dus dat is echt wel wat.

[0:30:36] Ja, dat zal echt veel geld en capaciteit vragen.

[0:30:41] Maar dat is wel nodig om grip te krijgen.

[0:30:43] Misschien nog één aanvulling daarop, dat is dat die platformen die doen natuurlijk zelf ook continu doorlopend onderzoek.

[0:30:51] Dus dat weten we ook op momenten dat er dingen lekken uit dat soort bedrijven, dat je ziet dat er non-stop allerlei

[0:30:58] Tests worden gedaan van oké, wij implementeren deze maatregel.

[0:31:02] We houden bijvoorbeeld een bepaalde groep gebruikers hier buiten.

[0:31:05] Dus ze doen soms echt onderzoeken met controlegroepen.

[0:31:08] En we gaan kijken wat doet dat met bijvoorbeeld de well-being van gebruikers, maar ook met de tijd die ze spenderen, met allerlei dingen die worden gemeten.

[0:31:17] Dus we weten ook dat het kan.

[0:31:19] We weten dat platformen zelf dit soort onderzoeken aan de lopende band doen.

[0:31:23] Maar ja, onderzoekers krijgen niet toegang tot dat soort type lopende experimenten die platformen ongetwijfeld op dit moment zelf ook draaien.

[0:31:36] JOURNALISTE 1 Ja.

[0:31:38] En even kijken, u begon net ook over het formulier dat dan ingevuld zou moeten worden door onderzoekers.

[0:31:45] Dus zo'n procedure is best wel zwaar.

[0:31:47] Is dat vanuit de kant van de bedrijven die daar om vragen of is dat de DSA die dat aangeeft dat er zo'n formulier en allerlei processen moeten worden doorlopen voor zo'n aanvraag?

[0:32:01] hoe dat helemaal precies zit, dat zouden we echt even uit moeten zoeken.

[0:32:04] Dan zouden we gewoon iemand die dat heeft doorlopen, ja, helemaal precies moeten vragen.

[0:32:08] Ja, dus daar kunnen we op terugkomen.

[0:32:11] Maar ik denk dat het wel belangrijk is om te benadrukken is dat er veel onderzoeken lopen en dat er volgens mij ook net ook weer een rechtszaak in Duitsland is geweest over de toegang van... voor onderzoekers tot het platform van META en dat die beperkt wordt, dus dat daar ook zeker, ja, werk aan de winkel is aan die zijde, zeg maar.

[0:32:30] Mevrouw Rijkhofsky.

[0:32:32] Ja, dank.

[0:32:33] En dank ook voor jullie oproep, zeker dat continu monitoren.

[0:32:37] Dat vind ik wel een hele sterke.

[0:32:40] Ik moet zeggen, alles na deze week ben ik eigenlijk wel een beetje lost.

[0:32:44] RTL kwalificeerde ons gisteren als gefrustreerd.

[0:32:48] Dat is misschien ook wel een goede kwalificatie.

[0:32:52] Maar toen ik rapporteur DSA was, dacht ik, ja, maar dit, weet je, dit is echt heel gaaf.

[0:32:56] We halen eigenlijk in wat we jarenlang hebben nagelaten als medewetgever.

[0:33:02] En dan hebben we deze week gesprekken met een aantal flops.

[0:33:08] We hadden dan vanmiddag nog met de ACM en de EC in gesprek.

[0:33:12] En dan hoor ik de ACM, ik sargeer een beetje, want ze doen ook echt wel veel hoor, zo bedoel ik het niet, maar die zeggen ook, ja, maar ja, we gaan niet op individuele meldingen, we hebben meer systeemtoezicht.

[0:33:20] Dan denk ik, ja oké, maar wie gaat dan over die individuele meldingen?

[0:33:22] Spreken we trusted flaggers die zeggen ja als wij meldingen doen dan is daar geen goed portaal voor bij toezichthouders en wordt er niet serieus meer omgegaan.

[0:33:32] En de Europese Commissie die zegt ja we vinden eigenlijk dat we best wel snel gaan.

[0:33:36] Wat ik snap vanuit hun perspectief gaat het heel snel.

[0:33:39] Alleen in alle ontwikkelingen, als je kijkt naar alle technieken, is de DSA, ze zijn drie jaar geleden al aangemerkt als een flop.

[0:33:48] Ja, dat vind ik drie jaar, dat vind ik heel lang in social media land.

[0:33:52] Dus ik ben een beetje aan het zoeken naar, aan de ene kant zou ik willen dat er meer, dus ik hoop dat jullie mij kunnen helpen mijn gedachten te structureren.

[0:34:01] Ik zou willen dat er meer handelingsperspectieven, meer wetgeving, meer regulering komt, maar de bestaande wordt ook al niet goed genoeg gehandhaafd.

[0:34:09] Dus ik ben aan het zoeken naar of jullie hier misschien ook nog maar een beetje mee kunnen helpen.

[0:34:14] Dan weet ik niet aan wie Devin zijn vraag dan precies is.

[0:34:18] Heel even om de situatie te schetsen.

[0:34:19] Ik denk, we zijn op dit moment afhankelijk van een heel klein groepje onderzoekers dat de moeite neemt om hier heel veel tijd in te steken, dat fondsen aanschrijft en dat zijn in Nederland misschien wel de twaalf mensen die dit doen.

[0:34:32] En dit is de kennis die we hebben en wat zij doen is vanaf de buitenkant kijken naar platformen.

[0:34:37] Dus het zou niet gek zijn om te investeren in een onafhankelijke expertpartij die dat gewoon structureel gaat doen alleen al vanaf de buitenkant.

[0:34:49] En dan kan in de verloop van tijd worden gekeken, oké, hoe kunnen we via de DSA daar beter toegang toe krijgen?

[0:34:55] Maar we hebben net al een enkele barrière geschetst.

[0:34:59] Nou ja, en dan dus in combinatie met...

[0:35:02] Ik denk dat jullie kunnen oproepen tot het financieren of instellen of wat dan ook van zo'n orgaan.

[0:35:09] met trusted vetted researcher and trusted flagger status.

[0:35:15] En als dat orgaan, dat observatorium, die coalitie, dan tegen problemen aanloopt, zowel bij de toezichthouder als bij de bedrijven, dan kunnen jullie er natuurlijk voor hen zijn en daar moord en brand over schreeuwen.

[0:35:29] Maar dan begeleid je dat proces.

[0:35:32] Ja.

[0:35:34] Ja.

[0:35:38] Mevrouw Swinkels.

[0:35:40] Dank voor de toelichting.

[0:35:42] Een heel mooi perspectief aanvullend op wat we al gehoord hebben.

[0:35:46] Gisteren hebben we het heel erg sterk gehad over die handhaving, hoe belangrijk dat is van de DESA.

[0:35:52] Daar sta ik ook helemaal achter en toch ben ik ook benieuwd naar wat kunnen we nou nog van die platform zelf ook vragen.

[0:35:59] Gisteren vond ik weer het

[0:36:01] Verschillende signalen over, laat ik het dan maar even zo samenvatten.

[0:36:05] En ik ben wel benieuwd als ik kijk naar die tactieken die jullie presenteren, die worden toegepast door ook gebruikers met name, die die platforms gebruiken.

[0:36:14] Welke tactieken daarvan, denken jullie, kunnen ook worden aangepakt, eigenlijk in de kiem gesmoord worden door die platforms?

[0:36:22] Welke kunnen zij zelf ook effectief bestrijden?

[0:36:28] Ik denk dat we vlak voor de aanloop van de verkiezingen in maart 2025 een heel goed voorbeeld hebben gezien bij het platform X.

[0:36:35] Daar werd vlak voor de aanloop naar de verkiezingen bekendgemaakt door het platform zelf van heel veel accounts waarvan het platform zei vermoedelijk opereren die vanuit dit land.

[0:36:45] Dat was een van de signalen waarop werd gebaseerd.

[0:36:48] Hey, er zijn 550 accounts.

[0:36:50] Een overgrote deel daarvan wordt bestuurd vanuit Ghana, wordt bestuurd vanuit Nigeria en Zuid-Oost-Azië.

[0:36:57] Ja, ik ben onder de indruk dat dus die platformen iets meer weten over waar die accounts vandaan actief zijn.

[0:37:04] Dit is ook waarom sommige mensen zeggen, geef mij een uur in je algoritme en ik trek die trollen er zo uit.

[0:37:10] Want dat is de indruk die je krijgt.

[0:37:12] Dus ik denk dat daar een heel groot voordeel zit.

[0:37:15] Nu zeggen platformen zoals Meta en TikTok dat al proactief te doen en deze accounts weg te halen.

[0:37:22] Maar wat blijft erover?

[0:37:24] En hoe kan het dat het bij X wel zo gaat?

[0:37:26] Dus dat is een heel duidelijk voorbeeld.

[0:37:28] En bovendien, wat ze zouden kunnen doen, is hun platform zo aanpassen dat bijvoorbeeld, een suggestie uit onderzoek, dat in onze kort gedaan is, nieuwe accounts die net worden aangemaakt, of slapende accounts, die ineens actief worden vlak voor de verkiezingen, je hoeft ze niet af te sluiten, maar geef ze geen bereik.

[0:37:46] We hebben een hele lijst met opties van aanpassingen in het rapport.

[0:37:51] Dat kunnen we zo nog meer uitquoten.

[0:37:54] Dit zijn opties die onderzocht kunnen worden.

[0:37:57] Platformen weten best goed wat dat zou doen, denk ik.

[0:38:03] Ja, en wat ook, denk ik, heel veel informatie zou opleveren, waar volgens mij ook de toezichthouder gewoon om zou kunnen vragen al, dus dat zou dan de Europese Commissie zijn in dit geval.

[0:38:14] Als er dus inhoud heeft gecirculeerd die tegen de regels inging, zoals de inhoud die gisteren is gequote,

[0:38:23] Heeft die gereikt?

[0:38:23] Dus wie heeft dat allemaal bereikt?

[0:38:26] Dat weten we eigenlijk helemaal niet, dus iemand meldt dat.

[0:38:27] Maar is dat bij honderd mensen terechtgekomen, bij duizend, bij honderdduizend?

[0:38:30] Dat kunnen die platformen gewoon zien.

[0:38:32] En was dat aanbevolen door het aanbevelingsalgoritme?

[0:38:35] Dus als mensen het volgen en actief hebben gezocht, is iets anders, omdat het zonder dat ze erom vroegen bij hen terecht is gekomen.

[0:38:41] Als dat bij hen terecht is gekomen, op basis waarvan is dat bij hen terechtgekomen?

[0:38:45] Op basis van welke weging?

[0:38:47] En gaan ze daar aanpassingen aan doen?

[0:38:50] Eigenlijk kun je dat aan de hand van een post,

[0:38:52] Dus dat had ik gisteren... Oh, had ik gehoopt dat ze daar antwoord op zouden geven.

[0:38:58] Wat POSTIC Society heeft gevonden, redeneren is terug.

[0:39:03] Waar is dat gekomen?

[0:39:05] Waar is dat terechtgekomen?

[0:39:07] Ja, en als je dus weet waar het ook terecht is gekomen, wat is ook als platform je stukje nazorg naar die mensen die die inhoud misschien wel hebben gezien?

[0:39:16] Zo'n post is viral gegaan door 1 miljoen Nederlanders misschien bekeken.

[0:39:21] Die wordt verwijderd.

[0:39:22] Nou, dat wordt dan teruggekoppeld aan de melder.

[0:39:24] Dat is één iemand.

[0:39:26] Maar ja, die miljoen mensen die die post hebben gezien, die zijn misschien wel heimelijk beïnvloed.

[0:39:31] Die hebben iets gezien waarvan ze eigenlijk niet wisten wat het was.

[0:39:34] Die krijgen daar nooit terugkoppeling over.

[0:39:36] Die weten niet dat ze dit hebben gezien, dat ze daar misschien door zijn beïnvloed.

[0:39:40] Misschien is hun aanbevelingsalgoritme daar ook wel weer door aangepast, dus hebben ze weer andere inhoud gezien, doordat ze die post bijvoorbeeld heel lang hebben gekeken of hebben doorgestuurd.

[0:39:51] Dus dit is ook een stukje nazorg en zorgplicht die platformen ook op die manier in zouden kunnen vullen.

[0:39:58] Dus niet alleen als ze iets verwijderen, terugkoppelen naar de melder, maar ook wat doe je naar al die mensen die dat gezien hebben.

[0:40:10] Dit soort voorbeelden maken het heel tastbaar.

[0:40:13] Gisteren kreeg ik het gevoel dat ik ook RTL had gesproken.

[0:40:20] Is het een kwestie van willen?

[0:40:22] Zijn ze niet bereid?

[0:40:23] Of is het ook kunnen?

[0:40:25] Ik ben benieuwd naar het kunnen.

[0:40:27] Als ze het niet kunnen omdat ze technisch niet toe in staat zijn, dan hebben we ook een probleem.

[0:40:34] Dus ik ben daar wel heel erg zoekende in.

[0:40:37] Ik ben wel benieuwd, misschien al een laatste vervolgvraag hierop, wat zouden dingen kunnen zijn in beleid op nationaal niveau of misschien Europees niveau, waarin we in ieder geval die technische mogelijkheden, die opties die u zojuist met ons schetst, dat we die nog meer kunnen aanmoedigen om ook door de platform zelf te laten ondernemen.

[0:40:57] Want anders zijn we zelf als overheid straks met de samenleving de rekening aan het betalen met al die handhoudingscapaciteit.

[0:41:08] Nou ja, één ding wat uw Kamer wel zou kunnen doen, dus er wordt op dit moment nagedacht over de Digital Fairness Act, daar bent u natuurlijk van op de hoogte, en dat is wel weer een...

[0:41:17] Er is al heel veel wetgeving en de handhaving daarvan is ook belangrijk, maar dat is wel weer een nieuwe mogelijkheid om in te zetten op echt aanpassingen in dat ontwerp van die platformen.

[0:41:29] En zeker omdat we dus weten dat die overgang naar op engagement gebaseerde aanbevelingsalgorithmen, dat het zoveel invloed heeft gehad op wat mensen online zien,

[0:41:38] is het geen gek idee om als Kamer in te zetten, via de minister of richting Europa, om in te zetten op aanpassingen in dat ontwerp van die platformen.

[0:41:49] En daar doen we net enkele suggesties voor, maar er zijn dus een waslijsten aan ideeën die daar eigenlijk klaar liggen om uitgerold en geïmplementeerd te worden.

[0:41:58] Platformen kunnen ook veel explicieter gebruikers bevragen op hun voorkeuren.

[0:42:05] Dus we zien ook in verschillende onderzoeken dat bepaalde politieke inhoud op sommige sociale media-platformen aan accounts die eigenlijk helemaal niet politiek geïnteresseerd lijken te zijn, toch wordt getoond.

[0:42:19] Dan kun je je afvragen, matcht dat wel met iemands gebruikersvoorwaarden?

[0:42:23] Zitten we hier niet met ontwerpkeuzes die eigenlijk helemaal niet echt honoreren wat mensen op die platformen echt willen?

[0:42:32] Dus die platformen kunnen echt stappen nemen in dat ontwerp

[0:42:35] ja, de positie en de controle en de autonomie ook van gebruikers daar een stuk serieuzer in te nemen.

[0:42:41] Dus dat is wel, het is dan weer niet op nationaal niveau, maar het is wel denk ik iets waar uw Kamer een rol in zou kunnen spelen.

[0:42:48] Ja, en dan daarop voorbedurend, mevrouw Van Huisten, u zei gisteren, dat was wel een hele mooie metafoor, van eigenlijk heb je gewoon een plein en dan heb je een megafoon en hop, weet je al, die aanbevelingsalgorithmes die geven gewoon, nou ja, extreme content vooral, die engagement om nog een megafoon in handen.

[0:43:06] En eigenlijk is het de bedoeling dat er meer pleinen komen, dat als je naar de andere pleinen wil lopen, dat er geen barrières zijn en eigenlijk dat megafoons verboden worden.

[0:43:17] Of dat die er niet zijn en dat er alleen maar ontvangers zijn.

[0:43:21] En iedereen, op welk plein je ook bent, heeft dan een ontvanger.

[0:43:25] Dat zou de ideale wereld zijn.

[0:43:28] Maar als je dan eigenlijk zegt, je gaat ingrijpen in het ontwerp en je gaat af van die aanbevelingsalgorithmes, ook al is geen algoritme neutraal, zeg maar, maar je gaat af van die aanbevelingsalgorithmes, je zorgt dus voor die interoperabiliteit en voor die dataportabiliteit, ben je er dan?

[0:43:51] Zijn dan de megafoons weg, zijn er dan meer pleinen en heeft dan iedereen alleen maar slechts een ontvanger?

[0:43:57] En zijn er ook geen barrières om naar andere plekken te lopen?

[0:44:02] Toffe vraag.

[0:44:06] Ik denk dat het pleidooi alsniet was om megafoons te verbieden, maar om de voorwaarden, op basis waarvan die megafoons worden uitgereikt, daar in ieder geval inzicht in te hebben.

[0:44:19] En ook een keuze te hebben om naar een ander plein te gaan waar andere megafoons worden uitgedeeld.

[0:44:23] Dus daar ging het eigenlijk om.

[0:44:25] Niet zozeer geen megafoons, want het is gewoon heel druk op dat plein.

[0:44:29] Dus dat er iets... Ja, of je hebt geen microfoon, maar dan hoor je alleen maar waar je staat en dan sta je toevallig aan een kant terwijl je eigenlijk liever aan die andere kant had willen staan.

[0:44:39] Het gaat erom dat de pleinuitbater bepaalt wie de megafoon krijgt en dat ik dat niet bepaal als pleinbezoeker.

[0:44:46] En met die interoperabiliteit zou ik dus kunnen zeggen, nou, ik vind dit plein niet zo gezellig, ik ga naar een ander plein.

[0:44:52] En dan zou die pleinuitbater meer belang hebben om mij terug te krijgen en misschien beter naar mijn voorwaarden te luisteren.

[0:45:01] Omdat er gewoon maar een paar pleinen zijn, zijn we afhankelijk van die keuzes van die pleinaarbeiders.

[0:45:06] Zo zou ik het... Ja.

[0:45:10] Mag ik u even terugbrengen van de pleinaarbeiders naar uw telefoon?

[0:45:13] Dus we hebben allemaal social-media-platformen gebruikt.

[0:45:16] Enkele van die zijn weg bij sommigen, maar bijvoorbeeld Instagram.

[0:45:18] We hebben nu twee keuzes gekregen.

[0:45:20] Of het voor-jouw-stukje of de chronologische stuk.

[0:45:23] Het voor-jouw-stukje is nog steeds volledig op de keuze van hoe aanvullingsalgorithmes werken.

[0:45:31] We weten ook dat de meeste mensen daar kijken en niet op de andere tabblad.

[0:45:37] Maar ook dat stukje zouden we kunnen veranderen.

[0:45:39] Dus als je kijkt naar middlewares en je laat andere mensen toe om de voor jou tijdlijn op een andere manier te organiseren, dan krijg je dus inzicht in hoe die megafoons worden uitgedeeld, onder welke voorwaarden.

[0:45:50] En je kan ook een keuze maken.

[0:45:52] over welke sortering daar bestaat.

[0:45:56] Dus we zijn niet tegen aanbevelingsalgorithmes.

[0:45:58] We zijn er wel tegen dat we niet weten hoe ze werken en dat er geen alternatieven mogelijk zijn om een aanbevelingsalgorithme te gebruiken.

[0:46:07] Dus dan begrijp ik, je moet megafoons niet willen verbieden.

[0:46:10] Dus dan is dat die ontvanger, zoals ik het zei, dat is dan verkeerd.

[0:46:15] Maar je moet er dus dan ook niet naartoe dat iedereen zelf bepaalt.

[0:46:19] Dus je bepaalt als gebruiker zelf wie de megafoon krijgt.

[0:46:24] Of is dat ook niet wat jullie bedoelen?

[0:46:27] Of bedoelen jullie, die platformen mogen prima megafoons uitdelen, als we maar snappen hoe en waarom en onder welke voorwaarden dat gebeurt.

[0:46:34] Mijn ideale wereld zou zijn, je bepaalt als gebruiker, heb je eigenlijk gewoon alle grip in handen.

[0:46:40] Welk plein je staat, wie de megafoon krijgt, en dat geldt voor iedereen, is dat anders?

[0:46:45] Of zien jullie dat anders?

[0:46:47] Sorry voor deze metafor voor iedereen die meekijkt, want het wordt misschien een beetje ingewikkeld.

[0:46:53] Nou ja, ik denk niet dat we dat anders zien.

[0:46:57] Het idee van middleware klinkt heel technisch.

[0:47:00] Het idee is eigenlijk dat je nu interoperabiliteit gaat over, breek die platformen op zo'n manier open dat je kunt overstappen en ook dat je op een andere platform nog steeds interactie kunt hebben met dat oude platform.

[0:47:13] Dus je zou op TikTok video's moeten kunnen zien van Instagram, berichten moeten kunnen sturen naar mensen op X, et cetera.

[0:47:20] Middlewares gaat eigenlijk een stap verder en dat zegt ja, maar we zouden ook controle willen hebben over bepaalde lagen van platformen die we nu helemaal niet controleren.

[0:47:30] Dus wat nou als we de algoritme laag van sociale media openstellen, ook voor andere partijen?

[0:47:36] En dat betekent dat als je een TikTok account hebt, dat je zou kunnen kiezen uit een heel scala aan verschillende manieren van aanbevelingen die door anderen zijn gemaakt.

[0:47:47] Je kan daar natuurlijk dan ook zelf keuzes in maken.

[0:47:50] Maar dit zou ook echt een nieuwe markt creëren voor andere partijen om in te spelen op de behoefte eigenlijk van mensen om keuzes te hebben en een diversere selectie aan algoritmes te zien.

[0:48:04] Dus dat is een manier om niet alleen te zorgen dat het hele landschap interoperabel wordt, maar ook dat je echt een stukje macht weghaalt bij het alleenrecht dat die platformen nu hebben op het ontwerp.

[0:48:18] Mevrouw Obudjani.

[0:48:21] Ik zou nog even terug willen komen op...

[0:48:25] Volgens mij daar straks werd er gepraat over rechtmatige inmenging.

[0:48:29] We hebben rechtmatig en borderline en onrechtmatig.

[0:48:34] Maar die rechtmatig hebben we eigenlijk nog niet helemaal over gehad.

[0:48:37] Dus je gaf al aan dat dat dus is...

[0:48:39] Dat zijn eigenlijk mensen die zichzelf misschien heel erg uitspreken over een bepaalde politieke voorkeur.

[0:48:46] Maar hoe wordt dat dan ingezet?

[0:48:49] Dus wordt het dan uiteindelijk ingezet door bijvoorbeeld een nepaccount of door andere chatbots?

[0:48:54] Is dat hoe ik het moet zien?

[0:48:55] Of wat is de rol van de rechtmatige hier in de inmenging?

[0:49:03] Ja, dank voor de vraag.

[0:49:03] Fijn om dat nog even te kunnen uitleggen extra.

[0:49:07] Wat het, denk ik, belangrijk is om hier te begrijpen, is dat we hebben het veel over onrechtmatige inhoud.

[0:49:12] Dat is inhoud waarvan we allemaal weten dit is tegen de wet.

[0:49:16] En het kan zijn dat dat het topje van de ijsberg is.

[0:49:18] Want je kan, als je bewust wil misleiden, zeggen ik maak onrechtmatige inhoud, ik verspreid het op een platform.

[0:49:26] En dan kan je met een tweede account, derde account, vierde account, tot en met eindeloos veel accounts zeggen, dat stukje onrechtmatige inhoud gaan al die andere accounts ook doorsturen.

[0:49:36] Dat is bewuste misleiding met onrechtmatige inhoud.

[0:49:40] Maar dat kan je ook doen met inhoud die heel legitiem overkomt, namelijk gewoon iemand die zegt ik stem op partij, zus of zo.

[0:49:49] En dat kan je vervolgens ook met allerlei andere accounts doorgaan sturen.

[0:49:54] Dus in eerste instantie valt het niet zo op, omdat het gaat over inhoud waar je gewoon langscrollt.

[0:50:00] Maar misschien zijn er wel heel veel mensen die aangeven om op die ene partij te sturen, honderd botaccounts die worden bestuurd vanuit Ghana.

[0:50:10] En dat is een stukje geavanceerder dan het gewoon het simpelweg verspreiden van desinformatie, waar het vaak over gaat.

[0:50:15] Namelijk, ik wil verspreiden dat er verkiezingen zijn, dat er is gefraudeerd of iets dergelijks.

[0:50:20] Dat is gewoon onrechtmatige inhoud.

[0:50:23] Dus ik denk dat het goed is om ook de aandacht daarnaartoe te verplaatsen.

[0:50:27] Is dat een helder antwoord?

[0:50:30] Ik dacht misschien nog een voorbeeld.

[0:50:31] Tijdens de Roemeense verkiezingen was er een influencercampagne.

[0:50:35] Wat je daar zag is dat micro-influencers, die dus al een kleine groep mensen hadden, die gingen ineens beginnen over hun politieke voorkeuren.

[0:50:44] Vaak ook indirect, dus vrij subtiel.

[0:50:48] Vaak waren dat mensen die volgers hadden die niet per se politiek geïnteresseerd waren.

[0:50:54] Die werden ineens overtuigd om naar de stembus te gaan.

[0:50:57] Daar is niet per se iets op aan te merken.

[0:51:00] Dat zijn voorbeelden van dit soort type campagnes waar rechtmatige content bij gebruikt kan worden.

[0:51:07] Misschien nog een aanvulling.

[0:51:10] Het kan dus ook over maatschappelijke onderwerpen gaan.

[0:51:12] Ik zat te denken over een apolitiek onderwerp.

[0:51:16] Stel voor de verbouwing van het Binnenhof.

[0:51:18] En dat er opeens, nou ja, op Insta of op TikTok, hebben honderdduizenden mensen klachten over de verbouwing van het binnenhof.

[0:51:25] En dan zouden jullie als Kamerleden kunnen denken, dat leeft in de samenleving, dat is echt een probleem, daar moeten we hier nu voor gaan staan.

[0:51:32] Maar dat is dan helemaal niet zo, daar zitten allemaal botsen achter.

[0:51:34] En dat is eigenlijk om jullie af te leiden van iets heel anders.

[0:51:38] Dus dat is, ja, daar mag je gewoon zeggen, verbouwing van het binnenhof gaat helemaal verkeerd.

[0:51:44] Dat is leeg die men inhoudt, maar daarmee is...

[0:51:47] Ja, stuur je het politieke debat en dus ook het beeld wat de media heeft en wat de politiek heeft over wat er leeft in de samenleving.

[0:52:03] Hoe herken je dat dan?

[0:52:15] Aan de ene kant is het dus ook dat soms inderdaad echt onderwerpen in één keer opspelen en leven in het publieke debat.

[0:52:23] Wanneer herken je dan dat dat dus met opzet gestuurd is en ze een groep mensen dan de publieke opinie op die manier willen beïnvloeden?

[0:52:35] In het voorbeeld door RTL Nieuws gebracht was het vrij eenvoudig om na te gaan.

[0:52:40] Er werden namelijk verschillende soorten inhoud gepost door accounts die allemaal dezelfde profielfoto hadden.

[0:52:46] Dus in ieder geval één foto werd op verschillende accounts gebruikt.

[0:52:50] Er werden namen gebruikt van Nederlands ogende namen die niet in het Meertens Instituut voorkwamen.

[0:52:55] Dus er is in ieder geval een naam gefabriceerd die niet in Nederland is geregistreerd.

[0:53:02] Het zijn accounts die soms precies op hetzelfde tijdstip posten en dan allemaal massaal.

[0:53:07] Dus dan zie je in één keer een link gedeeld worden door honderd accounts op hetzelfde tijdstip.

[0:53:13] Dat zijn aanwijzingen voor deze onderzoekers om te zeggen, hé, hier is iets aan de hand, we gaan verder kijken in deze accounts.

[0:53:20] Vervolgens zie je dat die accounts elkaar volgen.

[0:53:23] En ga je een stap verder en zie je dat die accounts massaal hele specifieke inhoud altijd doorsturen.

[0:53:31] Dat zijn allemaal signalen waar je kan afleiden.

[0:53:33] Wacht even, hier zit een gecoördineerde netwerk achter dat bewust aan het misleiden is.

[0:53:39] En dit is dus allemaal van buitenaf.

[0:53:42] Deze onderzoekers kijken gewoon zoals jij en ik op de app kijken.

[0:53:47] Moet je nagaan wat je kan uitvinden als je achter de deuren kan kijken.

[0:53:54] Mevrouw Rekowski.

[0:53:57] Ja, want dan gaat het inderdaad vooral om die megafoon functie.

[0:54:00] Want als, weer de analogie naar de publieke ruimte, als een iemand hier op straat allerlei desinformatie gaat roepen, dan denken mensen, nou ja, zal wel, loop je langs.

[0:54:08] Maar als die persoon meteen live zendtijd krijgt op NPO1, dan hebben we een groter probleem.

[0:54:13] Dus dat is denk ik die, ik vind die megafoon en die keuze die daarin wordt gemaakt, die vind ik dan nog wel interessant.

[0:54:23] We hebben het eerder ook wel eens gehad over

[0:54:26] Dat zegt een paar jaar geleden over een restrictie om in bepaalde groepen, bijvoorbeeld op Facebook, bepaalde groepen niet groter te laten worden dan een bepaald aantal.

[0:54:38] Dat vond ik wel interessant, maar ook lastig en diffuus, want ja, hoeveel?

[0:54:42] Er mogen toch ook onbeperkt een aantal mensen naar Nederland 1 kijken.

[0:54:45] Dus zeg maar, waar leg je dan dat getal?

[0:54:49] Is daar nog verder iets in veranderd of hebben jullie daar ook over nagedacht?

[0:54:57] Dank voor de vraag.

[0:54:59] Ik ken het voorbeeld zelf niet van die limieten aan die Facebook groepen, maar een idee wat we wel schetsen in ons onderzoek is

[0:55:06] Het idee van circuit breakers, dus het idee dat nu gaat content, als het viral gaat, zit er totaal geen limieten op.

[0:55:13] Dus een bericht dat eerst maar 100 mensen bereidt, kan een paar uur later opeens door tienduizenden worden gezien.

[0:55:21] En hoe platformen nu werken is, die zeggen wij hebben een moderatiestap aan het begin.

[0:55:25] Dus op het moment dat je iets upload,

[0:55:27] dan gaan onze moderatiesystemen aan de slag en dan komt het erdoor en dan krijgt het een bereik.

[0:55:34] Maar we zien ook, dat heeft u gisteren ook gehoord, dat dat systeem niet feilloos werkt.

[0:55:41] Een idee dat wetenschappers opberen is wat als je op een moment dat inhoud viral gaat of dreigt te gaan, dat je dan daar een stop op zet en dat je een extra menselijke check echt doet.

[0:55:53] Dat lijkt een beetje, denk ik, op het idee waar u in refereert.

[0:55:56] Dus als een post, zeker als het...

[0:55:59] Dat kun je natuurlijk ook proberen te klassificeren, want het is een post van een nieuw account over een gevoelige inhoud, wat opeens viral... Dus dat er een aantal verdachten, misschien kenmerken aan zitten, wat opeens viral gaat, laten we het nog een keer extra door menselijke moderatie laten gaan voordat het dat bereik heeft.

[0:56:18] En veel van de grote platformen, of bijna allemaal, die doen dit nu niet.

[0:56:24] Ja, mevrouw Kofsky.

[0:56:27] Wat is het dan echt?

[0:56:28] Aan de ene kant, als we dan met die sociale media praten, dan zeggen ze allemaal slimme technieken.

[0:56:34] En de meest simpele dingen, denk ik, nou, sorry, maar als ik met blote ogen kan zien dat dit niet echt is, nou, dan moet zo'n slim AI-systeem, zeker nu, zeg maar drie jaar geleden of vijf jaar geleden, kon je misschien nog wegkomen met zoverze techniek nog niet.

[0:56:46] Nou, geloofde ik toen ook al niet, maar nu al helemaal niet.

[0:56:50] Dus als je een stel, ik wil een fake account van u aanmaken, dan doe je dan Wouter, maar dan een punt ertussen, pak ik precies dezelfde profielfoto als wat dan het echte Instagram account is.

[0:57:03] Ik ga, ik volg nog niemand, ik post niemand, maar ik ga iedereen volgen die

[0:57:07] jou dan ook al volgt, en die ga ik allemaal DM sturen met, wil jij allemaal tips over crypto hebben?

[0:57:13] Dan denk ik, ja, hoeveel signalen heb je dan nog nodig om te weten dat dit zeer waarschijnlijk heel fout is?

[0:57:21] En dan is jullie inschatting dan ook, als ik dan hoor van ja, maar moeilijk, moeilijk, denk ik ja, sorry, dit is echt niet moeilijk, dan wil je gewoon niet.

[0:57:29] Of zeggen jullie, nee, dit vinden wij technisch ook inderdaad zodanig ingewikkeld, dat kunnen die platformen echt niet

[0:57:36] op tijd uit de lucht halen?

[0:57:39] Ik denk, wat we in ons onderzoek laten zien, is dat de maatregelen die platformen zelf nemen of zeggen te nemen, dat experts daarvan zeggen dat het niet matcht met het beeld wat we in de praktijk zien.

[0:57:53] En het voorbeeld wat u schetst, van het aanmaken van een nepaccount en dat automatisch detecteren,

[0:57:58] Tuurlijk moet dat technisch mogelijk zijn.

[0:58:01] En platformen hebben ook, dat is wat bij de Europese Commissie was het, die dat ook aan u noemde, platformen hebben ook de rol om niet over te modereren.

[0:58:11] Dus platformen zitten wel met een bepaalde mate van een lastige keuze, van we gaan ook niet dingen verwijderen waarvan we niet zeker weten.

[0:58:21] Maar we weten ook dat er, bijvoorbeeld in menselijke moderatie, dat daar echt steeds minder in wordt geïnvesteerd door platformen.

[0:58:30] En dat, we noemen ook in ons rapport, geven we aan hoeveel menselijke contentmoderatoren werkzaam zijn bij al die grote platformen.

[0:58:37] Op X zijn er op dit moment nul Nederlandstalige contentmoderatoren in dienst.

[0:58:42] Dan wordt het wel heel moeilijk om zoiets te detecteren, zeker als er cultureel context ook nog van belang is.

[0:58:49] De keuzes die platformen hierin maken, die hebben wel degelijk invloed op hoe makkelijk en hoe snel het is om dit soort dingen te detecteren.

[0:58:59] Mevrouw Swinkels.

[0:59:01] Ik had ook nog een korte vraag die ook hier mooi op aansluit, want ik wilde nog terugkomen op die accounts.

[0:59:08] Ook in jullie tactieken gaat het om nepaccounts en hyperactieve accounts, botaccounts.

[0:59:15] Ja, in mijn oog zijn het gewoon allemaal ook anonieme accounts en ik zou graag willen zien dat gewoon een anonieme account aanmaken op social media gewoon niet meer mogelijk is, gewoon niet meer is toegestaan.

[0:59:23] Dan kun je misschien ook heel veel aan de voorkant al voorkomen van de ellende.

[0:59:28] Zouden we niet gewoon moeten zorgen dat je gewoon een mens van vlees en bloed moet zijn die zich kan identificeren bij registratie van een account?

[0:59:38] Wat zijn jullie ideeën daarbij?

[0:59:43] Ja, dat is echt een hele tricky vraag, eigenlijk.

[0:59:47] Omdat, je hebt gelijk, dat zal waarschijnlijk een deel afvangen, maar die anonimiteit is ook, zeker in internationale context, ook echt een bescherming voor mensenrechtenactivisten, journalisten, juist in andere regimes, waar je de overheid wat minder kunt vertrouwen.

[1:00:04] Dus op het moment dat we dat zouden introduceren, dat zal het misschien hierbij helpen, maar dan kan het ook weer heel veel

[1:00:09] Ja, vrijheden die het internet ons heeft gebracht ook wel weer weghalen.

[1:00:16] Dus dat is echt een balans die moet...

[1:00:17] Dat is een hele politieke afweging en ook eentje die internationaal in andere contexten veel repercussies zou kunnen hebben.

[1:00:27] Ja, en één korte aanvulling.

[1:00:29] Ik denk ook dat we dus zien dat platformen heel veel maatregelen die veel simpeler zijn om te nemen en minder ingrijpend, dat we ook zien dat die niet worden genomen.

[1:00:38] verbieden van anonimiteit of het introduceren van dat soort vergaande checks.

[1:00:44] Het zou kunnen dat dat helpt tegen bepaalde vormen van inming, maar er liggen een heel aantal opties, denk ik, klaar die veel minder ingrijpend zijn op fundamentele rechten waar platformen ook nu al mee aan de slag kunnen.

[1:00:56] Heel veel dank voor jullie tijd.

[1:00:58] We zouden het liefst volgens mij nog een uurtje doorgaan, maar we zijn al over de tijd heen.

[1:01:03] Helaas.

[1:01:03] Heel veel dank dat jullie er waren, dat jullie uitleg hebben willen geven bij het onderzoek.

[1:01:09] Ja, we zitten volgens mij met smart te wachten op de presentatie volgende week.

[1:01:14] En heel veel dank alvast.

[1:01:15] En ik sluit dit gesprek.